金融大鳄格里芬:AI不可能在两三年内完全取代人类工作

金融大鳄格里芬:AI不可能在两三年内完全取代人类工作 “一些人相信,在三年内,我们作为人类所做的几乎所有事情都将由LLM和其他AI工具以这样或那样的形式完成。出于一些原因,我不相信这些模型会在不久的将来实现那种突破。”格里芬的对冲基金和电子做市商一直走在自动化的前沿,他强调了机器学习模型在适应变化方面的局限性。他指出,自动驾驶汽车在下雪的情况下表现不佳,这表明机器学习模型只有在一致的环境中才会表现更好。“当地形变化时,他们不知道该怎么做,”格里芬说。尽管格里芬对人工智能的短期潜力持怀疑态度,但他承认,从长远来看,这项先进技术具有变革的力量。他甚至预测,由于计算能力的提高,癌症最终将被根除。 ... PC版: 手机版:

相关推荐

封面图片

周鸿祎:ChatGPT或两三年内产生自我意识

周鸿祎:ChatGPT或两三年内产生自我意识 360的创始人周鸿祎星期四(2月23日)受访时说,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。 周鸿祎认为,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”,“能够自己‘编’故事,这才是它的真正智能所在。” 他说:“ChatGPT可能在2-3年内就会产生自我意识威胁人类。” 作为网络安全问题专家,在周鸿祎看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。 “目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎说,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的边界点。 至于外界关注的ChatGPT是否可能造成普通人失业,在周鸿祎看来短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”前文: 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

英伟达CEO黄仁勋:通用人工智能可能在五年内到来

英伟达CEO黄仁勋:通用人工智能可能在五年内到来 美东时间 3 月 1 日,英伟达 CEO 黄仁勋在参加 2024 年斯坦福经济政策研究所峰会时表示,“按照某些定义,通用人工智能 (AGI)可能在短短五年内到来。” 黄仁勋在活动中被问到“创造出能像人类一样思考的计算机需要多久”这一问题,他回答说,答案很大程度取决于“如何定义”。若对于上述计算机的定义是“能够通过人类测试”,那么通用人工智能将很快到来。 就目前而言,人工智能可以通过诸如法律考试等测试,但在专业医学测试(如胃肠病学)上仍然存在困难。黄仁勋认为,五年后,AI 有望能通过“任何一项测试”。黄仁勋同时表示,“很难让 AI 成为一名工程师”,要实现更高要求的通用人工智能“可能仍会很难”,对此他给出的理由是科学家在“如何描述人类思维的工作方式”方面仍存分歧。 通用人工智能(AGI)又称“强人工智能”,指的是人工智能可以像人类一样学习和推理,有可能解决复杂的问题并独立做出决策。但目前仍没有公认的人类智能定义,不同领域科学家对通用人工智能的定义和标准也各不相同。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

Google的秘密AI模型未来很可能在难题数学领域打败人类

Google的秘密AI模型未来很可能在难题数学领域打败人类 上周,双子座人工智能模型的最新技术报告公布了其最新数学成绩的详细信息。这份相当厚重的文件显示,Google打算模仿数学家接受的训练来解决复杂的问题,为了实现这一目标,该公司对其双子座人工智能模型进行了专门的变体训练。Gemini 1.5 Pro 的数学变体似乎经过了多项基准测试。根据其文件,Google依靠各种基准来评估其最新人工智能数学模型的输出。这些基准包括 MATH 基准、美国数学邀请考试 (American Invitational Mathematics Examination, AIME) 和Google内部的 HiddenMath 基准。根据Google的数据,数学型 Gemini 1.5 Pro 在数学基准测试中的表现"与人类专家的表现相当",与标准的非数学型 Gemini 1.5 Pro 相比,数学型 Gemini 1.5 Pro 在 AIME 基准测试中解决的问题明显增多,在其他基准测试中的得分也有所提高。Google还举例说明了 Gemini 1.5 Pro 所解决的问题。根据该文件,这些问题是"Gemini 1.5 Pro、GPT-4 Turbo 和以前所有 Gemini 型号都 没有正确解决的问题",最终提高了Google产品的性能标准。在它分享的三个示例中,两个是由数学专用的 Gemini 1.5 Pro 解决的,而一个是由标准的 Gemini 1.5 Pro 变体错误解决的。这些问题通常要求解题者回忆代数中的基本数学公式,并依靠它们的分段和其他数学规则得出正确答案。除了问题之外,Google还分享了 Gemini 1.5 Pro 基准测试的重要细节。这些数据表明,在所有五项基准测试成绩中,Gemini 1.5 Pro 都领先于 GPT-4 Turbo 和亚马逊的 Claude。据Google公司称,其数学专用变体能够"从单个样本中获得 80.6% 的 MATH 基准准确率,在对 256 个解决方案进行采样并选择一个候选答案时(rm@256),准确率达到91.1%",这一成就使其与人类专家处于同等水平。事实上,根据Google深度思维首席科学家杰夫-迪恩(Jeff Dean)的说法,数学模型91.1%的得分大大高于三年前仅为6.9%的"SOTA"(最先进水平)得分。 ... PC版: 手机版:

封面图片

OpenAI首席技术官:预计几年内“博士级智能”的AI就会出现

OpenAI首席技术官:预计几年内“博士级智能”的AI就会出现 当被问及ChatGPT的智能进展时,穆拉蒂表示:“这些系统在特定任务中已经达到了人类的水平,当然在很多任务中,它们还没有达到。”她接着说,像GPT-3这样的模型表现出与蹒跚学步的孩子相似的智力。相比之下,像GPT-4这样的系统所展示的智力堪比聪明的高中生。“然后在接下来的几年里,我们将着眼于特定任务的博士级智能。所以情况正在迅速改变和提高。”在另一次采访中,穆拉蒂表示,OpenAI实验室正在开发的AI模型并不比公众可用的模型先进多少。“我们最近做的事情是发布GPT-4o,这是我们的全能模型。我们让每个人都可以免费使用它,”她接着说,“在实验室里,我们有这些功能强大的模型,它们与公众免费使用的模型相比并不那么遥遥领先。” ... PC版: 手机版:

封面图片

报告:80%的工作岗位将在未来三年内因AI改变

报告:80%的工作岗位将在未来三年内因AI改变 报告称,56%的受访高管认为AI将为其组织创造就业机会,44%的高管持相反意见。对员工来说,担忧AI使自己失业的比重大幅减少,从2022年的53%下降到10%。不过,21%的员工担心,AI的进步会提高工作要求,迫使自己工作更快或产出更多,从而增加工作压力和风险,这一比例是2022年的两倍。美世亚洲区总裁拉蒂默(Peta Latimer)接受第一财经记者采访时表示,她对AI与劳动力市场的关系持乐观态度。“过去30年,我们一直在说很多的工作要被机器人所取代,但现在的就业还是可以进行合理分配。”她称,“即使AI可以帮助公司生产力提升30%,这也不意味着会直接减少30%就业岗位。”AI将带来什么报告发现,随着AI技术的发展,四分之一的高管表示AI将从根本上改变他们的业务模式,而80%的工作岗位将在未来三年内因生成性AI而发生显著变化。32%的高管认为,AI能通过放大智能带来更大附加值,从而减轻当前最紧迫的人才风险,例如劳动力供应紧张、劳动力成本上升、人才流动性低等。54%的高管认为,如果企业不大规模采用AI,其业务将无法在2030年后生存。有53%的高管预计,AI和自动化将在未来三年内为他们的组织带来10%-30%的生产力提升,另有40%的高管认为提升幅度会更大。不过,尽管AI和自动化有望带来显著的生产力提升,但这只有在重新设计工作方式以适应人机协作时才能实现。然而,尽管41%的亚洲企业高管认为投资AI能最大程度地提高企业的生产力,但随着AI和自动化技术的快速发展,大多数员工可能无法适应或最大程度利用AI。86%的高管认为,如果工作岗位被AI改变或取消,只有不到一半的员工能够适应。同时,67%的企业和机构在采用新技术时,并没有相应地改变他们的工作方式。由于新技术未能有效融入日常工作,员工需要花费大量时间处理无价值或重复的任务,导致生产力下降。此外,许多企业在实施新技术时,未能充分考虑员工的体验和需求,导致新技术难以学习或使用,技术投资就不能发挥预期效果。拉蒂默表示,招聘网站领英的数据显示,企业在招聘中对AI技能的整体要求在过去6个月内提高了21倍,但教育体系仍难以跟上这一趋势,两者之间出现了一种错配。同时,员工看待劳资关系的角度也已发生变化。“很多员工会觉得,如果AI带来的生产力提升没有反馈给员工,他们不会继续有动力在公司中发展。”她称,特别是在疫情后和通胀环境下,员工的预期值发生了转变,就职者的目标是一个更好、更和善、更灵活的一个就业环境,而不仅仅只是“向钱看齐”。解决方法报告还发现,83%的亚洲员工表示在过去一年中出现了职业倦怠,经济压力是首要原因。许多员工面临生活成本上涨和持续的通货膨胀,他们平均每月要花费6个小时的工作时间来担心自己的财务状况。报告称,员工对财务健康的关注度越来越高,他们希望雇主能提供支持以减轻他们的财务压力。只有45%的员工认为他们为退休存够了足够的钱,并且他们更信任雇主提供的退休计划,而不是独立的财务顾问。报告发现,与不关注员工财务健康的公司相比,关注员工财务健康的公司员工更有可能感到满意和留在公司。此外,价值观不一致、工作与生活平衡的挑战和缺乏心理安全感也是导致职业倦怠的因素。57%的员工报告他们工作时间比以往更长,而42%的员工认为繁忙的工作(无价值的任务)是导致生产力下降的主要原因。报告认为,雇主可以从重新设计工作、重建员工的信任以及缓解员工的职业倦怠和经济压力三方面下手,增进其人力资本的可持续性。例如,报告提到,只有46%的高管对所在机构的人才模型能够满足客户需求充满信心,只有27%的人强烈认为其劳动力模型足够灵活,能够将人才从一个领域转移到另一个领域。为此,企业应该创建技能分类法,并将员工的技能与之相对应;制定能力框架,评估员工在特定技能方面的能力水平;设计基于技能的奖励计划,激励技能发展;要充分利用AI和技术,企业必须重新设计工作流程并提供充分的培训。 ... PC版: 手机版:

封面图片

AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测

AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测 这一发现可能会颠覆金融服务业。与其他商业部门一样,金融服务业正在竞相采用生成式人工智能技术。根据这项最新研究的研究,在分析财务报表以及根据这些报表做出预测等方面,大语言模型比人类做得更好。“即使没有任何叙述或行业特定信息,大语言模型在预测盈利变化方面的能力也优于金融分析师们,”该研究称,“在分析师遇到难题时,大语言模型比人类分析师表现出相对优势。”该研究利用“思维链(chain-of-thought)”提示,指导GPT-4识别财务报表的趋势并计算不同的财务比率。在此基础上,大语言模型可以分析信息并预测未来的收益结果。该研究称:当我们使用思维链提示来模拟人类推理时,我们发现GPT的预测准确率达到了60%,明显高于分析师的准确率。人类分析师在预测准确度方面接近50%的范围。该研究的作者还表示,大语言模型能够在信息不完整的情况下识别财务模式和商业概念,这表明该技术应该在未来的财务决策中发挥关键作用。最后,该研究发现,如果将GPT-4的金融敏锐性应用于交易策略,能够获得更多交易回报,通常能跑赢大盘。研究称:“我们发现,基于GPT预测的多空策略表现优于市场,并产生显著的阿尔法和夏普比率(对资产的风险和收益进行综合考量的指标)。” ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人