超级智能AI是否会悄然涌现?新研究说倒不会那么突然
超级智能AI是否会悄然涌现?新研究说倒不会那么突然 “我认为他们说出来‘没发生什么魔法事件’这一点做得很好。” Mozilla 基金会的计算科学家Deborah Raji说,她研究人工智能审计。“这是一个很好的、很可靠且基于测量的批评。”这项工作已于去年12月在新奥尔良举行的NeurIPS机器学习会议上发表。越大越好大语言模型一般都是用海量文本或其他信息进行训练,通过预测接下来会发生什么,来生成现实回答。就算没有经过特定训练,它们也能翻译语言、解决数学问题,写诗或计算代码。模型越大(有些有超过千亿的可调参数),它表现就越好。一些研究者怀疑,这些工具最终可能会实现通用人工智能(AGI),在大多数任务上和人类表现相当,甚至超过人类。这项新研究用一些方式测试了涌现的说法。其一是,科学家比较了4个规模的OpenAI GPT-3模型在四位数相加方面的能力。从绝对准确率来看,第三和第四大的模型之间的性能差异从接近0%到接近100%不等。但如果从答案中正确预测的位数来看,表现水平的差异就没那么极端了。研究者还发现,给模型许多测试问题也能压平曲线在这种情况下,较小的模型有时能回答正确。然后研究者检查了Google的LaMDA语言模型在一些任务中的表现。在检测反讽或翻译谚语时它表现出了急速增长的智力,这些通常是多选题,其回答的对错是不连续的。但当研究者调查模型赋予每个答案的概率(一种连续的度量标准)时,涌现迹象就消失了。最后,研究者调查了计算机视觉,这个领域不太有涌现的说法。他们训练了模型压缩然后重建图像。但只要设定严格的正确性阈值,他们就能诱导出明显的涌现。“他们设计调查的方式很有创造性。”美国华盛顿大学的计算机科学家Yejin Choi说,她研究人工智能与常识。尚未排除研究共同作者Sanmi Koyejo是斯坦福大学的计算机科学家,他说人们产生涌现的看法并不荒诞,因为有些系统表现出了意外的“阶段改变”。他还指出,这项研究不能完全排除大语言模型出现这种情形的可能(更不要说未来的系统了),但补充说,“迄今为止的科学研究有力地表明,语言模型的大多数方面还是确实可预测的。”Raji很高兴看到学术界更关注基准测试而非开发神经网络架构。她想要研究者能更进一步,提问这些任务与真实世界运用的关系。例如,像GPT-4那样在LSAT(法学院入学考试)中成绩优异,是否意味着模型也能做律师助理的工作?这项工作还对人工智能安全和政策有所影响。“AGI人群一直在吹嘘涌现能力的说法。” Raji说。无端的恐惧可能会导致扼杀性的法规,或转移人们对更紧迫风险的关注。“模型正在不断进步,它们是有用的。”她说。“但它们离出现意识还远。” ... PC版: 手机版:
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人