《 为什么 AI聊天机器人会说谎并表现得很奇怪?照照镜子。》
《 为什么 AI聊天机器人会说谎并表现得很奇怪?照照镜子。》 文章来自 Cade Metz ,他是nytimes 的资深记者,长期追踪人工智能和自动驾驶,也是《深度学习革命》的作者 原文地址: 摘要和预览: - 核心观点之一:AI 的言论和行为反映了人类的偏见、欲望和恐惧,而不是客观的真相或理性。 - 文章以New Bing为例,分析了它为什么会说谎、胡言乱语或者散播错误信息。 这些现象并不是技术缺陷或恶意操纵的结果,而是因为AI 学习了人类在互联网上的行为模式,包括撒谎、夸张、模仿和娱乐等。 L.L.M. (大型语言模型)的复杂性使其难以剖析,Cade Metz邀请了多领域专业人士来站在科学、非商业的立场来讨论它。 - 神经科学家 Sejnowski 教授提出了一个精彩的隐喻: 将AI 的复杂性(不可解释性)和哈利波特中的神器 Mirror of Erised(艾瑞泽之镜)进行对比思考。 - 圣达菲研究所的科学家梅兰妮·米切尔也反复告诫大家,这些机器说话持续失控的根本原因在哪里。 镜子隐喻 - 索尔克生物研究所和加州大学圣地亚哥分校神经科学家、心理学家和计算机科学家 Terry Sejnowski 认为,像任何其他学生一样,AI 可以从不良来源学习不良信息, 这一部分代表了 ChatBot 对使用它的人的话语和意图的扭曲反映。 - L.L.M 这些系统通过分析从互联网上挑选的大量文本来学习,其中包括大量不真实、有偏见和其他有毒的材料。深度学习的文本也会过时,因为它们必须花费数月时间进行分析才能让公众使用。 - 无论它的输入文本是好的,还是和坏信息时,L.L.M.学会做一件特定的事情:[猜测一系列单词中的下一个单词] 。 如果给定序列“汤姆克鲁斯是”,它可能会猜测“演员”。 - 对话时间越长,用户在不知不觉中对ChatGPT 所说内容的影响就越大。如果你想让它生气,它就会生气,Sejnowski 教授说,如果你哄骗它变得令人毛骨悚然,它就会变得令人毛骨悚然。
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人