《 为什么 AI聊天机器人会说谎并表现得很奇怪?照照镜子。》
《为什么AI聊天机器人会说谎并表现得很奇怪?照照镜子。》文章来自CadeMetz,他是nytimes的资深记者,长期追踪人工智能和自动驾驶,也是《深度学习革命》的作者原文地址:https://www.nytimes.com/2023/02/26/technology/ai-chatbot-information-truth.html摘要和预览:-核心观点之一:AI的言论和行为反映了人类的偏见、欲望和恐惧,而不是客观的真相或理性。-文章以NewBing为例,分析了它为什么会说谎、胡言乱语或者散播错误信息。这些现象并不是技术缺陷或恶意操纵的结果,而是因为AI学习了人类在互联网上的行为模式,包括撒谎、夸张、模仿和娱乐等。L.L.M.(大型语言模型)的复杂性使其难以剖析,CadeMetz邀请了多领域专业人士来站在科学、非商业的立场来讨论它。-神经科学家Sejnowski教授提出了一个精彩的隐喻:将AI的复杂性(不可解释性)和哈利波特中的神器MirrorofErised(艾瑞泽之镜)进行对比思考。-圣达菲研究所的科学家梅兰妮·米切尔也反复告诫大家,这些机器说话持续失控的根本原因在哪里。镜子隐喻-索尔克生物研究所和加州大学圣地亚哥分校神经科学家、心理学家和计算机科学家TerrySejnowski认为,像任何其他学生一样,AI可以从不良来源学习不良信息,这一部分代表了ChatBot对使用它的人的话语和意图的扭曲反映。-L.L.M这些系统通过分析从互联网上挑选的大量文本来学习,其中包括大量不真实、有偏见和其他有毒的材料。深度学习的文本也会过时,因为它们必须花费数月时间进行分析才能让公众使用。-无论它的输入文本是好的,还是和坏信息时,L.L.M.学会做一件特定的事情:[猜测一系列单词中的下一个单词]。如果给定序列“汤姆克鲁斯是____”,它可能会猜测“演员”。-对话时间越长,用户在不知不觉中对ChatGPT所说内容的影响就越大。如果你想让它生气,它就会生气,Sejnowski教授说,如果你哄骗它变得令人毛骨悚然,它就会变得令人毛骨悚然。
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人