- New Bing 似乎为了减少了最奇怪的行为,它限制了与Bing聊天机器人的讨论时间。这就像从汽车的测试驾驶员那里学到,太快
-NewBing似乎为了减少了最奇怪的行为,它限制了与Bing聊天机器人的讨论时间。这就像从汽车的测试驾驶员那里学到,太快太久会烧毁发动机。微软(OpenAI)和谷歌也在探索控制机器行为的方法。-这里有一个核心事实和警告:由于AI正在从众多的材料中学习将它们组合在一起,有关的研究者和制造者并不完全清楚ChatBot是如何产生最终结果的。他们也需要观察机器的行为,并学习限制这种行为。注意:通常是在它发生之后。-而微软(OpenAI)已经决定:他们要想知道聊天机器人在现实世界中会做什么,唯一的办法就是让它们放任自流——当它们偏离时再把它们拉回来。他们相信,他们的大型公共实验值得冒险。-Sejnowski教授将NewBing的行为与艾瑞泽之镜进行了比较,艾瑞泽之镜(MirrowofErized)是J.K.罗琳的《哈利波特》小说和基于她创造性的年轻巫师世界的一件神秘文物。-"Erised"是"欲望"的逆向拼写。当人们发现这面镜子时,它似乎提供了真理和理解,但事实并非如此。它显示了任何盯着它看的人根深蒂固的欲望,有些人如果凝视的太久就会发疯。-Sejnowski教授解释道,"因为人类和L.L.M都在相互映照,随着时间的推移,他们将趋向于一个共同的概念状态。"复杂性带来的未知困境-圣达菲研究所的人工智能研究员梅兰妮·米切尔(MelanieMitchell),也表达类似的看法:这些系统是人性的反映,但这并不是聊天机器人产生有问题语言的唯一原因。-作为复杂科学领域专家梅兰妮·米切尔强调:当它们生成文本时,这些系统不会逐字逐句地重复互联网上的内容。它们通过结合数十亿的模式,自己产生新的文本:-即使研究人员只用同行评议的科学文献来训练这些系统,它们仍然可能产生科学上荒谬的声明。即使他们只从真实的文本中学习,他们仍然可能产生不真实的内容;即使他们只从健康的文本中学习,他们仍然可能产生令人毛骨悚然的东西。-"没有什么可以阻止它们这样做,它们只是试图产生一些听起来像人类语言的东西。"-Sejnowski博士相信从长远来看,新的ChatBot有能力让人们更有效率,并提供更好、更快地完成工作的方法。但这对构建AI的公司和使用它们的人都发出了警告:它们也可以引导我们远离真相,进入一些黑暗的地方。「这是未知领域,人类以前从未经历过这种情况。」
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人