- New Bing 似乎为了减少了最奇怪的行为,它限制了与Bing聊天机器人的讨论时间。这就像从汽车的测试驾驶员那里学到,太快
- New Bing 似乎为了减少了最奇怪的行为,它限制了与Bing聊天机器人的讨论时间。这就像从汽车的测试驾驶员那里学到,太快太久会烧毁发动机。微软(OpenAI)和谷歌也在探索控制机器行为的方法。 - 这里有一个核心事实和警告: 由于AI 正在从众多的材料中学习将它们组合在一起,有关的研究者和制造者并不完全清楚ChatBot是如何产生最终结果的。他们也需要观察机器的行为,并学习限制这种行为。注意:通常是在它发生之后。 - 而微软(OpenAI)已经决定: 他们要想知道聊天机器人在现实世界中会做什么,唯一的办法就是让它们放任自流当它们偏离时再把它们拉回来。他们相信,他们的大型公共实验值得冒险。 - Sejnowski 教授将 New Bing的行为与艾瑞泽之镜进行了比较,艾瑞泽之镜(Mirrow of Erized )是J.K.罗琳的《哈利波特》小说和基于她创造性的年轻巫师世界的一件神秘文物。 - "Erised "是 "欲望 "的逆向拼写。当人们发现这面镜子时,它似乎提供了真理和理解,但事实并非如此。它显示了任何盯着它看的人根深蒂固的欲望,有些人如果凝视的太久就会发疯。 - Sejnowski 教授解释道, "因为人类和L.L.M都在相互映照,随着时间的推移,他们将趋向于一个共同的概念状态。" 复杂性带来的未知困境 - 圣达菲研究所的人工智能研究员梅兰妮·米切尔(Melanie Mitchell),也表达类似的看法: 这些系统是人性的反映, 但这并不是聊天机器人产生有问题语言的唯一原因。 - 作为复杂科学领域专家梅兰妮·米切尔强调: 当它们生成文本时,这些系统不会逐字逐句地重复互联网上的内容。它们通过结合数十亿的模式,自己产生新的文本: - 即使研究人员只用同行评议的科学文献来训练这些系统,它们仍然可能产生科学上荒谬的声明。即使他们只从真实的文本中学习,他们仍然可能产生不真实的内容;即使他们只从健康的文本中学习,他们仍然可能产生令人毛骨悚然的东西。 - "没有什么可以阻止它们这样做,它们只是试图产生一些听起来像人类语言的东西。" - Sejnowski 博士相信从长远来看,新的ChatBot 有能力让人们更有效率,并提供更好、更快地完成工作的方法。但这对构建AI的公司和使用它们的人都发出了警告:它们也可以引导我们远离真相,进入一些黑暗的地方。 「这是未知领域,人类以前从未经历过这种情况。」
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人