AI模型最喜欢的随机数字与人类的想法类似 因为它们始终在模仿人

AI模型最喜欢的随机数字与人类的想法类似 因为它们始终在模仿人 但首先,这到底是什么意思?难道人们不能随机抽取一个号码吗?你又如何判断一个人这样做成功与否呢?这其实是我们人类一个非常古老且众所周知的局限性:我们对随机性过度思考和误解。让一个人预测 100 次掷硬币的正面或反面,然后将其与 100 次实际掷硬币进行比较你几乎总能将它们区分开来,因为从反面来看,真正的掷硬币看起来并不那么随机。例如,经常会出现连续 6 或 7 次正面或反面的情况,而几乎没有人在 100 次预测中会出现这种情况。当你让别人在 0 和 100 之间选一个数字时,情况也是一样。人们几乎从不选 1 或 100。他们通常会选择以 7 结尾的数字,一般是从中间的某个位置开始。心理学中这种可预测性的例子数不胜数。但这并不意味着人工智能做同样的事就不奇怪。是的,Gramener 公司一些好奇的工程师 做了一个非正式但却很有趣的实验,他们只是让几个主要的 LLM 聊天机器人随机选择一个 0 到 100 之间的数字。结果不是随机的。所有三个被测试的模型都有一个"最喜欢"的数字,在最确定的模式下,这个数字总是它们的答案,但即使在更高的"温度"下,这个数字也会经常出现,从而增加了结果的可变性。OpenAI 的 GPT-3.5 Turbo 非常喜欢 47。在此之前,它喜欢的是 42当然,道格拉斯-亚当斯(Douglas Adams)在《银河系漫游指南》(The Hitchhiker's Guide to the Galaxy)中将这个数字作为生命、宇宙和万物的答案而闻名于世。Anthropic 的 Claude 3 Haiku 选择了 42。Gemini喜欢 72。更有趣的是,即使在高温条件下,这三种模型在选择数字时都表现出了类似人类的偏差。所有人都倾向于避免低位和高位数字;克劳德从未超过 87 或低于 27,即使这些数字也是异常值。两位数被严格避免:没有 33、55 或 66,但 77 出现过(以 7 结尾)。几乎没有四舍五入的数字不过Gemini曾经在脑袋发热的时候,疯狂地选择了 0。为什么会这样?人工智能不是人类!它们为什么要在乎什么是"看似"随机的?难道它们终于有了意识,而这就是它们的表现形式?答案是,就像这些东西通常的情况一样,我们把它们拟人化得太远了。这些模型并不关心什么是随机,什么不是随机。它们不知道什么是"随机性"!它们回答这个问题的方式与回答其他问题的方式相同:通过查看训练数据,重复在类似"随机选取一个数字"的问题后最常出现的内容。出现的次数越多,模型重复的次数就越多。如果几乎没有人这样回答,他们会在训练数据中看到 100 吗?就人工智能模型所知,100 并不是一个可以接受的答案。由于没有实际的推理能力,也不懂数字,它只能像鹦鹉一样随机回答问题。这是一堂关于 LLM 习惯以及它们可能表现出的人性的客观课。在与这些系统的每一次互动中,我们都必须牢记,它们已被训练成以人的方式行事,即使这并非它们的本意。这就是伪善难以避免或预防的原因。如果说这些模型"认为自己是人"会有点误导,因为他们根本不会思考。但在回答问题时,它们随时都在模仿人类,根本不需要了解或思考。无论你是向它询问鹰嘴豆沙拉食谱、投资建议还是随机数字,过程都是一样的。结果之所以让人感觉像人,是因为它们是人类制作的,是直接从人类制作的内容中提取并重新混合的为了你的方便,当然也是为了大型人工智能的底线。 ... PC版: 手机版:

相关推荐

封面图片

OpenAI 探索用 GPT-2 小模型监督 GPT-4 大模型,防止 AI 毁灭人类

OpenAI 探索用 GPT-2 小模型监督 GPT-4 大模型,防止 AI 毁灭人类 Ilya 领衔的 OpenAI 对齐团队,发表了 用类似 GPT-2 监督 GPT-4 的方法,或可帮人类搞定自己更聪明的超级 AI! 团队声称,已经发现了对超人类模型进行实证对齐的新研究方向。未来超级 AI 系统对齐的一个核心挑战 人类需要监督比自己更聪明人工智能系统。 来源, 频道:@kejiqu 群组:@kejiquchat

封面图片

人类需要它们时,它们是英雄,被大家歌颂,搜救犬、警犬、治愈犬、导盲犬,它们用生命去为人类服务,可是就因为一个主人的疏忽管理,就无

人类需要它们时,它们是英雄,被大家歌颂,搜救犬、警犬、治愈犬、导盲犬,它们用生命去为人类服务,可是就因为一个主人的疏忽管理,就无差别攻击狗狗这个群体和养狗狗的人,伤害这些流浪狗 拒绝偷换概念,该改造的是不负责任不牵绳的人,不是千千万万狗本身,地球是所有生物的家,不是只有人才配生活在地球。 #各地扑杀流浪狗#

封面图片

RT indigoTesla Bots 大军来了,它们跟随人类教练在现实环境中模仿行为、理解世界并完成复杂任务!尽管 OpenA

RT indigo Tesla Bots 大军来了,它们跟随人类教练在现实环境中模仿行为、理解世界并完成复杂任务!尽管 OpenAI、DeepMind、Meta 还有 Nvidia 带领着 AI 在数字世界狂奔,但只有 Tesla 通过 FSD 让 AI 在现实世界的信息海洋中遨游 … @elonmusk 认为 Tesla 将在 AGI 中发挥重要作用

封面图片

Tesla Bots 大军来了,它们跟随人类教练在现实环境中模仿行为、理解世界并完成复杂任务!尽管 OpenAI、DeepMin

Tesla Bots 大军来了,它们跟随人类教练在现实环境中模仿行为、理解世界并完成复杂任务!尽管 OpenAI、DeepMind、Meta 还有 Nvidia 带领着 AI 在数字世界狂奔,但只有 Tesla 通过 FSD 让 AI 在现实世界的信息海洋中遨游 … @elonmusk 认为 Tesla 将在 AGI 中发挥重要作用

封面图片

科学家发现婴儿大脑与人工智能模型惊人相似

科学家发现婴儿大脑与人工智能模型惊人相似 与许多动物相比,人类在出生后很长一段时间内都是无助的。许多动物,如马和鸡,出生当天就能行走。这种漫长的无助期使人类婴儿处于危险之中,也给父母带来了巨大的负担,但令人惊讶的是,这种无助期却经受住了进化的压力。跨物种研究的启示"自 20 世纪 60 年代起,科学家们就认为人类婴儿表现出的无助感是由于出生时的限制造成的。他们认为,人类婴儿头大,必须早产,导致大脑发育不成熟,无助期长达一岁。"认知神经科学教授、论文第一作者罗德里-库萨克(Rhodri Cusack)教授解释说。研究团队由库萨克教授、美国奥本大学克里斯蒂娜-查韦特教授和 DeepMind 高级人工智能研究员 Marc'Aurelio Ranzato 博士组成,库萨克教授利用神经成像技术测量婴儿大脑和心智的发育情况;克里斯蒂娜-查韦特教授负责比较不同物种的大脑发育情况;DeepMind 高级人工智能研究员 Marc'Aurelio Ranzato 博士负责比较不同物种的大脑发育情况。"我们的研究比较了不同动物物种的大脑发育情况。它借鉴了一个长期项目时间转换"(Translating Time),该项目将不同物种的相应年龄等同起来,从而确定人类大脑在出生时比许多其他物种更加成熟。"研究人员利用脑成像技术发现,人类婴儿大脑中的许多系统已经开始运作,并能处理来自感官的丰富信息流。这与人们长期以来认为婴儿大脑的许多系统尚未发育成熟,无法发挥作用的观点相矛盾。研究小组随后将人类的学习与最新的机器学习模型进行了比较,在后者中,深度神经网络受益于"无助"的预训练期。在过去,人工智能模型是直接根据所需的任务进行训练的,例如训练自动驾驶汽车识别它们在道路上看到的东西。但现在,模型最初都是经过预先训练,以便在海量数据中发现模式,而不执行任何重要任务。由此产生的基础模型随后用于学习特定任务。研究发现,这种方法最终会加快新任务的学习速度,并提高性能。对未来人工智能发展的影响"我们提出,人类婴儿也同样利用婴儿期的'无助'期进行预训练,学习强大的基础模型,并在以后的生活中以高性能和快速泛化来支撑认知。这与近年来在生成式人工智能领域取得重大突破的强大机器学习模型非常相似,例如OpenAI的ChatGPT或Google的Gemini,"库萨克教授解释道。研究人员表示,未来对婴儿学习方式的研究很可能会启发下一代人工智能模型。"虽然人工智能取得了重大突破,但基础模型比婴儿消耗大量能源,需要的数据也多得多。了解婴儿是如何学习的,可能会对下一代人工智能模型有所启发。"他最后说:"下一步的研究将是直接比较大脑和人工智能的学习情况。"编译自/scitechdailyDOI: 10.1016/j.tics.2024.05.001 ... PC版: 手机版:

封面图片

最近迷上了电报频道盲盒:点开搜索,随机输入两个字母加三个数字,然后看看自己搜到了什么奇奇怪怪的群。目前已经找到一个泰国男同群,一

最近迷上了电报频道盲盒:点开搜索,随机输入两个字母加三个数字,然后看看自己搜到了什么奇奇怪怪的群。目前已经找到一个泰国男同群,一个俄罗斯好几个人暗恋同一个女生建的群还有一个伊朗信徒交流群(信的什么宗教不知道) via 39T

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人