人工智能的错误不是“幻觉”,而是“一本正经地胡说八道”
人工智能的错误不是“幻觉”,而是“一本正经地胡说八道”格拉斯哥大学的研究人员最近指出,人工智能生成的不准确内容,最好被理解为“胡说八道”(bullshit),而非“幻觉”(hallucinations)。相较于多线程的人类大脑,LLMs目标更为单一:生成与人类语言非常相似的文本,即复制人类言语和写作模式和结构,而非理解或传达事实信息。“AI幻觉”这一术语表明LLMs存在感知错误,类似于人类看到不存在的东西。然而,一些学者认为这个比喻具有误导性,因为它暗示人工智能有感知和传达真理的视角或意图,但它们并没有信念、意图或理解——模型只是纯粹根据从训练数据中得出的统计模式对文本进行处理,而非关注事实性。这也就让LLMs看起来在“胡言乱语”:其言论看似有理,但却没有任何事实依据。研究最后指出,AI产生的错误称为“幻觉”并不是无害的,因为这会让人感到困惑,误以为机器在某种程度上产生了误解,但仍然试图传达它们相信或已经感知到的东西。关注频道@ZaiHuaPd频道爆料@ZaiHuabot