研究称AI生成的错误信息实为“胡扯”而非“幻觉”
研究称AI生成的错误信息实为“胡扯”而非“幻觉”大型语言模型(LLM)如OpenAI的ChatGPT,已革新人类与人工智能的互动方式,生成的文本常常看似与人类写作无异。尽管其能力令人印象深刻,这些模型也因持续产生的错误信息而广受关注,这些错误信息通常被称为“AI幻觉”。然而,格拉斯哥大学的学者MichaelTownsenHicks、JamesHumphries和JoeSlater在《伦理与信息技术》期刊发表的论文中指出,这些错误更应被视为“胡扯”。LLM是通过分析大量书面材料并使用统计技术预测下一个词的出现来生成类人文本的复杂计算机程序。与人类大脑拥有多种目标和行为不同,LLM只有一个目标:生成与人类语言接近的文本。这意味着它们的主要功能是复制人类语言的模式和结构,而非理解或传达事实信息。研究人员认为,将这些错误称为“AI幻觉”会误导公众,以为AI有意传达真相,而实际上,AI只是根据训练数据的模式生成文本,对其准确性没有内在的关心。哲学家HarryFrankfurt在其著作中将“胡扯”定义为一种对真相漠不关心的行为,生成的内容可能听起来很有道理,但实际上并没有事实依据。研究人员解释,LLM的输出符合Frankfurt对“胡扯”的定义,因为这些模型没有对真伪的理解,仅根据训练数据生成看似合理的文本。称其为“胡扯”比“幻觉”更准确,这对于如何理解和解决这些模型生成的错误信息具有重要意义。消息来源: