【牛津大学AI研究员发出警告:大语言模型对科学真相构成风险】
【牛津大学AI研究员发出警告:大语言模型对科学真相构成风险】 据11 月 24 日报道,在最新的一篇研究中,牛津大学互联网研究所的人工智能研究员发出了对大语言模型(LLMs)对科学真相构成威胁的警告。由 Brent Mittelstadt、Chris Russell 和 Sandra Wachter 等研究员在《自然人类行为》期刊上发表的论文中,他们指出,基于 GPT-3.5 架构等 LLMs 并非绝对的真实信息来源,可能产生他们所称的“幻觉”,即不真实的回应。研究人员呼吁改变 LLMs 的使用方式,建议将其作为“零射击翻译器”以确保输出的事实准确性。研究强调,信任 LLMs 作为可靠信息来源可能导致科学真相受损。 快讯/广告 联系 @xingkong888885
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人