“幻觉”被选为《剑桥词典》年度词汇

“幻觉”被选为《剑桥词典》年度词汇词典网站上的一篇文章称,之所以选择这个词,是因为它的新含义"直指人们谈论人工智能的核心原因"。生成式人工智能是一种"强大"但"远非完美"的工具,"我们仍在学习如何安全有效地与之互动--这意味着既要认识到它的潜在优势,也要认识到它目前的弱点"。词典今年增加了许多与人工智能相关的词条,包括大型语言模型(或LLM)、生成式人工智能(或GenAI)和GPT(生成式预训练转换器的缩写)。"人工智能的幻觉提醒我们,人类在使用这些工具时仍需具备批判性思维能力。"大型语言模型的可靠性取决于其算法所学习到的信息。可以说,人类的专业知识比以往任何时候都更加重要,因为只有这样,才能创造出权威的最新信息,供LLM训练使用。图为生成式AI在报道时事时出现"幻觉"的一个例子"人工智能"被柯林斯词典评为2023年最值得关注的词汇剑桥大学的人工智能伦理学家亨利-谢夫林(HenryShevlin)说,令人"震惊"的是,词典团队没有选择"glitch"或"bugs"这样的计算机专用词来描述法律硕士们所犯的错误,而是决定使用一个"生动的心理动词"。他说,这可能是因为"人们很容易将这些系统拟人化,把它们当作有自己思想的系统"。谢夫林还说,今年可能会成为人工智能幻觉"担忧的高点",因为人工智能公司正在努力通过吸取人类的反馈意见来遏制错误的发生频率,用户也在了解哪些任务可以信任人工智能,而且人工智能模型正变得越来越专业化。该词典提供了两个与人工智能相关的"幻觉"用法示例:"法学硕士因产生AI幻觉而臭名昭著--生成完全错误的答案,通常还辅以虚构的引文",以及"最新版本的聊天机器人有了很大改进,但仍会产生幻觉"。在剑桥做出这一决定之前,柯林斯词典将其年度词汇命名为"人工智能"。...PC版:https://www.cnbeta.com.tw/articles/soft/1397815.htm手机版:https://m.cnbeta.com.tw/view/1397815.htm

相关推荐

封面图片

剑桥词典公布 2023 年度词汇:Hallucinate(幻觉)

剑桥词典公布2023年度词汇:Hallucinate(幻觉)剑桥词典近日宣布2023年年度词汇为“hallucinate”(幻觉)。该团队解释称,选择“hallucinate”作为2023年的年度词汇,是因为他们认为这个新词的含义直指人们谈论人工智能的核心原因。生成式人工智能是一种强大的工具,但我们仍在学习如何安全有效地与之互动。这意味着我们既要认识到它的潜在优势,也要认识到它目前的弱点。据悉,整个2023年,《剑桥词典》的词典编纂者添加了许多新的人工智能相关定义,包括大型语言模型(LLM)、生成式人工智能(GenAI)和GPT。许多现有的词,如hallucinate,也添加了更多与人工智能相关的含义。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

“哥布林模式”成为2022年《牛津英语词典》年度词汇

“哥布林模式”成为2022年《牛津英语词典》年度词汇今年,《牛津英语词典》的创建者牛津语言公司将"哥布林模式"评为2022年年度词汇,意味着它最能反映过去12个月的风气和心情。这个词于2009年首次出现在Twitter上,但直到2022年才走红。"该组织在一份新闻稿中写道:"它捕捉到了那些拒绝回归'正常生活'的人的普遍情绪,或者是对社交媒体上展示的越来越难以达到的审美标准和不可持续的生活方式的反叛。"这种俚语特别打动了那些对这种大流行病的第三年和世界各地持续的政治动荡感到失望的人。作为回应,他们正在拒绝社会期望,制定自己的生活规则。这一趋势的特点是背离了可敬和审美。相反,它鼓励人们倾向于他们不受约束的、自我放纵的、有时是恶作剧的方式。"人们正在拥抱他们内心的哥布林,"牛津语言公司总裁卡斯帕-格拉斯沃尔说。2022年的年度词汇与以往不同,年度词汇通常是基于对新兴词汇及其流行程度的语言数据的分析。但是今年,牛津语言学在评选过程中加入了公众投票,要求人们在年度前三名的表达方式中投票。"哥布林模式"、"元宇宙"和"#IStandWith"。结果是压倒性的,30多万人投票,绝大多数人-约93%赞成"哥布林模式"。第二名是"元宇宙",它指的是"虚拟现实环境,用户在其中以身临其境的方式与彼此的化身和周围环境互动,有时被认为是互联网的潜在延伸或替代"。在Facebook的企业母公司于2021年将其名称改为Meta之后,这个词部分地获得了吸引力。第三名获奖者"#IStandWith"被认定为"人们传达他们的意见并在特定事件上统一立场的一种方式",该标签及其各种变体在2022年3月俄罗斯入侵乌克兰后特别流行。相关文章:《牛津词典》2022年度词汇将由民众投票决定三个选项你投哪个?...PC版:https://www.cnbeta.com.tw/articles/soft/1334501.htm手机版:https://m.cnbeta.com.tw/view/1334501.htm

封面图片

【OpenAI将用新方法来训练模型,以对抗人工智能“幻觉】

【OpenAI将用新方法来训练模型,以对抗人工智能“幻觉】6月1日消息,OpenAI发布的最新研究论文显示,该公司正在用一种新的方法来训练人工智能(AI)模型,以对抗人工智能“幻觉”。人工智能幻觉指的是人工智能模型生成内容的能力,这些内容不是基于任何现实世界的数据,而是模型自己想象的产物。人们担心这种幻觉可能带来的潜在问题,包括道德、社会和实际问题。OpenAI的研究人员在报告中表示,即使是最先进的人工智能模型也很容易产生谎言,它们在不确定的时刻往往表现出捏造事实的倾向。而这些幻觉在需要多步骤推理的领域尤其严重,因为一个逻辑错误就足以破坏一个更大的解决方案。该公司提出的新策略是:训练人工智能模型时,奖励每个正确的推理步骤,而不仅仅是简单地奖励正确的最终结论。根据研究人员的说法,这种方法被称为“过程监督”,而不是结果监督,它可能会提高人工智能的性能与准确性,因为这种策略鼓励模型更多地遵循类似人类的“思维链”。

封面图片

人工智能的错误不是“幻觉”,而是“一本正经地胡说八道”

人工智能的错误不是“幻觉”,而是“一本正经地胡说八道”格拉斯哥大学的研究人员最近指出,人工智能生成的不准确内容,最好被理解为“胡说八道”(bullshit),而非“幻觉”(hallucinations)。相较于多线程的人类大脑,LLMs目标更为单一:生成与人类语言非常相似的文本,即复制人类言语和写作模式和结构,而非理解或传达事实信息。“AI幻觉”这一术语表明LLMs存在感知错误,类似于人类看到不存在的东西。然而,一些学者认为这个比喻具有误导性,因为它暗示人工智能有感知和传达真理的视角或意图,但它们并没有信念、意图或理解——模型只是纯粹根据从训练数据中得出的统计模式对文本进行处理,而非关注事实性。这也就让LLMs看起来在“胡言乱语”:其言论看似有理,但却没有任何事实依据。研究最后指出,AI产生的错误称为“幻觉”并不是无害的,因为这会让人感到困惑,误以为机器在某种程度上产生了误解,但仍然试图传达它们相信或已经感知到的东西。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

“人工智能(AI)”被柯林斯词典评为 2023 年度词

“人工智能(AI)”被柯林斯词典评为2023年度词英国知名词典出版商柯林斯日前公布了其2023年年度词的评选结果:人工智能(AI)。根据柯林斯词典的定义,AI指“计算机程序对人类心理功能的模拟”,此次之所以被选定为年度词,是因为它的发展速度是“如此之快”,已经成为了2023年的主流话题。在过去的一年里,这个词(严格来说是首字母缩写)的使用率翻了两番。今年入选的年度词语还包括如下单词:greedflation(贪婪通胀,指以通胀为借口,人为地拔高商品售价以获得更多利润)debanking(去银行化,指剥夺个人使用银行业务的行为)NepoBaby(指被认为依靠父母来发展事业的名人子女)deinfluencing(去影响力,指利用社交媒体警告粉丝避免使用某些商业产品、生活方式)Ultra-processed(超加工,指使用复杂的工业方法、多种成分制成,且营养价值较低的食品)Semaglutide(索马鲁肽/司美格鲁肽,一种抑制食欲的药物)来源,频道:@kejiqu群组:@kejiquchat

封面图片

ChatGPT 的“幻觉”问题在欧盟遭遇隐私投诉

ChatGPT的“幻觉”问题在欧盟遭遇隐私投诉人工智能公司OpenAI正在欧盟面临另一起隐私投诉。该投诉由奥地利隐私权非营利组织NOYB代表个人投诉人提起,针对其人工智能聊天机器人ChatGPT无法纠正其生成的有关个人的错误信息。NOYB代表一位不愿透露姓名的投诉人向奥地利数据保护机构针对ChatGPT提交了最新的GDPR投诉,该投诉人发现人工智能聊天机器人为他们提供了错误的出生日期。根据GDPR,欧盟公民拥有一系列与自身信息相关的权利,包括更正错误数据的权利。NOYB认为OpenAI未能履行其聊天机器人输出方面的义务。OpenAI拒绝了投诉人更正错误出生日期的请求,并回应称从技术上讲,无法更正错误出生日期。并提出根据某些提示过滤或阻止数据,例如投诉人的姓名。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人