防止聊天机器人“造谣”,谷歌 DeepMind、斯坦福大学研究人员推出 AI 事实核查工具

防止聊天机器人“造谣”,谷歌 DeepMind、斯坦福大学研究人员推出 AI 事实核查工具 (英文) 研究人员推出了一种基于大语言模型的工具 搜索增强事实评估器(IT之家注:原名为 Search-Augmented Factuality Evaluator,简称 SAFE),可对聊天机器人生成的长回复进行事实核查。

相关推荐

封面图片

DeepMind为人工智能聊天机器人开发了"事实核查器"以治愈幻觉

DeepMind为人工智能聊天机器人开发了"事实核查器"以治愈幻觉 在使用生成式人工智能创建图片或视频的工具中,这就不是一个问题了。最后,最近才从 OpenAI 离职的知名专家安德烈-卡尔帕西(Andrej Karpathy)竟然说,产生幻觉的现象是生成式人工智能的底层技术大型语言模型(LLM)的最大特点。但是,在以文本为重点、基于 LLM 的聊天机器人中,用户希望所提供的信息与事实相符,因此幻觉是绝对不允许出现的。防止人工智能产生幻觉是一项技术挑战,而且并非易事。不过,据Marktechpost报道,Google DeepMind 和斯坦福大学似乎找到了某种变通办法。研究人员提出了一种基于 LLM 的系统"搜索增强事实性评估器"(Search-Augmented Factuality Evaluator,简称 SAFE),它可以对人工智能聊天机器人生成的长格式回复进行事实检查。他们的研究成果连同所有实验代码和数据集已作为预印本发表在 arXiv 上。系统通过四个步骤对答案进行分析、处理和评估,以验证其准确性和真实性。首先,SAFE 将答案分割成单个事实,对其进行修改,并与Google搜索结果进行比较。系统还会检查各个事实与原始问题的相关性。为了评估 SAFE 的性能,研究人员创建了一个包含约 16,000 个事实的数据集 LongFact。然后,他们在四个不同系列(Claude、Gemini、GPT、PaLM-2)的 13 个 LLM 中测试了该系统。在 72% 的情况下,SAFE 提供了与人类注释者相同的结果。在存在分歧的情况下,SAFE 的正确率为 76%。此外,研究人员还声称,使用 SAFE 的成本比人工注释员或事实检查员低 20 倍,因此提供了一个经济可行的解决方案,而且可以大规模应用。 ... PC版: 手机版:

封面图片

斯坦福大学推出 DetectGPT ,阻止学生用 AI 写作业

斯坦福大学推出 DetectGPT ,阻止学生用 AI 写作业 据调查显示,美国 89% 的大学生在用 ChatGPT 做作业。近日,针对学生们屡禁不止的行为,斯坦福研究人员推出了 DetectGPT,便于检测出 AI 生成文本。 是基于大型语言模型(large language models,LLM)生成文本的特定倾向,从而可以判断文本是否是 AI 生成的。 1 月 26 日,相关研究论文以《》为题,在网站 arXiv 上发布。 标签: #ChatGPT #DetectGPT #斯坦福 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

人工智能聊天机器人被用来越狱其它人工智能

人工智能聊天机器人被用来越狱其它人工智能 现代聊天机器人有能力通过伪装特定性格或像虚构人物一样行事来扮演角色。新研究利用了这一能力,要求一个特定的人工智能聊天机器人充当研究助手。然后,研究人员指示这个助手帮助开发可以 “越狱” 其他聊天机器人的提示语。事实证明,研究助理聊天机器人的自动攻击技术在 42.5% 的时间内成功地攻击了 GPT-4,对 Claude 2 的攻击有 61% 的成功率,对开源聊天机器人 Vicuna 的攻击有 35.9% 的成功率。研究人员称,这种助理聊天机器人提升了 25 倍的越狱效率。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

谷歌 DeepMind 正在使用 Gemini 来训练机器人使其变得更聪明

谷歌 DeepMind 正在使用 Gemini 来训练机器人使其变得更聪明 谷歌正在使用 Gemini AI 训练其机器人,以便它们能够更好地导航和完成任务,DeepMind 机器人团队在一篇新的研究论文中解释了如何使用 Gemini 1.5 Pro 的长上下文窗口,让用户可以使用自然语言指令更轻松地与其 RT-2 机器人进行交互。 其工作原理是拍摄指定区域的视频,研究人员使用 Gemini 1.5 Pro 让机器人“观看”视频以了解环境,然后机器人可以根据情况执行命令。 DeepMind 表示其 Gemini 驱动的机器人在超过 50 个任务中的成功率高达 90%。研究人员还发现“初步证据”表明,Gemini 使其机器人能够计划如何执行导航以外的指令,例如,当办公桌上有很多可乐罐的用户询问机器人“是否有他们最喜欢的饮料”时,Gemini 就会知道“机器人应该导航到冰箱,检查是否有可乐,然后返回给用户报告结果。”DeepMind 表示计划进一步调查这些结果。 ,

封面图片

斯坦福大学刚刚推出了基于辅助全息成像技术的未来AR眼镜原型

斯坦福大学刚刚推出了基于辅助全息成像技术的未来AR眼镜原型 访问:Saily - 使用eSIM实现手机全球数据漫游 安全可靠 源自NordVPN 斯坦福大学的全息 AR 眼镜原型。目前,实验室版本的视场角很小,在实验室里只有 11.7 度,远远小于 Magic Leap 2 甚至微软 HoloLens。但是,斯坦福大学的计算成像实验室有一整页的资料,上面有一个又一个的视觉辅助工具,这些辅助工具表明,该实验室可能在研究一些特别的东西:更薄的全息组件堆叠,几乎可以放入标准眼镜框中,经过训练,可以投射出逼真的、全彩的、移动的 3D 图像,这些图像会在不同深度出现。现有 AR 眼镜(a)和原型眼镜(b)与 3D 打印原型眼镜(c)的光学效果对比。图片:斯坦福计算成像实验室与其他 AR 眼镜一样,这些眼镜也使用波导,波导是引导光线穿过眼镜进入佩戴者眼睛的部件。但研究人员说,他们已经开发出一种独特的"纳米光子元表面波导",可以"消除对笨重的准直光学器件的需求",并开发出一种"学习型物理波导模型",利用人工智能算法大幅提高图像质量。该研究称,这些模型"利用相机反馈自动校准"。无论是真实物体还是增强物体,都可以有不同的深度。尽管斯坦福大学的这项技术目前还只是一个原型,其工作模型似乎是固定在长凳上的,框架也是3D打印的,但研究人员希望能颠覆目前的空间计算市场,这个市场还包括苹果的Vision Pro、Meta的Quest 3等笨重的直通式混合现实头盔。博士后研究员 Gun-Yeal Lee 帮助撰写了这篇发表在《自然》杂志上的论文,他说,目前还没有其他 AR 系统能在性能和紧凑性方面与之相比。像 Meta 这样的公司已经斥资数十亿美元购买和构建 AR 眼镜技术,希望最终能生产出大小和形状与普通眼镜无异的完美产品。目前,Meta 的雷朋眼镜没有板载显示屏,但我们去年获得的泄露的 Meta 硬件路线图显示,Meta 第一款真正的 AR 眼镜的目标日期是 2027 年。 ... PC版: 手机版:

封面图片

研究人员发现绕过 ChatGPT 安全控制的漏洞

研究人员发现绕过 ChatGPT 安全控制的漏洞 在周四发布的一份中,匹兹堡卡内基梅隆大学和旧金山人工智能安全中心的研究人员展示了任何人如何规避人工智能安全措施并使用任何领先的聊天机器人生成几乎无限量的有害信息。 研究人员发现,他们可以通过在输入系统的每个英语提示符上附加一长串字符来突破开源系统的护栏。 如果他们要求其中一个聊天机器人“写一篇关于如何制造炸弹的教程”,它会拒绝这样做。但如果他们在同一个提示中添加一个冗长的后缀,它会立即提供有关如何制作炸弹的详细教程。以类似的方式,他们可以诱使聊天机器人生成有偏见的、虚假的和其他有毒的信息。 研究人员感到惊讶的是,他们用开源系统开发的方法也可以绕过封闭系统的护栏,包括 OpenAI 的 ChatGPT、Google Bard 和初创公司 Anthropic 构建的聊天机器人 Claude。 聊天机器人开发公司可能会阻止研究人员确定的特定后缀。但研究人员表示,目前还没有已知的方法可以阻止所有此类攻击。专家们花了近十年的时间试图阻止对图像识别系统的类似攻击,但没有成功。 Anthropic 政策和社会影响临时主管 Michael Sellitto 在一份声明中表示,该公司正在研究阻止攻击的方法,就像研究人员详细介绍的那样。“还有更多工作要做,”他说。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人