Google DeepMind 发现让AI"深呼吸"后会使能力暴涨

Google DeepMind 发现让AI"深呼吸"后会使能力暴涨 Google DeepMind 的新研究发现,相比可以大幅提高语言模型能力的经典提示词"让我们一步一步思考",如果在前面加上"让我们先深呼吸一下",语言模型在 GSM8K 上的成绩会从71.8飙升到80.2。这对于一个没鼻没肺的机器人来说很奇怪,不过也开阔了人们使用提示词的思路。 "深呼吸"这个提示词是AI自己找到的,Google DeepMind 使用了一种叫 OPRO (Optimization by PROmpting) 的方法,AI会对AI的回答打分,递归调用优化问题描述,最终发现最优提示词。研究团队还发现,语言模型优化后的提示词明显优于人类设计,有时表现超50%。 网友开玩笑到「接下来他们将需要8小时的休息并在早上盯着阳光才能保持高效。」 还有网友嘲讽了语言模型的安全训练「抱歉,作为 OpenAI 创建的大型语言模型,我无法"深呼吸"。」

相关推荐

封面图片

谷歌 DeepMind 团队发现 AI 自己设计提示词效果胜人类

谷歌 DeepMind 团队发现 AI 自己设计提示词效果胜人类 谷歌DeepMind团队最新发现,使用提示词「深呼吸,一步一步地解想」,大模型在GSM8K数据集上的成绩就从71.8提高到80.2分。 而且这个最有效的提示词,是AI自己找出来的。 有网友开玩笑说,深呼吸以后,散热风扇的转速就提高了。

封面图片

Google 正在利用 DeepMind AI语言模型为 YouTube Shorts 生成描述,使它们更易于搜索。

Google 正在利用 DeepMind AI语言模型为 YouTube Shorts 生成描述,使它们更易于搜索。 标签:#Google #AI #YouTube 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Google DeepMind CEO 称其开发的新 AI 系统将让 ChatGPT 黯然失色

Google DeepMind CEO 称其开发的新 AI 系统将让 ChatGPT 黯然失色 2016 年 Google DeepMind 的 AI 程序 AlphaGo 击败了世界围棋冠军,创造了历史。现在 DeepMind 联合创始人兼 CEO Demis Hassabis 表示,该公司的工程师正运用 AlphaGo 的技术创造名为 Gemini 的 AI 系统,它将让 OpenAI 的 ChatGPT 黯然失色。Gemini 仍然在开发之中,它是类似 GPT-4 的大语言模型。但通过融合 AlphaGo 的技术,Gemini 将具有规划或解决问题的能力。AlphaGo 是基于强化学习技术,算法通过不断学习反馈去解决难题。它使用了树搜索去探索和记住棋盘上棋子可能的走法。Gemini 的开发还需要几个月时间,可能需要花费数千万乃至数亿美元。OpenAI CEO Sam Altman 此前透露,GPT-4 的成本超过了 1 亿美元。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

【谷歌大脑和Deepmind联手,搁置前嫌合攻OpenAI】Google Brain AI和DeepMind之前几乎很少相互协作

【谷歌大脑和Deepmind联手,搁置前嫌合攻OpenAI】Google Brain AI和DeepMind之前几乎很少相互协作或共享计算机代码。但是现在,由于双方都想开发自己的机器学习模型来与OpenAI竞争,并却需要更大的计算能力来支撑,所以联手是他们的最佳选择。 #抽屉IT

封面图片

Google DeepMind 最新研究:AI 写的笑话还真不好笑

Google DeepMind 最新研究:AI 写的笑话还真不好笑 不过这个研究成果也不令人意外,毕竟不管是 OpenAI 还是 Google,都会为了避免让模型产生暴力或有关种族歧视的内容而设置一系列安全过滤机制,所以那些有关种族或黄色的内容自然也不会生成。 写不出地狱笑话

封面图片

Google DeepMind 推出评估AI模型危险性的新框架

Google DeepMind 推出评估AI模型危险性的新框架 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 根据一份与 Semafor 独家分享的声明,DeepMind 将与其他公司、学术界和立法者合作,共同完善该框架。该公司计划在2025年前开始实施其审计工具。如今,评估功能强大的前沿人工智能模型更像是一个临时过程,随着研究人员开发新技术而不断演变。"红队"会花费数周或数月的时间对其进行测试,尝试可能绕过保障措施的不同提示。然后,公司会采用各种技术,从强化学习到特殊提示,使模型符合要求。这种方法对现在的模型很有效,因为它们还不够强大,不足以构成太大的威胁,但研究人员认为,随着模型能力的增强,需要一个更强大的过程。批评者担心,当人们意识到这种技术已经走得太远时,为时已晚。DeepMind 发布的"前沿安全框架"希望解决这个问题。这是包括 Meta、OpenAI 和微软在内的主要科技公司为减轻人们对人工智能的担忧而宣布的几种方法之一。该公司表示:"尽管这些风险超出了现有模型的能力范围,但我们希望实施和改进该框架将有助于我们做好应对这些风险的准备。"DeepMind 开发人工智能模型"预警"系统已有一年多时间。它还发表了关于评估模型的新方法的论文,这些方法远远超出了目前大多数公司所使用的方法。前沿模型框架将这些进展纳入一套简洁的协议中,包括对模型的持续评估,以及研究人员在发现所谓"临界能力水平"时应采取的缓解方法。这可能是指模型能够通过操纵人类对其施加意志,在人工智能研究领域被称为"超常代理",也可能是指模型具有编写复杂恶意软件的能力。DeepMind 为四个领域设定了具体的关键能力级别:自主、生物安全、网络安全和机器学习研发。该公司表示:"在降低风险与促进获取和创新之间取得最佳平衡,对于负责任地发展人工智能至关重要。"DeepMind 将于下周在首尔举行的人工智能安全峰会上讨论该框架,届时其他行业领袖也将出席。令人鼓舞的是,DeepMind 的人工智能研究人员正在用更科学的方法确定人工智能模型内部发生了什么,尽管他们还有很长的路要走。研究人员在能力方面取得突破的同时,也在提高他们理解并最终控制这些软件的能力,这对人工智能安全也很有帮助。不过,今天发布的论文对如何进行这些评估的技术细节着墨不多。就目前而言,可以说我们还不知道目前的技术是否能让这个框架取得成功。这其中还有一个有趣的监管因素。由加州参议员斯科特-维纳(Scott Wiener)发起的一项新的人工智能综合法案将要求人工智能公司在训练模型之前对其危险性进行评估。这个框架是目前看到的第一个可能使遵守该法律成为可能的框架。但同样还不清楚技术上是否可行。还有一点:构建这些技术还有另一种用途:它可以帮助公司预测人工智能模型的能力在未来数月或数年内会发生怎样的变化。这些知识可以帮助产品团队更快地设计出新产品,从而为Google和其他有能力进行这些评估的公司带来优势。了解更多: ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人