从最近的人工智能研究成果来看,与以前的单一模型不同,有越来越多的多组件结构的复杂系统正在发挥作用。

从最近的人工智能研究成果来看,与以前的单一模型不同,有越来越多的多组件结构的复杂系统正在发挥作用。 伯克利人工智能研究这篇文章就详细分析了复合人工智能系统的趋势及其对AI开发者的意义。 我也翻译并总结了一些关键内容,完整翻译和原文在最后面。 1⃣为何选择复合人工智能 ...

相关推荐

封面图片

产品发布拖延 越来越多谷歌AI员工选择离职创业

产品发布拖延 越来越多谷歌AI员工选择离职创业 这一事件再次凸显了在谷歌等科技巨头内部,顶级研究人员在产品商业化方面面临漫长等待的无奈与选择。因此,他们决定抓住风险投资者对人工智能领域新兴公司的浓厚兴趣,自己去创业。Uncharted Labs总部位于纽约,已成功筹集了850万美元的启动资金,融资目标是1000万美元。据知情人士透露,创始团队在过去几个月里会见了多家潜在投资者,包括知名风投公司Andreessen Horowitz。Uncharted Labs的创始团队包括总裁大卫·丁(David Ding)。大卫·丁此前在谷歌DeepMind的一个精英研究团队中担任技术负责人,该团队规模仅为30人。DeepMind是总部位于英国的人工智能研究机构,去年与谷歌的核心人工智能团队完成了合并。文件显示,大卫·丁在DeepMind的前团队成员查理·纳什(Charlie Nash)和雅罗斯拉夫·加宁(Yaroslav Ganin)也加入了Uncharted Labs的创始团队。大卫·丁和加宁在谷歌的任职时间均超过了五年。根据领英上的公开资料,大卫·丁的另一位前同事康纳·德坎(Conor Durkan)去年年底离职。不过,目前尚不清楚德坎是否已加盟Uncharted Labs。这些研究人员在DeepMind工作期间共同参与了多个前沿的人工智能项目。他们成功开发出一种能够根据用户简单描述自动生成原创图像和音乐的人工智能技术。去年11月,DeepMind推出了音乐生成模型Lyria。这款创新的人工智能模型能够从头开始创作歌曲,并巧妙地融入了查理·普斯(Charlie Puth)和约翰·传奇(John Legend)等知名艺术家的独特音乐风格。此外,这些研究人员还为谷歌最新推出的图像生成模型Imagen 2做出了杰出贡献。Imagen 2是谷歌近期向云客户推出的一款强大的人工智能工具,旨在与Midjourney和OpenAI的Dall-E 3等竞争对手展开激烈竞争。最近DeepMind的这一系列离职事件表明,谷歌在人工智能产品发布方面存在拖延问题,同时内部研究人员也对繁文缛节感到不满。早在2021年,有些谷歌员工不满公司拒绝推出聊天机器人(后更名为Bard),选择了自立门户,创办了Character.AI。其他一些对谷歌内部人工智能开发限制不满的员工则转投了竞争对手OpenAI。谷歌高层一直在努力应对内部疑虑与挑战。公司首席执行官桑达尔·皮查伊(Sundar Pichai)在去年的一篇博客文章中宣布了谷歌人工智能部门的重组计划,并强调这将“推动我们在人工智能领域的发展速度”。为了实现这一目标,谷歌让位于加州山景城的人工智能研究团队共聚一堂,并通过每日会议协调加州与伦敦两地的工作进度,以确保Gemini项目(OpenAI GPT-4竞品)能够迅速取得进展。在这篇博文发布后,谷歌发言人克里斯·帕帕斯(Chris Pappas)进一步表示:“DeepMind拥有世界一流的研究团队,我们将继续致力于开发能够改变数十亿人生活的人工智能技术。”然而,一位不愿透露姓名的前员工透露,尽管DeepMind的研究人员在2023年春季就完成了音乐生成模型Lyria的开发工作,但谷歌直到11月才对外发布,至今仍未向公众开放。这位前员工认为,谷歌将谷歌大脑(GoogleBrain)和DeepMind两大内部人工智能部门合并,加剧了DeepMind员工的挫败感。因为在享受了多年的相对独立之后,他们现在不得不围绕谷歌的人工智能产品优先事项来调整自己的研究方向。在过去的两年里,DeepMind和谷歌大脑的多位优秀员工离职创办了新的初创公司,其中包括开源人工智能模型开发商Mistral AI,以及同样专注于文本生成模型的SakanaAI和Reka AI。为了留住顶级的人工智能研究人员,谷歌采取了一系列措施,包括向他们提供特殊的股票奖励,这些股票的兑现速度要比其他奖励更快。然而,风险资本对生成式人工智能初创公司的诱惑力实在太大。根据PitchBook和美国国家风险投资协会(NationalVenture Capital Association)的数据,2023年,超过三分之一的美国风险投资资金流向了人工智能开发商。去年,一首利用人工智能模仿艺术家德雷克(Drake)和The Weeknd声音的歌曲《Heart on My Sleeve》在TikTok和Spotify等平台上引起了轰动。然而,环球音乐集团以侵犯版权为由向这些平台施压,最终导致这首歌曲被下架。这一事件引发了人们对人工智能在音乐领域应用的关注和讨论。与初创公司相比,谷歌等大型科技公司在获得音乐授权方面可能具有更多优势。例如,DeepMind与拥有丰富音乐资源的YouTube合作建立了自己的音乐生成模型,而TikTok也与唱片公司签订了类似的协议。 ... PC版: 手机版:

封面图片

NIST 推出评估生成式人工智能的新平台

NIST 推出评估生成式人工智能的新平台 NIST 在新推出的 NIST GenAI网站和一份新闻稿中解释说,NISTGenAI将发布基准,帮助创建"内容真实性"检测(即深度验假)系统,并鼓励开发软件来识别人工智能生成的虚假或误导性信息的来源。"NIST GenAI 计划将发布一系列挑战问题,[旨在]评估和衡量生成式人工智能技术的能力和局限性。这些评估将用于确定促进信息完整性的策略,并指导安全、负责任地使用数字内容"。NIST GenAI 的第一个项目是一项试点研究,目的是建立能够可靠区分人类创建的媒体和人工智能生成的媒体的系统,首先从文本开始。(虽然许多服务都声称可以检测深度伪造,但研究和测试表明,它们充其量只能说是不可靠的,尤其是在文本方面)。NIST GenAI 邀请学术界、工业界和研究实验室的团队提交"生成器"(生成内容的人工智能系统)或"鉴别器"(旨在识别人工智能生成内容的系统)。研究中的生成器必须生成 250 字或更少的摘要,提供一个主题和一组文档,而判别器必须检测给定摘要是否可能是人工智能编写的。为确保公平,NIST GenAI 将提供测试生成器所需的数据。NIST 表示:"以公开数据训练的系统如果不"遵守适用的法律法规",将不被接受。试点登记将于 5 月 1 日开始,第一轮两家计划于 8 月 2 日结束。 预计研究的最终结果将于 2025 年 2 月公布。在人工智能生成的错误信息和虚假信息呈指数级增长之际,NIST GenAI 启动了以深度伪造为重点的研究。根据深度假货检测公司Clarity 的数据,与去年同期相比,今年制作和发布的深度假货数量增加了 900%。这引起了人们的恐慌,这是可以理解的。 YouGov 最近的 一项民意调查 发现,85% 的美国人担心误导性的深度假新闻会在网上传播。NIST GenAI 的启动是 NIST 响应乔-拜登总统关于人工智能的行政命令的一部分,拜登总统的行政命令规定,要求人工智能公司在其模型如何工作方面提高透明度,并制定了一系列新标准,包括对人工智能生成的内容进行标注。这也是 NIST 在任命前 OpenAI 研究员保罗-克里斯蒂亚诺(Paul Christiano)为该机构的人工智能安全研究所成员后,首次发布与人工智能相关的消息。克里斯蒂亚诺因其"现实主义"观点而备受争议;他曾预言,"人工智能的发展有50%的可能以[人类毁灭]而告终"。据报道,包括美国国家标准与技术研究院(NIST)科学家在内的批评人士担心,克里斯蒂亚诺可能会鼓励人工智能安全研究所关注"幻想的场景",而不是现实的、更直接的人工智能风险。NIST 表示,NIST GenAI 将为人工智能安全研究所的工作提供参考。 ... PC版: 手机版:

封面图片

Meta 开源多感官人工智能模型

Meta 开源多感官人工智能模型 宣布了一个新的开源人工智能模型,该模型将多个数据流链接在一起,包括文本、音频、视觉数据、温度和运动读数。 该模型目前还只是一个研究项目,没有直接的消费者或实际应用,但它指向了生成式人工智能系统的未来,可以创造身临其境的多感官体验,并表明Meta在OpenAI和谷歌等竞争对手变得越来越隐秘的时候,仍在继续分享人工智能研究。 标签: #Meta #AI 频道: @GodlyNews1 投稿: @Godlynewsbot

封面图片

科学简单点:什么是人工智能?

科学简单点:什么是人工智能? 在这段《什么是人工智能》的视频中,阿贡国家实验室的科学家 Taylor Childers 和 Bethany Lusch 讨论了人工智能通过模仿大脑的学习能力来帮助解决复杂问题的计算机技术和技巧。研究人员利用人工智能更好、更快地解决科学、医学和技术领域最棘手的问题,并帮助推动这些领域的发现。这包括帮助我们了解COVID-19如何攻击人体,以及找到管理交通堵塞的方法。研究人员利用人工智能来更好、更快地解决科学、医学和技术领域最棘手的问题,并帮助推动这些领域的发现。这包括帮助我们了解 COVID-19 如何攻击人体,以及寻找管理交通堵塞的方法。能源部(DOE)的许多设施,如阿贡国家实验室,都在协助开发一些最先进的人工智能技术。如今,这些技术已应用于从化学、环境和制造科学到医学和宇宙的各个研究领域。人工智能被用来帮助建立复杂系统(如发动机或天气)的模型,并预测如果这些系统的某些部分发生变化(如使用不同的燃料或温度持续升高)可能会发生的情况。但人工智能还有更多用途。阿贡人工智能工具箱中的一个重要工具是一种名为机器学习的技术,当它从更多的数据中学习时,它就会变得更聪明或更准确。机器学习对于识别隐藏在一幅更大、更拥挤的画面中的特定对象非常有帮助。在一个流行的例子中,通过向一个机器学习模型展示许多图片,训练该模型识别猫和狗的主要特征。后来,该模型能够从混合动物的图片中识别出猫和狗。类似的机器学习模型可以帮助科学家从太空望远镜中获得的天体图像中识别出不同类型的星系。机器学习只是帮助我们更快、更准确地学习的众多人工智能技术之一。它们可以帮助为一种新材料选择合适的分子或化学物质,有朝一日还能独立指导新的实验。阿贡与全球许多组织合作,成为人工智能应用和开发领域的领导者,其中包括将人工智能应用于以下领域:延长汽车和能源电池的使用寿命。建立更好的气候模型,预测野火、飓风和其他灾害,帮助我们的社区和电力公司防范这些灾害。找到病毒攻击我们细胞的部分,并开发出对抗它们的药物。人工智能分析大量复杂数据,以计算机速度执行人类任务。如今已成为我们日常生活的一部分,它有助于简化基本任务,如语音识别、内容推荐或基于人或物的照片搜索。科学家们正在以类似的方式利用人工智能来增进我们对周围世界的了解。人工智能可以帮助他们更快地分析堆积如山的数据,并提供更好的解决方案。从材料科学和医学到气候变化和宇宙,许多研究领域都在使用不同的人工智能技术。例如,我们可以通过查看许多不同的示例来训练人工智能识别复杂的模式。研究人员可以利用这种能力,通过对所有已知的太阳能电池或药物材料进行人工智能训练,找到新的改良材料。然后,人工智能可以帮助研究人员锁定其他有前景的材料,这些材料可以在实验室中制造和测试。编译自:ScitechDaily相关文章:科学简单点:什么是超级计算? ... PC版: 手机版:

封面图片

OpenAI版权诉讼越来越多 寻求更多数据来训练人工智能

OpenAI版权诉讼越来越多 寻求更多数据来训练人工智能 问题的一部分在于,出版商越来越多地指责这些公司窃取受版权保护的数据。他们希望为自己的工作获得报酬。Meta 和 OpenAI在向美国版权局提交的评论中辩称,将受版权保护的材料放在互联网上使其公开可用,因此属于合理使用。但他们仍必须在法庭上提出这一论点,因为该公司面临来自多个团体的有关版权材料的诉讼。调查报道中心是一家非营利性新闻机构,有时简称为 CIR,今年早些时候与 Mother Jones 和 Reveal 合并,上周在联邦法院起诉了 OpenAI 和微软。诉讼指控OpenAI建立在对包括 CIR 在内的全球创作者的版权作品的剥削之上。CIR 的律师指控 OpenAI 和微软使用 Mother Jones 的版权材料来训练他们的 GPT 和 Copilot AI 模型。“OpenAI 和微软开始窃取我们的新闻,以使他们的产品更加强大,但他们从未征求我们的许可或提供补偿,这与其他获得我们材料许可的组织不同。”调查报道中心首席执行官莫妮卡·鲍尔莱因 (Monika Bauerlein)在一份关于诉讼的声明中表示。“这种搭便车行为不仅不公平,而且侵犯了版权。”诉讼称,该公司 WebText 训练集中存在的顶级网络域名发布的列表中出现了来自 Mother Jones 网络域名的 16,793 个不同的 URL。在作家协会的另一起集体诉讼中,两位作家声称该公司利用他们书中的信息来训练 ChatGPT。《纽约时报》也在 2023 年 12 月对该公司提起了类似的诉讼。今年 5 月,作家协会诉讼案的法庭文件显示,OpenAI 删除了用于训练 GPT-3 的两个庞大数据集。该协会的律师表示,这两组数据可能包含超过 10 万本已出版的书籍。法庭文件称,负责整理数据的两名员工不再为 OpenAI 工作。OpenAI 已开始与新闻机构签署许可协议,以公平使用其作品。该公司已与美联社、《华尔街日报》和《纽约邮报》的出版商、《大西洋月刊》、Prisa Media、《世界报》、《金融时报》和 Business Insider 母公司 Axel Springer 签署了此类协议。但这些机器人持续学习所需的内容规模将远远超过少数几份许可协议。一种解决方案是合成数据,它是人工生成的而不是从现实世界收集的,并且可以通过机器学习算法轻松生成。OpenAI 已将合成数据视为训练其模型的一种选择,但首席执行官 Sam Altman 对生成高质量数据表示担忧。奥尔特曼在 2023 年 5 月的一次技术会议上表示: 只要你能跨越合成数据事件视界,让模型足够智能,能够生成良好的合成数据,那么一切都会好起来。该公司还探索了人工智能模型协同工作的过程一个人工智能系统生成数据,另一个人工智能系统对其进行判断。OpenAI 尚未立即回复评论请求。 ... PC版: 手机版:

封面图片

美国和英国将合作测试人工智能安全威胁模型

美国和英国将合作测试人工智能安全威胁模型 两国人工智能安全研究所之间的协议立即生效。美国商务部长吉娜-雷蒙多(Gina Raimondo)表示,美国政府"致力于与其他国家发展类似的伙伴关系,在全球范围内促进人工智能安全"。雷蒙多在一份声明中说:"这种合作关系将加速我们两家机构在各种风险方面的工作,无论是对我们的国家安全还是对我们更广泛的社会面。"通过该协议,两国承诺在技术研究、人员交流和信息共享方面开展合作。美国和英国的一个潜在合作伙伴是欧盟,欧盟通过了自己的人工智能系统使用全面法规。欧盟的人工智能法要求运行强大的人工智能模型的公司遵守安全标准。英国的人工智能安全研究所是在 11 月的全球人工智能峰会前夕成立的,包括美国副总统卡马拉-哈里斯在内的多位世界领导人在峰会上讨论了如何利用并在可能的情况下对该技术进行跨境监管。英国已经开始对一些模型进行安全测试,但目前还不清楚它是否能获得最近发布的版本。一些人工智能公司敦促英国人工智能安全研究所进一步明确时间表,以及在发现模型存在风险时的下一步措施。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人