微软、OpenAI用上“数据永动机” 合成数据是蜜糖还是砒霜?

微软、OpenAI用上“数据永动机”合成数据是蜜糖还是砒霜?已有的(通用)数据资源似乎接近效能极限,开发人员认为,网络上那些通用数据已不足以推动AI模型的性能发展。Gomez便指出,网络极为嘈杂混乱,“它并不能为你提供你真正想要的数据,网络无法满足我们的一切需求。”之前,ChatGPT、Bard等聊天机器人的训练数据多来自于互联网,例如电子书、新闻文章、博客、Twitter与Reddit的推文帖子、Youtube视频、Flickr图片等。但随着AIGC技术愈发复杂,高质量数据的获取难度也越来越大。开发AI模型的科技公司们,也因不当使用数据而遭受多方抨击。今年5月的一场活动上,OpenAI首席执行官SamAltman曾被问及,是否担心监管部门调查ChatGPT可能侵犯用户隐私的事。Altman对此不置可否,并表示自己“非常有信心,很快所有数据都将是合成数据”。▌人类真实数据售价高昂为了大幅提高AI模型的性能,提升它们在科学、医学、商业等领域的水平,AI模型需要的是“独特且复杂”的数据集。而这类数据或是需要来自科学家、医生、作家、演员、工程师等“内行人”,或是需要从药企、银行、零售商等大型企业获取专业数据。这也就带来了让AI公司们转向合成数据的另一层原因——数据太贵了。且不说那些技术含量极高的制药、科学数据,光是之前Reddit和Twitter给出的数据采集要价,都被Gomez“嫌弃”价格太高。其中,Reddit本月起开始对数据接口使用收费。根据第三方软件Apollo的开发者ChristianSelig透露,Reddit收费标准为0.24美元/1000次API响应——对于Apollo来说,这大约相当于200万美元/月开销。而根据Twitter今年3月发布的API政策,企业需要为抓取推文的API支付每月4万美元至20万美元不等的费用,对应可以获得5000万至2亿条推文。而测算数据显示,最低一个档次的套餐只约等于整体推文的0.3%。在这种情况下,合成数据自然成了一个实惠方案,不仅可以避开这些数据的高昂售价,还能生成一些更复杂的数据来训练AI。▌如何用合成数据训练?具体如何用合成数据训练AI大模型?Gomez举了一个例子:在训练一个高级数学模型时,Cohere可能会使用两个AI模型进行对话,其中一个扮演数学老师,另一个则充当学生。之后这两个模型就会就三角函数等数学问题对话,“其实一切都是模型‘想象’出来的”。如果在这个过程中,模型说错了什么,人类就会在查看这段对话时作出纠正。而微软研究院最近的两项研究,也表明合成数据可以用来训练AI模型,这些模型一般比OpenAI的GPT-4、Google的PaLM-2更小更简单。在其中一篇论文中,GPT-4生成了一个名为“TinyStories”的短篇故事合成数据集,里面使用的单词全部非常简单,一个四岁儿童都能理解。这一数据集被用来训练一个简单的大语言模型,后者能生成流畅且语法正确的故事。另一篇论文中,AI可以通过合成的Python代码进行训练,并在之后的编码任务中给出相对较好的表现。▌蜜糖还是砒霜?想要合成数据的客户有了,供应商自然也如雨后春笋般涌现,例如ScaleAI、Gretel.ai等初创公司。Gretel.ai由来自美国国安局和中情局的前情报分析师成立,其已与Google、汇丰银行、RiotGames、Illumina等公司合作,用合成数据来扩充现有数据,帮助训练人工智能模型。Gretel.ai首席执行官AliGolshan表示,合成数据的关键在于,它既能保护数据集中所有个人的隐私,又能保持数据的统计完整性。同时,合成数据还可以消除现有数据中的偏差和不平衡。“举例来说,对冲基金可以研究黑天鹅事件,我们可以创建一百种变体,看看模型能否破解;而对于银行来说,欺诈事件通常不到总数据的百分之一,Gretel的软件可以生成成千上万的欺诈案例,并以此训练AI模型。”不过,也有人不看好合成数据。反对派认为,并不是所有合成数据都经过精心调试,并能反映或改进真实世界。来自牛津、剑桥、帝国理工等机构研究人员发现,合成数据的负面影响甚至堪比“毒药”。如果在训练时大量使用AI内容,会引发模型崩溃(modelcollapse),造成不可逆的缺陷。新一代模型的训练数据会被上一代模型的生成数据所污染,从而对现实世界的感知产生错误理解。随着时间推移,模型就会忘记真实基础数据部分。即使在几乎理想的长期学习状态下,这个情况也无法避免——研究人员也将此形容为“AI大模型患上‘痴呆症’”。即便是合成数据从业人员Golshan也坦承,在劣质合成数据上进行训练可能会阻碍进步。“网上越来越多的内容都是由AI生成的。随着时间推移,这确实会导致退化,因为这些大模型产生的知识都是重复的,没有任何新的见解。...PC版:https://www.cnbeta.com.tw/articles/soft/1372401.htm手机版:https://m.cnbeta.com.tw/view/1372401.htm

相关推荐

封面图片

Hugging Face 开源“世界最大”AI 训练合成数据集 Cosmopedia

HuggingFace开源“世界最大”AI训练合成数据集CosmopediaHuggingFace近日开源了一款名为“Cosmopedia”的 AI 训练数据集,号称是目前世界上最大的合成数据集。该数据集内容均由Mixtral7b模型汇总生成,其中包含大量教科书、博客文章、故事小说、WikiHow教程,共计250亿个Token。HuggingFace表示,这次开源的数据集为0.1版本,未来团队还将持续更新该数据集,推进业界 AI 训练发展。项目地址:消息来源:线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

英伟达开源Nemotron-4 340B 可用合成数据训出特定开源通用模型

英伟达开源Nemotron-4340B可用合成数据训出特定开源通用模型英伟达发布全新开源模型Nemotron-4340B,有可能彻底改变训练LLM的方式——或许以后各行各业都不再需要昂贵的真实世界数据集了。根据英伟达官方发文,Nemotron-4340B包括基础模型Base、指令模型Instruct和奖励模型Reward,并构建了一个高质量合成数据生成的完整流程。模型支持4K上下文窗口、50多种自然语言和40多种编程语言。训练数据方面,英伟达采用了高达9万亿个token。其中,8万亿用于预训练,1万亿用于继续训练以提高质量。Nemotron-4340B指令模型可以帮助开发者生成合成训练数据。这些多样化的合成数据,模仿了真实世界的数据特征,因而数据质量明显提升,从而提升了各领域定制LLM的性能和稳定性。而且,为了进一步提高AI生成数据的质量,开发者还可以用Nemotron-4340B奖励模型,来筛选高质量的响应。此外,为了提高模型质量,开发者可以使用NeMoAligner和由Nemotron-4340B奖励模型标注的数据集来对齐模型。根据大模型竞技场LMSYS的消息,Nemotron-4340B已直接超越了Mixtral8x22B、Claudesonnet、Llama370B、Qwen2。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

合成数据时代正在来临?谷歌终止了与 AI 数据公司的合同

合成数据时代正在来临?谷歌终止了与AI数据公司的合同谷歌终止了与AI训练数据公司Appen的合同,该公司拥有一个由100万自由职业者组成的数据标注平台,为微软、苹果、Meta、谷歌和亚马逊等科技巨头训练了各式人工智能产品,也是谷歌获取质量评估员最大的来源之一。Appen在2023年的销售额为2.73亿美元,其中与谷歌合作的收入就占近三分之一,公告发布后Appen股价下跌了40%。投稿:@TNSubmbot频道:@TestFlightCN

封面图片

MovieLLM: 用AI合成电影数据 用来训练AI对长视频理解

MovieLLM:用AI合成电影数据用来训练AI对长视频理解MovieLLM是由复旦大学和腾讯PCG的研究人员共同开发的一个新颖框架,能够从简单的文本提示中生成高质量、电影级别的视频数据。MovieLLM能仅仅通过一个词或一个句子就能创作出一部完整的电影。MovieLLM旨在为长视频创建合成的高质量数据。这个框架结合了GPT-4和文本到图像的模型,以生成详细的剧本和相应的视觉内容。通俗来讲就是:MovieLLM通过合成电影数据为人工智能模型提供训练材料,使它们能够更好地理解和生成长视频内容。#框架

封面图片

字节跳动回应 “OpenAI 研发大模型致账户被禁”:生成数据已在今年年中删除

字节跳动回应“OpenAI研发大模型致账户被禁”:生成数据已在今年年中删除12月16日下午消息,针对“字节跳动秘密使用OpenAI技术研发大模型,导致账户被暂停”一事,字节跳动回应称,GPT生成的数据已经在今年年中左右,从字节跳动的训练数据中删除。据外媒报道,在生成式AI竞争中处于落后的字节跳动想要“抄近道”,该公司一直在秘密使用OpenAI的技术开发自家大语言模型,这违反了OpenAI的服务条款。目前,字节跳动的账户已被OpenAI暂停。字节跳动的发言人JodiSeth说,GPT生成的数据在“种子计划”的早期开发中用于注解模型,并且在今年年中左右的时候已从字节跳动的训练数据中删除。“字节跳动获得了微软的许可使用GPTAPI。我们使用GPT驱动非中国市场的产品和功能,但使用我们自主开发的模型驱动豆包。豆包只在中国提供。”(新浪科技)

封面图片

【证监会科技监管局局长姚前:重点发展基于 AIGC 技术的合成数据产业,构建大模型训练数据的监管体系】

【证监会科技监管局局长姚前:重点发展基于AIGC技术的合成数据产业,构建大模型训练数据的监管体系】3月7日消息,证监会科技监管局局长姚前在《中国金融》撰文称,建议重点发展基于AIGC技术的合成数据产业。以更高效率、更低成本、更高质量为数据要素市场“增量扩容”,助力打造面向人工智能未来发展的数据优势。在强化数据要素优质供给方面,应统筹兼顾自立自强和对外开放。可考虑对Wikipedia、Reddit等特定数据源建立过滤后的境内镜像站点,供国内数据处理者使用。国家相关部门应对大模型训练数据的处理和使用标准进行统一规范;建立数据托管机制,对数据托管方进行约束,要求数据托管方按照监管机构的规定对数据来源、处理结果以及使用去向等进行监测,从而使得模型的输入、输出结果符合监管要求。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人