OpenAI、Meta、谷歌同意采用新的安全措施,保护儿童,并填补他们当前防御体系中的多个漏洞。

None

相关推荐

封面图片

谷歌将在安装可疑应用时添加额外的保护层谷歌Play商店拥有多种安全工具来保护用户免受漏洞攻击。谷歌现在又增加了另一层安全措施来防

封面图片

OpenAI:我们相信,通过六大安全措施可以完成当前的(网络人工智能相关领域的)安全控制,并帮助保护高级AI。

封面图片

AI产业的灰暗面:OpenAI、谷歌、Meta如何获取训练语料

AI产业的灰暗面:OpenAI、谷歌、Meta如何获取训练语料《纽约时报》在本周末刊发的调查报道中,揭露了OpenAI、Google、Meta等公司为了获取训练语料所采取的一些“走捷径”措施,同时也展现了整个行业迫在眉睫的困境。美国科技巨头各走“捷径”2021年末,正在训练GPT-4的OpenAI遇到了一个棘手的问题,公司已经耗尽了互联网上所有可靠的英文文本资源,而他们需要更多、更大规模的数据来训练更强大的模型。为了处理这个问题,OpenAI的Whisper语音识别工具诞生了——用来转录Google旗下视频平台Youtube的视频音频,生成大量的对话文本。报道称,包括OpenAI总裁布洛克曼在内的团队总共转录了超过一百万小时的Youtube视频。随后这些资料被输入到GPT-4系统中,并成为聊天机器人ChatGPT的基础。根据Google的政策,禁止用户将平台上的视频用于“独立”应用,同时禁止通过任何自动化手段(爬虫等)访问其视频。有趣的是,在OpenAI偷偷扒Youtube视频时,Google也在转录自家流媒体平台的内容训练大模型——同样冒着侵犯版权的风险。正因如此,虽然有Google员工知道OpenAI在这么干,也没有出手阻止。因为一旦Google对OpenAI提出抗议,也有可能“引火烧身”到自己身上。对于是否采用Youtube视频训练AI的询问,OpenAI方面回应称,他们使用了“多个来源”的数据。Google发言人MattBryant则表示,公司对OpenAI的行为一无所知,且禁止任何人“未经授权抓取或下载Youtube视频”。不过Bryant也表示,公司只会在有明确法律、技术依据时才会采取行动。Google自家的条款,则允许平台使用这些视频开发视频平台的新功能,但这样的措辞是否意味着Google能用这些资料开发商用AI,也存在不小的疑问。与此同时,Meta的内部会议纪要显示,工程师和产品经理讨论了购买美国大型出版商Simon&Schuster以获取长文本资料的计划,另外他们还讨论了从互联网上收集受版权保护的内容,并表示“与出版商、艺术家、音乐家和新闻行业谈判授权需要的时间太多了”。据悉,有Meta的高管表示,OpenAI似乎正在使用受版权保护的材料,所以公司也可以遵循这个“市场先例”。更显性的变化是,Google去年修改了服务条款。根据内部资料显示,推动隐私政策变化的动机之一,包括允许Google利用公开的Google文档、Google地图上的餐厅评论,以及更多在线资料开发AI产品。最终Google赶在美国国庆节(7月4日)放假前的7月1日发布了修改后的隐私条款,将“使用公开信息训练AI模型”首次纳入其中。Bryant回应称,公司不会在没有用户“明确许可”的情况下使用他们的Google文档来训练AI,这里指的是自愿参与的实验性功能体验计划。即便如此还是不够正因为这些操作,近些年来伴随着人们对AI能力的惊叹,越来越多的版权方也开始意识到自己的数据被偷偷拿走训练AI了。包括《纽约时报》、一些电影制作人和作家已经将这些科技公司告上法庭,美国著作权局也正在制定版权法在AI时代的适用指南。问题在于,即便一些作家、制片人将科技公司的行为称为“美国史上最大盗窃案”,科技公司用来发展下一代AI的数据依然还是不够。2020年初,约翰霍普金斯大学的理论物理学家(现Anthropic首席科学官)JaredKaplan发布了一篇论文,明确表示训练大语言模型用的数据越多,表现就会越好。自那以后,“规模就是一切”成为了人工智能行业的信条。2020年11月发布的GPT-3包含约3000亿个Token的训练数据。2022年,GoogleDeepMind对400个人工智能模型进行测试,其中表现最好的模型(之一),一个名为Chinchilla的模型用了1.4万亿个Token的数据。到2023年,中国科学家开发的Skywork大模型在训练中使用了3.2万亿个英文和中文Token,GooglePaLM2的训练数据量则达到3.6万亿个Token。研究机构Epoch直白地表示,现在科技公司使用数据的速度已经超过数据生产的速度,这些公司最快会在2026年就耗尽互联网上的高质量数据。面对这样的问题,奥尔特曼已经提出了一种解决方法:像OpenAI这样的公司,最终会转向使用AI生成的数据(也被称为合成数据)来训练AI。这样开发人员在创建愈发强大的技术同时,也会减少对受版权保护数据的依赖。目前OpenAI和一系列机构也正在研究使用两个不同的模型,能否共同生成更有用、更可靠的合成数据——一个系统产生数据,另一个系统对信息进行评判。当然,这种技术路径是否可行,目前仍存争议。前OpenAI研究员JeffClune认为,这些AI系统所需的数据就像是穿越丛林的路径,如果这些公司只是在合成数据上训练,AI可能会在丛林里迷失。...PC版:https://www.cnbeta.com.tw/articles/soft/1426528.htm手机版:https://m.cnbeta.com.tw/view/1426528.htm

封面图片

OpenAI、亚马逊和谷歌等多家企业同意在 2024 年选举中打击人工智能滥用

OpenAI、亚马逊和谷歌等多家企业同意在2024年选举中打击人工智能滥用OpenAI、亚马逊、谷歌和其他17家人工智能技术领域的主要企业组成了一个联盟,试图防止人工智能在即将到来的全球选举中被用来欺骗选民。这些公司周五在慕尼黑安全会议上宣布了这一协议,并做出了一系列承诺,试图检测人工智能支持的选举误导信息,对其做出反应,并提高公众对潜在欺骗行为的认识。他们在协议中承诺,将使用技术来降低人工智能生成的选举内容的风险。他们还承诺相互分享如何应对不良行为者的信息。

封面图片

扎克伯格:应由苹果和谷歌管理家长对应用的同意,而不是 Meta

扎克伯格:应由苹果和谷歌管理家长对应用的同意,而不是Meta在今天的国会网络安全听证会上,Meta公司首席执行官马克·扎克伯格再次反驳了这样一种观点,即像他这样的企业应该负责管理儿童使用Facebook和Instagram等社交媒体应用的家长同意系统。相反,他建议这个问题应该由苹果和谷歌等应用商店提供商来解决。这并不是Meta公司第一次提出这个想法。去年11月,该公司提出了一项建议,认为苹果和谷歌应该在儿童和青少年安全方面做得更多,要求13至15岁的用户在下载某些应用时必须获得父母的批准。——

封面图片

【谷歌、OpenAI都没有护城河】一位谷歌内部的研究人员认为,围绕Meta的LLaMA等开源模型,整个社区正在迅速构建与Open

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人