各大科技公司上万人研究 AI,但他们仍然比不上 OpenAI 小团队

各大科技公司上万人研究AI,但他们仍然比不上OpenAI小团队Glass.ai是来自英国伦敦的一家分析公司,其最新数据显示,苹果、谷歌、亚马逊、微软、Meta五大科技公司估计有3.3万人直接从事人工智能研发工作,其中亚马逊从事人工智能领域的员工最多,有10113人;微软在人工智能领域有7133名员工,而谷歌有4970名。Glass.ai利用机器学习技术遍历了这些科技公司的网站和招聘平台LinkedIn上几千名从事人工智能研究的员工个人资料,从而得到上述数据。这些统计数字可能不包括亚马逊最近宣布的裁员计划,但也可能不包括那些实际上也在从事人工智能工作的软件工程师。这些数字不仅说明世界上那些最大科技公司在人工智能领域的研究工作是多么认真,而且也证实这些公司在利用人工智能技术开发服务方面又是多么缓慢谨慎。OpenAI不是一家产品公司,而是一家研发实验室。这意味着,公司在发布ChatGPT时,没有大批工程师和产品经理参与其中。在不少大型科技公司,这些工程师和产品经理往往会插手产品开发,不经意间制造瓶颈,阻碍新技术的发展。亚马逊在将人工智能研究转化为成功产品方面就有这样的反面例子,尽管拥有业内最大的人工智能研究团队,但亚马逊将虚拟数字助理Alexa在某种程度上是个失败产品,烧掉了亚马逊几十亿美元的资金。Alexa的许多客户只是把它当作音乐播放器或是计时器使用。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

亚马逊据称成立AI模型训练团队 斥资数百万美元

亚马逊据称成立AI模型训练团队斥资数百万美元亚马逊拒绝对此消息发表评论。该团队由Alexa前负责人RohitPrasad领导,他现在直接向首席执行官安迪·贾西(AndyJassy)汇报工作。作为亚马逊人工通用智能(AGI)的首席科学家,Prasad引入了一直从事AlexaAI研究的研究人员和亚马逊科学团队来研究训练模型,用专门的资源将整个公司的AI工作整合在一起。截至目前,亚马逊已经训练出了泰坦(Titan)等规模较小的模型。该公司还与Anthropic和AI21Labs等人工智能模型初创公司达成了合作,向亚马逊网络服务(AWS)用户提供这些模型。熟悉内情的人士说,亚马逊认为,拥有自主开发的人工智能模型可以使其在AWS上的产品更具吸引力,因为企业客户希望在AWS上获得性能最佳的模型。这些消息人士还补充说,目前亚马逊还没有制定发布新模型的具体时间表。LLM是人工智能工具的基础技术,这些工具可从海量数据集中学习,生成类似人类的反应。考虑到所需的计算能力,训练更大的人工智能模型成本更高。在4月份的财报电话会议上,亚马逊高管表示,公司将增加对LLM和生成式人工智能的投资,同时削减零售业务的交付和运输规模。...PC版:https://www.cnbeta.com.tw/articles/soft/1395487.htm手机版:https://m.cnbeta.com.tw/view/1395487.htm

封面图片

报道称微软等科技公司的AI工程师正在经历职业倦怠

报道称微软等科技公司的AI工程师正在经历职业倦怠CNBC报道称,它收到了许多大型科技企业的人工智能工程师发来的信息,称他们的上司为了发布这些产品逼得太紧。微软,一位不愿透露姓名的工程师说,公司正在进行一场"人工智能老鼠赛跑"。他还声称,微软,优先考虑的是发布人工智能产品的速度,而不是道德和安全问题。微软没有回应CNBC的置评请求。本周早些时候,该公司发布了首份人工智能责任与透明度报告,称已成立了一个负责任的人工智能委员会,该委员会定期召开会议,努力提高人工智能服务的安全系数。CNBC的同一篇报道还引用了亚马逊一位不愿透露姓名的人工智能工程师的话。这名团队成员称,他们本打算和朋友们享受一个周末,却接到了一个通知,要他们在周末为一个人工智能项目工作。为了完成任务,这名工程师在周末加班加点,结果到后来项目却被关闭了。这位团队成员也赞同微软员工的观点,即亚马逊试图更快地发布新的人工智能产品,而不是关注准确性和测试。亚马逊发言人在接受采访时表示,该公司"专注于构建和部署有用、可靠和安全的生成式人工智能创新,以重塑和提升客户体验"。该发言人没有否认这位不愿透露姓名的亚马逊工程师的报道,只是说:"用一名员工的轶事来描述亚马逊所有从事人工智能工作的员工的经历是不准确和误导性的。"...PC版:https://www.cnbeta.com.tw/articles/soft/1429544.htm手机版:https://m.cnbeta.com.tw/view/1429544.htm

封面图片

领先科技公司签署新一轮AI安全承诺

领先科技公司签署新一轮AI安全承诺英国和韩国政府宣布,领先的人工智能公司签署了有关人工智能安全的新一轮自愿承诺。包括科技巨头亚马逊、谷歌、Meta、微软、萨姆•奥尔特曼领导的OpenAI和马斯克的xAI以及中国开发商智谱AI,这些公司将发布框架,概述他们将如何衡量其“前沿”人工智能模型的风险。全球人工智能峰会周二在首尔开幕,两国政府在峰会开幕前表示,这些公司承诺,如果无法缓解严重风险,他们将“根本不开发或部署相关模型”。这些人工智能公司将“评估自己的前沿模型或系统构成的风险……包括在部署该模型或系统之前,以及在训练之前和期间。”——

封面图片

亚马逊宣布推出“Bedrock”AI 平台以对抗 OpenAI

亚马逊宣布推出“Bedrock”AI平台以对抗OpenAI亚马逊周四宣布,它正在为企业发布一个名为AmazonBedrock的人工智能平台,它将在生成人工智能领域与OpenAI和其他公司的企业产品展开竞争。Bedrock是一套生成式人工智能工具,可以帮助亚马逊网络服务客户——在亚马逊数据服务器上运行业务的企业——构建聊天机器人、生成和总结文本,以及根据提示制作和分类图像。Bedrock用户可以通过从一系列被称为“基础模型”的机器学习模型中进行选择来执行特定任务,例如,内容营销经理可以使用Bedrock通过为其提供数据来为新的手袋系列创建有针对性的广告活动,这样它就可以为每个产品生成产品社交媒体帖子、展示广告。Amazon的生成式AI工具包的预览目前仅限于特定的AWS客户。据亚马逊称,到目前为止,优步和纽约时报等公司使用的人工智能文档生成公司Coda正在使用Bedrock来扩展其业务运营。——

封面图片

OpenAI发表研究论文 介绍了一种逆向工程AI模型工作原理的方法

OpenAI发表研究论文介绍了一种逆向工程AI模型工作原理的方法在论文中,该公司的研究人员提出了一种窥探为ChatGPT提供动力的人工智能模型内部的方法。他们设计了一种方法来识别模型如何存储某些概念--包括那些可能导致人工智能系统行为失常的概念。虽然这项研究使OpenAI在控制人工智能方面的工作更加引人注目,但也凸显了该公司最近的动荡。新研究由OpenAI最近解散的"超对齐"团队完成,该团队致力于研究技术的长期风险。前小组的共同负责人伊利亚-苏茨克沃(IlyaSutskever)和扬-莱克(JanLeike)均已离开OpenAI,并被列为共同作者。苏茨克沃是OpenAI的创始人之一,曾任首席科学家,去年11月,董事会成员投票解雇了首席执行官山姆-奥特曼(SamAltman),引发了几天的混乱,最终奥特曼重返领导岗位。ChatGPT由一个名为GPT的大型语言模型系列提供支持,该模型基于一种被称为人工神经网络的机器学习方法。这些数学网络通过分析示例数据显示出了学习有用任务的强大能力,但它们的工作原理无法像传统计算机程序那样被轻易检查。人工神经网络中各层"神经元"之间复杂的相互作用,使得逆向分析ChatGPT这样的系统为何会得出特定的反应极具挑战性。这项工作背后的研究人员在一篇随附的博文中写道:"与大多数人类创造物不同,我们并不真正了解神经网络的内部运作。一些著名的人工智能研究人员认为,包括ChatGPT在内的最强大的人工智能模型或许可以用来设计生化武器和协调网络攻击。一个更长期的担忧是,人工智能模型可能会选择隐藏信息或以有害的方式行事,以实现它们的目标。"OpenAI的这篇新论文概述了一种技术,该技术借助额外的机器学习模型,识别代表机器学习系统内部特定概念的模式,从而稍稍降低了神秘感。创新的关键在于通过识别概念来完善用于窥探系统内部的网络,从而提高效率。OpenAI通过在其最大的人工智能模型之一GPT-4中识别代表概念的模式证明了这种方法。该公司发布了与可解释性工作相关的代码,以及一个可视化工具,用于查看不同句子中的单词如何激活GPT-4和另一个模型中的概念,包括亵渎和色情内容。了解一个模型是如何表现某些概念的,这将有助于减少与不受欢迎的行为相关的概念,使人工智能系统保持正常运行。它还可以调整人工智能系统,使其偏向于某些主题或想法。尽管LLM无法被轻易解读,但越来越多的研究表明,它们可以被穿透,从而揭示出有用的信息。由亚马逊和Google支持的OpenAI竞争对手Anthropic上个月也发表了类似的人工智能可解释性研究成果。为了演示如何调整人工智能系统的行为,该公司的研究人员创造了一个痴迷于旧金山金门大桥的聊天机器人。有时,只需让人工只能机器人解释其推理过程,就能获得深刻的见解。东北大学从事人工智能可解释性研究的教授大卫-鲍(DavidBau)在谈到OpenAI的新研究时说:"这是令人兴奋的进展。"作为一个领域,我们需要学习如何更好地理解和审视这些大型模型。"鲍说,OpenAI团队的主要创新在于展示了一种配置小型神经网络的更有效方法,该网络可用于理解大型神经网络的组成部分。但他也指出,这项技术还需要改进,以使其更加可靠。要利用这些方法创造出完全可以理解的解释,还有很多工作要做。"鲍是美国政府资助的一项名为"国家深度推理结构"(NationalDeepInferenceFabric)的工作的一部分,这项工作将向学术研究人员提供云计算资源,以便他们也能探索特别强大的人工智能模型。他说:"我们需要想办法让科学家即使不在这些大公司工作,也能从事这项工作。"OpenAI的研究人员在论文中承认,要改进他们的方法还需要进一步的工作,但他们也表示,希望这种方法能带来控制人工智能模型的实用方法。他们写道:"我们希望有一天,可解释性能为我们提供推理模型安全性和鲁棒性的新方法,并通过为强大的人工智能模型的行为提供强有力的保证,大大增加我们对它们的信任。"阅读论文全文:https://cdn.openai.com/papers/sparse-autoencoders.pdf...PC版:https://www.cnbeta.com.tw/articles/soft/1433886.htm手机版:https://m.cnbeta.com.tw/view/1433886.htm

封面图片

OpenAI组建团队研究包括核威胁在内的"灾难性"人工智能风险

OpenAI组建团队研究包括核威胁在内的"灾难性"人工智能风险Preparedness的主要职责是跟踪、预测和防范未来人工智能系统的危险,包括其说服和愚弄人类的能力(如网络钓鱼攻击)以及恶意代码生成能力。Preparedness负责研究的一些风险类别似乎比其他类别更......牵强。例如,在一篇博文中,OpenAI将"化学、生物、辐射和核"威胁列为人工智能模型的首要关注领域。OpenAI首席执行官萨姆-阿尔特曼(SamAltman)是一位著名的人工智能末日论者,他经常担心人工智能"可能会导致人类灭绝"--无论是出于视觉效果还是个人信念。但坦率地说,OpenAI可能真的会投入资源来研究科幻乌托邦小说中的场景,这比本文作者的预期还更进了一步。该公司表示,它也愿意研究"不那么明显"、更接地气的人工智能风险领域。为了配合"准备"团队的启动,OpenAI正在向社区征集风险研究的想法,前十名的提交者将获得2.5万美元的奖金和一份"Preparedness"的工作。"想象一下,我们让你不受限制地访问OpenAI的Whisper(转录)、Voice(文本到语音)、GPT-4V和DALLE-3模型,而你是一个恶意行为者,"作品征集中的一个问题写道。"考虑最独特的、同时仍有可能发生的、潜在灾难性的模型滥用。"OpenAI表示,准备团队还将负责制定一项"风险知情开发政策",该政策将详细说明OpenAI构建人工智能模型评估和监控工具的方法、公司的风险缓解行动以及监督整个模型开发流程的治理结构。该公司表示,这是为了补充OpenAI在人工智能安全领域的其他工作,重点是模型部署前和部署后阶段。"我们相信......人工智能模型将超越目前最先进的现有模型的能力,有可能造福全人类,"OpenAI在上述博文中写道。"但它们也带来了越来越严重的风险......我们需要确保我们对高能力人工智能系统安全所需的理解和基础设施。"在OpenAI宣布将组建一个团队来研究、引导和控制新出现的"超级智能"人工智能形式之后,OpenAI在英国政府举行的一次关于人工智能安全的重要峰会上发布了"预先准备"计划(Preparedness)。首席执行官Altman和OpenAI的首席科学家兼联合创始人IlyaSutskever都认为,拥有超越人类智能的人工智能可能会在十年内出现,而这种人工智能并不一定是善意的,因此有必要研究限制和约束它的方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1392541.htm手机版:https://m.cnbeta.com.tw/view/1392541.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人