斯坦福2024 AI报告:中国AI专利全球第一 顶级AI模型主要来自美国

斯坦福2024AI报告:中国AI专利全球第一顶级AI模型主要来自美国StanfordHAI官方介绍道,‘这是我们迄今为止最全面的报告,而且是在人工智能对社会的影响从未如此明显的重要时刻发布的。’StanfordHAI研究项目主任VanessaParli表示,‘我认为最令人兴奋的人工智能研究优势是将这些大型语言模型与机器人或智能体(agent)相结合,这标志着机器人在现实世界中更有效地工作迈出了重要一步。’附上《2024年人工智能指数报告》下载地址:https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf与往年不同,StanfordHAI今年扩大了研究范围,更广泛地涵盖了人工智能的技术进步、公众对该技术的看法等基本趋势。新报告揭示了2023年人工智能行业的10大主要趋势:1.人工智能在某些任务上胜过人类,但并非在所有任务上人工智能已在多项基准测试中超越人类,包括在图像分类、视觉推理和英语理解方面。然而,它在竞赛级数学、视觉常识推理和规划等更复杂的任务上依然落后于人类。2.产业界继续主导人工智能前沿研究2023年,产业界产生了51个著名的机器学习模型,而学术界只贡献了15个。2023年,产学合作还产生了21个著名模型,创下新高。此外,108个新发布的基础模型来自工业界,28个来自学术界。3.前沿模型变得更加昂贵根据AIIndex的估算,最先进的人工智能模型的训练成本已经达到了前所未有的水平。例如,OpenAI的GPT-4估计使用了价值7800万美元的计算资源进行训练,而Google的GeminiUltra的计算成本则高达1.91亿美元。相比之下,几年前发布的一些最先进的模型,即原始transformer模型(2017年)和RoBERTaLarge(2019年),训练成本分别约为900美元和16万美元。4.美国成为顶级人工智能模型的主要来源国2023年,61个著名的人工智能模型源自美国的机构,超过欧盟的21个和中国的15个。美国也仍然是人工智能投资的首选之地。2023年,美国在人工智能领域的私人投资总额为672亿美元,是中国的近9倍。然而,中国依然是美国最大的竞争对手,中国的机器人安装量居世界首位;同样,世界上大多数人工智能专利(61%)都来自中国。5.严重缺乏对LLM责任的可靠和标准化评估AIIndex的最新研究显示,负责任的人工智能严重缺乏标准化。包括OpenAI、Google和Anthropic在内的领先开发商主要根据不同的负责任人工智能基准测试他们的模型。这种做法使系统地比较顶级人工智能模型的风险和局限性的工作变得更加复杂。6.生成式人工智能投资激增尽管去年人工智能私人投资整体下降,但对生成式人工智能的投资激增,比2022年(约30亿美元)增长了近八倍,达到252亿美元。生成式人工智能领域的主要参与者,包括OpenAI、Anthropic、HuggingFace和Inflection,都获得了一轮可观的融资。7.数据显示,人工智能让打工人更有生产力,工作质量更高2023年,多项研究评估了人工智能对劳动力的影响,表明人工智能可以让打工人更快地完成任务,并提高他们的产出质量。这些研究还表明,人工智能有可能缩小低技能和高技能工人之间的技能差距。还有一些研究警告说,在没有适当监督的情况下使用人工智能可能会起到负面作用。8.得益于人工智能,科学进步进一步加速2022年,人工智能开始推动科学发现。然而,2023年,与科学相关的更重要的人工智能应用启动——使算法排序更高效的AlphaDev、促进材料发现过程的GNoME、可在一分钟内提供极其准确的10天天气预报的GraphCast、成功对7100万种可能的错义突变中的约89%进行分类的AlphaMissence。如今,人工智能现在可以完成人类难以完成的、但对解决一些最复杂的科学问题至关重要的粗暴计算。在医疗方面,新的研究表明,医生可以利用人工智能更好地诊断乳腺癌、解读X射线和检测致命的癌症。9.美国的人工智能法规数量急剧增加2023年,全球立法程序中有2175次提及人工智能,几乎是上一年的两倍。美国人工智能相关法规的数量在过去一年大幅增加。2023年,与人工智能相关的法规有25项,而2016年只有1项。仅去年一年,人工智能相关法规的总数就增长了56.3%。其中一些法规包括生成式人工智能材料的版权指南和网络安全风险管理框架。10.人们对人工智能的潜在影响有了更深刻的认识,同时也更焦虑来自市场研究公司Ipsos的一项调查显示,在过去一年中,认为人工智能将在未来3-5年内极大地影响他们生活的人,比例从60%上升到66%。此外,52%的人对人工智能产品和服务表示焦虑,比2022年上升了13个百分点。在美国,来自皮尤研究中心(Pew)的数据显示,52%的美国人表示对人工智能的担忧多于兴奋,这一比例比2022年的38%有所上升。附:来自AIIndex联合主任RayPerrault的一封信十年前,世界上最好的人工智能系统也无法以人类的水平对图像中的物体进行分类。人工智能在语言理解方面举步维艰,也无法解决数学问题。如今,人工智能系统在标准基准上的表现经常超过人类。2023年,人工智能进步加速。GPT-4、Gemini和Claude3等先进模型展示出了令人印象深刻的多模态能力:它们可以生成数十种语言的流畅文本,处理音频,甚至可以解释备忘录。随着人工智能的进步,它也越来越多地进入我们的生活。公司竞相打造基于人工智能的产品,普通大众也越来越多地使用人工智能。但是,当前的人工智能技术仍然存在重大问题。它无法可靠地处理事实、进行复杂的推理或解释其结论。人工智能面临两个相互关联的未来。第一个,技术不断改进,应用日益广泛,对生产力和就业产生重大影响。人工智能的用途有好有坏。第二个,人工智能的应用受到技术局限的制约。无论是哪一种,政府都越来越关注。政府正在积极参与,鼓励人工智能的发展,比如资助大学研发和激励私人投资。政府还致力于管理潜在的不利因素,如对就业的影响、隐私问题、错误信息和知识产权。在技术方面,今年的AIIndex报告称,2023年全球发布的新大型语言模型数量比上一年翻了一番。三分之二的模型是开源的,但性能最高的模型来自拥有封闭系统的行业参与者。GeminiUltra成为首个在大规模多任务语言理解(MMLU)基准上达到人类水平的LLM;自去年以来,模型在该基准上的性能表现提高了15个百分点。此外,GPT-4在综合语言模型整体评估(HELM)基准上取得了令人印象深刻的0.97平均胜率分数。虽然全球对人工智能的私人投资连续第二年减少,但对生成式人工智能的投资却急剧上升。财富500强企业财报电话会议中提及人工智能的次数比以往任何时候都多,而且新的研究表明,人工智能明显提高了打工人的生产率。在政策制定方面,全球在立法程序中提及人工智能的次数前所未有。美国监管机构在2023年通过的人工智能相关法规比以往任何时候都多。尽管如此,许多人仍对人工智能生成深度伪造等能力表示担忧。公众对人工智能有了更多的认识,研究表明,他们的反应也是焦虑的。...PC版:https://www.cnbeta.com.tw/articles/soft/1427593.htm手机版:https://m.cnbeta.com.tw/view/1427593.htm

相关推荐

封面图片

斯坦福大学上周发布重要报告,来自以人为本人工智能研究所 HAI的2023年度AI指数报告。

斯坦福大学上周发布重要报告,来自以人为本人工智能研究所HAI的2023年度AI指数报告。共386页长,挑选了其中一些要点。报告地址:https://aiindex.stanford.edu/report/(阅读体验很友善)1⃣新技能的需求增加AI专业技能需求激增,在美国有统计数据的产业领域(除农业、林业、渔业和狩猎业外),与人工智能相关的工作岗位数量平均从2021年的1.7%增加到2022年的1.9%。2⃣投资持续2022年,人工智能领域的私人投资为919亿美元,是2013年的18倍。在私人投资总额方面,美国领先于世界。2022年,在美国投资的474亿美元大约是次高国家中国(134亿美元)投资额的3.5倍。在新投资的人工智能公司总数方面,美国也继续领先,比欧盟和英国加起来多1.9倍,比中国多3.4倍。3⃣机器学习系统分布最常见的机器学习系统类别是大规模语言模型,2022年发布了23个重要的AI语言系统,是第二常见类型(多模态)数量的6倍。2019年发布的GPT-2,被许多人认为是第一个大型语言模型,有15亿个参数,估计训练成本为5万美元。PaLM是2022年推出的旗舰大型语言模型之一,有5400亿个参数,成本估计为800万美元--PaLM比GPT-2大360倍左右,成本高160倍。4⃣技术性能2022年见证了大规模语言模型的性能提升。随着微软和谷歌等公司将聊天机器人集成到其现有服务中,生成模型出大了普通消费者一系列文本到文本,文本到图像,文本到视频和文本到3D模型,促使新初创公司的形成。5⃣滥用增加进一步伴随着人工智能相关法律案件数量的迅速增加,在过去十年中也呈指数级增长。6⃣公众舆论在2022年IPSOS的调查中,78%的中国受访者同意这样的说法:使用人工智能的产品和服务的好处多于坏处。随后来自沙特阿拉伯(76%)和印度(71%)的受访者对人工智能产品感到积极。只有35%的抽样美国人同意使用人工智能的产品和服务的好处多于坏处。7⃣人工智能教育

封面图片

美国斯坦福大学的一个AI(人工智能)团队就抄袭中国大模型致歉。近日,由三位美国斯坦福学生组成的一个AI团队发布了开源模型Ll

美国斯坦福大学的一个AI(人工智能)团队就抄袭中国大模型致歉。近日,由三位美国斯坦福大学学生组成的一个AI团队发布了开源模型Llama3-V。但是,该模型很快被曝出与中国大模型公司面壁智能的开源成果MiniCPM-Llama3-V2.5拥有几乎完全相同的模型架构与代码,引发“抄袭”质疑。当地时间6月3日,Llama3-V团队的两位作者森德哈斯・沙玛(SiddharthSharma)和阿克沙・加格(AkshGarg)在社交平台X上发布文章,向MiniCPM团队正式道歉,表示会将Llama3-V模型从网络上撤下。

封面图片

斯坦福大学发布人工智能状况报告

斯坦福大学发布人工智能状况报告虽然现在人工智能发展之快,让任何与人工智能有关的报告一发布就面临过期的风险,但是我们仍然能从这份386页的中得到一些有用的信息:·在过去的十年里,人工智能的发展已经从学术界主导翻转到了工业界主导,而且这没有改变的迹象。·在传统基准上测试模型正变得困难,这里可能需要一种新的模式。·人工智能训练和使用的能源占用正在变得相当大,但我们还没有看到它如何在其他地方增加效率。·与人工智能相关的技能和工作岗位正在增加,但没有你想象的那么快。·政策制定者们正在努力编写一个明确的人工智能法案,如果有的话,这是一个愚蠢的差事。·投资已经暂时停滞,但这是在过去十年的天文数字般的增长之后。·超过70%的中国、沙特和印度受访者认为人工智能的好处多于坏处。美国人呢?35%。来源,,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

斯坦福AI团队承诺撤下抄袭清华与面壁智能“小钢炮”的相关模型

斯坦福AI团队承诺撤下抄袭清华与面壁智能“小钢炮”的相关模型据一财,近日,斯坦福大学AI团队主导的Llama3-V开源模型被证实套壳抄袭国内清华与面壁智能的开源模型“小钢炮”MiniCPM-Llama3-V2.5一事,在网络上引发热议。在最新的进展中,斯坦福Llama3-V团队的两位作者SiddharthSharma(森德哈斯·沙玛)和AkshGarg(阿克沙·加格)在社交平台上就这一学术不端行为向面壁MiniCPM团队正式道歉,并表示会将Llama3-V模型悉数撤下。另外,斯坦福人工智能实验室主任ChristopherDavidManning也发文谴责这一抄袭行为,并对MiniCPM这一中国开源模型表示赞扬。来源:格隆汇

封面图片

斯坦福 AI 团队回应抄袭面壁智能:Llama3-V 模型将悉数撤下

斯坦福AI团队回应抄袭面壁智能:Llama3-V模型将悉数撤下近日,斯坦福AI团队主导的Llama3-V开源模型被证实套壳抄袭国内清华&面壁智能的开源模型“小钢炮”MiniCPM-Llama3-V2.5一事,在网络和媒体上引发热议。6月2日深夜,面壁智能团队证实,该斯坦福大模型项目与MiniCPM一样,可以识别出“清华简”战国古文字,“不仅对得一模一样、连错得都一模一样”。且这一古文字数据为研究团队花费数月从清华简上逐字扫描并人工标注得来,并未对外公开,证实抄袭事实。今早北京时间凌晨1点27分,此事件迎来终局:斯坦福Llama3-V团队的两位作者SiddharthSharma和AkshGarg在X上就这一学术不端行为对面壁MiniCPM团队正式道歉,表示会将Llama3-V模型悉数撤下。相似内容的道歉信,已于几小时前被作者发出一次,但被迅速删除。(新浪科技)

封面图片

斯坦福AI团队回应抄袭面壁智能:Llama3-V模型将悉数撤下

斯坦福AI团队回应抄袭面壁智能:Llama3-V模型将悉数撤下随后,被网友发现,该项目使用的模型结构和代码与面壁智能不久前发布的MiniCPM-Llama3-V2.5惊人相似,仅修改了部分变量名。6月2日深夜,面壁智能团队证实,该斯坦福大模型项目与MiniCPM一样,可以识别出“清华简”战国古文字,“不仅对得一模一样、连错得都一模一样”。且这一古文字数据为研究团队花费数月从清华简上逐字扫描并人工标注得来,并未对外公开,证实抄袭事实。今早北京时间凌晨1点27分,此事件迎来终局:斯坦福Llama3-V团队的两位作者SiddharthSharma和AkshGarg在X上就这一学术不端行为对面壁MiniCPM团队正式道歉,表示会将Llama3-V模型悉数撤下。相似内容的道歉信,已于几小时前被作者发出一次,但被迅速删除。...PC版:https://www.cnbeta.com.tw/articles/soft/1433494.htm手机版:https://m.cnbeta.com.tw/view/1433494.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人