斯坦福大学上周发布重要报告,来自以人为本人工智能研究所 HAI的2023年度AI指数报告。

斯坦福大学上周发布重要报告,来自以人为本人工智能研究所HAI的2023年度AI指数报告。共386页长,挑选了其中一些要点。报告地址:https://aiindex.stanford.edu/report/(阅读体验很友善)1⃣新技能的需求增加AI专业技能需求激增,在美国有统计数据的产业领域(除农业、林业、渔业和狩猎业外),与人工智能相关的工作岗位数量平均从2021年的1.7%增加到2022年的1.9%。2⃣投资持续2022年,人工智能领域的私人投资为919亿美元,是2013年的18倍。在私人投资总额方面,美国领先于世界。2022年,在美国投资的474亿美元大约是次高国家中国(134亿美元)投资额的3.5倍。在新投资的人工智能公司总数方面,美国也继续领先,比欧盟和英国加起来多1.9倍,比中国多3.4倍。3⃣机器学习系统分布最常见的机器学习系统类别是大规模语言模型,2022年发布了23个重要的AI语言系统,是第二常见类型(多模态)数量的6倍。2019年发布的GPT-2,被许多人认为是第一个大型语言模型,有15亿个参数,估计训练成本为5万美元。PaLM是2022年推出的旗舰大型语言模型之一,有5400亿个参数,成本估计为800万美元--PaLM比GPT-2大360倍左右,成本高160倍。4⃣技术性能2022年见证了大规模语言模型的性能提升。随着微软和谷歌等公司将聊天机器人集成到其现有服务中,生成模型出大了普通消费者一系列文本到文本,文本到图像,文本到视频和文本到3D模型,促使新初创公司的形成。5⃣滥用增加进一步伴随着人工智能相关法律案件数量的迅速增加,在过去十年中也呈指数级增长。6⃣公众舆论在2022年IPSOS的调查中,78%的中国受访者同意这样的说法:使用人工智能的产品和服务的好处多于坏处。随后来自沙特阿拉伯(76%)和印度(71%)的受访者对人工智能产品感到积极。只有35%的抽样美国人同意使用人工智能的产品和服务的好处多于坏处。7⃣人工智能教育

相关推荐

封面图片

斯坦福大学发布人工智能状况报告

斯坦福大学发布人工智能状况报告虽然现在人工智能发展之快,让任何与人工智能有关的报告一发布就面临过期的风险,但是我们仍然能从这份386页的中得到一些有用的信息:·在过去的十年里,人工智能的发展已经从学术界主导翻转到了工业界主导,而且这没有改变的迹象。·在传统基准上测试模型正变得困难,这里可能需要一种新的模式。·人工智能训练和使用的能源占用正在变得相当大,但我们还没有看到它如何在其他地方增加效率。·与人工智能相关的技能和工作岗位正在增加,但没有你想象的那么快。·政策制定者们正在努力编写一个明确的人工智能法案,如果有的话,这是一个愚蠢的差事。·投资已经暂时停滞,但这是在过去十年的天文数字般的增长之后。·超过70%的中国、沙特和印度受访者认为人工智能的好处多于坏处。美国人呢?35%。来源,,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

斯坦福2024 AI报告:中国AI专利全球第一 顶级AI模型主要来自美国

斯坦福2024AI报告:中国AI专利全球第一顶级AI模型主要来自美国StanfordHAI官方介绍道,‘这是我们迄今为止最全面的报告,而且是在人工智能对社会的影响从未如此明显的重要时刻发布的。’StanfordHAI研究项目主任VanessaParli表示,‘我认为最令人兴奋的人工智能研究优势是将这些大型语言模型与机器人或智能体(agent)相结合,这标志着机器人在现实世界中更有效地工作迈出了重要一步。’附上《2024年人工智能指数报告》下载地址:https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf与往年不同,StanfordHAI今年扩大了研究范围,更广泛地涵盖了人工智能的技术进步、公众对该技术的看法等基本趋势。新报告揭示了2023年人工智能行业的10大主要趋势:1.人工智能在某些任务上胜过人类,但并非在所有任务上人工智能已在多项基准测试中超越人类,包括在图像分类、视觉推理和英语理解方面。然而,它在竞赛级数学、视觉常识推理和规划等更复杂的任务上依然落后于人类。2.产业界继续主导人工智能前沿研究2023年,产业界产生了51个著名的机器学习模型,而学术界只贡献了15个。2023年,产学合作还产生了21个著名模型,创下新高。此外,108个新发布的基础模型来自工业界,28个来自学术界。3.前沿模型变得更加昂贵根据AIIndex的估算,最先进的人工智能模型的训练成本已经达到了前所未有的水平。例如,OpenAI的GPT-4估计使用了价值7800万美元的计算资源进行训练,而Google的GeminiUltra的计算成本则高达1.91亿美元。相比之下,几年前发布的一些最先进的模型,即原始transformer模型(2017年)和RoBERTaLarge(2019年),训练成本分别约为900美元和16万美元。4.美国成为顶级人工智能模型的主要来源国2023年,61个著名的人工智能模型源自美国的机构,超过欧盟的21个和中国的15个。美国也仍然是人工智能投资的首选之地。2023年,美国在人工智能领域的私人投资总额为672亿美元,是中国的近9倍。然而,中国依然是美国最大的竞争对手,中国的机器人安装量居世界首位;同样,世界上大多数人工智能专利(61%)都来自中国。5.严重缺乏对LLM责任的可靠和标准化评估AIIndex的最新研究显示,负责任的人工智能严重缺乏标准化。包括OpenAI、Google和Anthropic在内的领先开发商主要根据不同的负责任人工智能基准测试他们的模型。这种做法使系统地比较顶级人工智能模型的风险和局限性的工作变得更加复杂。6.生成式人工智能投资激增尽管去年人工智能私人投资整体下降,但对生成式人工智能的投资激增,比2022年(约30亿美元)增长了近八倍,达到252亿美元。生成式人工智能领域的主要参与者,包括OpenAI、Anthropic、HuggingFace和Inflection,都获得了一轮可观的融资。7.数据显示,人工智能让打工人更有生产力,工作质量更高2023年,多项研究评估了人工智能对劳动力的影响,表明人工智能可以让打工人更快地完成任务,并提高他们的产出质量。这些研究还表明,人工智能有可能缩小低技能和高技能工人之间的技能差距。还有一些研究警告说,在没有适当监督的情况下使用人工智能可能会起到负面作用。8.得益于人工智能,科学进步进一步加速2022年,人工智能开始推动科学发现。然而,2023年,与科学相关的更重要的人工智能应用启动——使算法排序更高效的AlphaDev、促进材料发现过程的GNoME、可在一分钟内提供极其准确的10天天气预报的GraphCast、成功对7100万种可能的错义突变中的约89%进行分类的AlphaMissence。如今,人工智能现在可以完成人类难以完成的、但对解决一些最复杂的科学问题至关重要的粗暴计算。在医疗方面,新的研究表明,医生可以利用人工智能更好地诊断乳腺癌、解读X射线和检测致命的癌症。9.美国的人工智能法规数量急剧增加2023年,全球立法程序中有2175次提及人工智能,几乎是上一年的两倍。美国人工智能相关法规的数量在过去一年大幅增加。2023年,与人工智能相关的法规有25项,而2016年只有1项。仅去年一年,人工智能相关法规的总数就增长了56.3%。其中一些法规包括生成式人工智能材料的版权指南和网络安全风险管理框架。10.人们对人工智能的潜在影响有了更深刻的认识,同时也更焦虑来自市场研究公司Ipsos的一项调查显示,在过去一年中,认为人工智能将在未来3-5年内极大地影响他们生活的人,比例从60%上升到66%。此外,52%的人对人工智能产品和服务表示焦虑,比2022年上升了13个百分点。在美国,来自皮尤研究中心(Pew)的数据显示,52%的美国人表示对人工智能的担忧多于兴奋,这一比例比2022年的38%有所上升。附:来自AIIndex联合主任RayPerrault的一封信十年前,世界上最好的人工智能系统也无法以人类的水平对图像中的物体进行分类。人工智能在语言理解方面举步维艰,也无法解决数学问题。如今,人工智能系统在标准基准上的表现经常超过人类。2023年,人工智能进步加速。GPT-4、Gemini和Claude3等先进模型展示出了令人印象深刻的多模态能力:它们可以生成数十种语言的流畅文本,处理音频,甚至可以解释备忘录。随着人工智能的进步,它也越来越多地进入我们的生活。公司竞相打造基于人工智能的产品,普通大众也越来越多地使用人工智能。但是,当前的人工智能技术仍然存在重大问题。它无法可靠地处理事实、进行复杂的推理或解释其结论。人工智能面临两个相互关联的未来。第一个,技术不断改进,应用日益广泛,对生产力和就业产生重大影响。人工智能的用途有好有坏。第二个,人工智能的应用受到技术局限的制约。无论是哪一种,政府都越来越关注。政府正在积极参与,鼓励人工智能的发展,比如资助大学研发和激励私人投资。政府还致力于管理潜在的不利因素,如对就业的影响、隐私问题、错误信息和知识产权。在技术方面,今年的AIIndex报告称,2023年全球发布的新大型语言模型数量比上一年翻了一番。三分之二的模型是开源的,但性能最高的模型来自拥有封闭系统的行业参与者。GeminiUltra成为首个在大规模多任务语言理解(MMLU)基准上达到人类水平的LLM;自去年以来,模型在该基准上的性能表现提高了15个百分点。此外,GPT-4在综合语言模型整体评估(HELM)基准上取得了令人印象深刻的0.97平均胜率分数。虽然全球对人工智能的私人投资连续第二年减少,但对生成式人工智能的投资却急剧上升。财富500强企业财报电话会议中提及人工智能的次数比以往任何时候都多,而且新的研究表明,人工智能明显提高了打工人的生产率。在政策制定方面,全球在立法程序中提及人工智能的次数前所未有。美国监管机构在2023年通过的人工智能相关法规比以往任何时候都多。尽管如此,许多人仍对人工智能生成深度伪造等能力表示担忧。公众对人工智能有了更多的认识,研究表明,他们的反应也是焦虑的。...PC版:https://www.cnbeta.com.tw/articles/soft/1427593.htm手机版:https://m.cnbeta.com.tw/view/1427593.htm

封面图片

人工智能不能说的小秘密:斯坦福大学研究人员揭露文本检测器的缺陷

人工智能不能说的小秘密:斯坦福大学研究人员揭露文本检测器的缺陷资深作者、斯坦福大学的詹姆斯-邹(JamesZou)说:"我们目前的建议是,我们应该非常小心,也许应该尽量避免使用这些检测器。如果用这些检测器来审查求职申请、大学入学论文或高中作业等,可能会产生重大影响。"像OpenAI的ChatGPT聊天机器人这样的人工智能工具可以撰写论文、解决科学和数学问题,并生成计算机代码。美国各地的教育工作者越来越关注在学生作业中使用人工智能的问题,他们中的许多人已经开始使用GPT检测器来筛选学生的作业。这些检测器是声称能够识别文本是否由人工智能生成的平台,但其可靠性和有效性仍有待检验。邹和他的团队对七种流行的GPT检测器进行了测试。他们用这些检测器检测了91篇由非英语母语人士撰写的英语论文,这些文章是为了参加一个被广泛认可的英语水平测试--托福考试(TestofEnglishasaForeignLanguage)。这些平台错误地将一半以上的文章标记为人工智能生成,其中一个检测器将近98%的文章标记为人工智能所写。相比之下,这些检测器能将超过90%的美国八年级学生撰写的作文正确归类为人工生成。邹解释说,这些检测器的算法是通过评估文本的复杂性(perplexity)来工作的,而文本的复杂性是指文章中选词的出人意料程度。"如果你使用的是常见的英文单词,那么检测器就会给出较低的易混度分数,这意味着我的文章很可能会被标记为人工智能生成。如果你使用的是复杂的高级词汇,那么它就更有可能被算法归类为人类撰写的文章。这是因为像ChatGPT这样的大型语言模型经过训练,可以生成低复杂度的文本,从而更好地模拟普通人的说话方式。"因此,非英语母语写作者所采用的简单选词会使他们更容易被标记为使用了人工智能。然后,研究小组将人类撰写的托福作文放入ChatGPT,并提示它使用更复杂的语言编辑文本,包括用复杂词汇替换简单词汇。GPT检测器将这些人工智能编辑的文章标记为人类撰写的文章。邹说:"在课堂环境中使用这些检测器时,我们应该非常谨慎,因为仍然存在很多偏差,而且它们很容易被愚弄,只需进行最低限度的提示设计即可。使用GPT检测器的影响还可能超出教育领域。例如,Google等搜索引擎会贬低人工智能生成的内容,这可能会无意中压制非英语母语写作者的声音。"虽然人工智能工具可以对学生的学习产生积极影响,但在投入使用之前,GPT检测器还需要进一步加强和评估,用更多样化的写作类型来训练这些算法可能是改进这些检测器的一种方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1381495.htm手机版:https://m.cnbeta.com.tw/view/1381495.htm

封面图片

斯坦福大学复制出ChatGPT人工智能 训练成本不到600美元

斯坦福大学复制出ChatGPT人工智能训练成本不到600美元六个月前,只有研究人员和博学者在关注大型语言模型的发展。但去年年底ChatGPT的推出震惊了世界:机器现在能够以一种与人类几乎没有区别的方式进行交流。它们能够在几秒钟内写出文本,甚至是跨越一系列令人眼花缭乱的主题领域的编程代码,而且往往是非常高的质量标准。正如GPT-4的推出所表明的那样,它们正在以流星般的速度进步,它们将像其他技术一样从根本上改变人类社会,因为它们有可能将一系列工作任务自动化--特别是在白领工人中,人们以前可能认为这是不可能的。许多其他公司--特别是Google、苹果、Meta、百度和亚马逊等--也不甘落后,它们的人工智能很快就会涌入市场,附着在各种可能的应用和设备上。如果你是Bing的用户,语言模型已经出现在你的搜索引擎中,而且它们很快就会出现在其他地方。它们将出现在你的车里、你的手机里、你的电视上,当你试图给一家公司打电话时,它们会在电话的另一端等待。过不了多久,你就会在机器人中看到它们。有一点值得安慰的是,OpenAI和其他这些大公司都意识到这些机器在垃圾邮件、错误信息、恶意软件、有针对性的骚扰和其他各种大多数人都认为会使世界变得更糟的使用情况方面的疯狂潜力。他们花了好几个月的时间在产品发布前手动削减这些能力。OpenAI首席执行官萨姆-奥特曼(SamAltman)是许多担心政府行动不够迅速的人之一,没有以公共利益的名义为人工智能设置围栏。但是,你可以花600美元自己建立一个语言模型呢?斯坦福大学的一个研究小组已经做到了这一点,其令人印象深刻的表现突出了整个行业及其令人敬畏的能力可能会迅速失去控制。斯坦福大学的一个研究小组从Meta的开源LLaMA7B语言模型开始--这是现有几个LLaMA模型中最小和最便宜的。在一万亿个"tokens"上进行预训练,这个小语言模型有一定的能力,但它在大多数任务中会明显落后于ChatGPT;GPT模型的主要成本,甚至主要竞争优势,主要来自OpenAI在后期训练中投入的大量时间和人力。读了十亿本书是一回事,但通过大量的问答式对话来教导这些AI的实际工作是另一回事。因此,随着LLaMA7B模型的建立和运行,斯坦福大学的团队基本上要求GPT采用175个由人类编写的指令/输出对,并开始以同样的风格和格式生成更多的指令/输出对,每次20个。这是通过OpenAI提供的一个有用的API自动完成的,在很短的时间内,该团队有大约52000个对话样本,用于后期训练LLaMA模型。生成这些大量训练数据的成本不到500美元。然后,他们用这些数据来微调LLaMA模型--这个过程在8台80GB的A100云处理计算机上花了大约3个小时,这又花费了不到100美元。斯坦福大学团队使用GPT-3.5给LLaMA7B提供了一套关于如何完成其工作的指令接下来,他们对产生的模型进行了测试,他们称之为Alpaca,与ChatGPT的底层语言模型在各种领域(包括电子邮件写作、社交媒体和生产力工具)进行对比。在这些测试中,Alpaca赢得了90项,GPT赢得了89项。"鉴于模型规模小,指令跟随数据量不大,我们对这一结果相当惊讶,"该团队写道。"除了利用这个静态评估集,我们还对Alpaca模型进行了交互式测试,发现Alpaca在不同的输入集上往往表现得与text-davinci-003[GPT-3.5]类似。我们承认,我们的评估在规模和多样性方面可能是有限的"。该团队表示,如果他们寻求优化过程,他们可能会更便宜地完成这项工作。值得注意的是,任何希望复制人工智能的人现在都可以获得能力更强的GPT4.0,以及几个更强大的LLaMA模型作为基础,当然也没有必要停留在52000个问题上。斯坦福大学的团队已经在Github上发布了这项研究中使用的52000个问题,以及生成更多问题的代码,还有他们用来微调LLaMA模型的代码。该团队指出,"我们还没有对模型进行微调,使其安全无害",并要求任何建立这种模型的人报告他们发现的安全和道德问题。那么,有什么可以阻止任何人现在花100美元左右创建他们自己的人工智能,并以他们选择的方式训练它?OpenAI的服务条款确实带来了一些法律问题,它说:"你不能......使用服务的输出来开发与OpenAI竞争的模型"。而Meta说它在现阶段只允许学术研究人员在非商业许可下使用LLaMA,尽管这是一个有争议的问题,因为整个LLaMA模型在公布一周后就在4chan上泄露了。哦,还有一个小组说它已经设法消除了云计算成本,在Github上发布了更多的代码,可以在树莓派上运行,并在单个高端nVidiaRTX4090显卡上在5小时内完成训练过程。这一切意味着什么?现在可以建立无限数量的不受控制的语言模型--由具有机器学习知识、不在乎条款和条件或软件盗版的人建立--只需花钱,而且并不是高不可攀。这也给致力于开发自己的语言模型的商业人工智能公司泼了一盆冷水;如果所涉及的大部分时间和费用都发生在训练后阶段,而这项工作或多或少可以在回答50或100000个问题的时间内被窃取,那么公司继续砸钱是否有意义?而对于我们其他人来说,嗯,很难说,但这个软件的强大功能肯定可以为专制政权、网络钓鱼行动、垃圾邮件发送者或任何其他可疑的人所用。精灵已经从瓶子里出来了,而且似乎已经非常容易复制和重新训练了。...PC版:https://www.cnbeta.com.tw/articles/soft/1350283.htm手机版:https://m.cnbeta.com.tw/view/1350283.htm

封面图片

斯坦福大学报告显示中国人对AI产品的看法最为积极,反之更多的美国人认为弊大于利

斯坦福大学报告显示中国人对AI产品的看法最为积极,反之更多的美国人认为弊大于利斯坦福大学《2023年人工智能指数报告》中的部分内容显示,在2022年的IPSOS调查中,78%的中国受访者(在接受调查的国家中比例最高)同意使用人工智能的产品和服务利大于弊的说法。在中国受访者之后,来自沙特阿拉伯(76%)和印度(71%)的受访者对人工智能产品的看法最为积极。只有35%的抽样美国人(在接受调查的国家中比例最低)同意使用AI的产品和服务利大于弊。当然,报告还写到其它许多方面,可以查看完整报告。

封面图片

斯坦福大学推出DetectGPT 帮助教育工作者反击ChatGPT生成的论文

斯坦福大学推出DetectGPT帮助教育工作者反击ChatGPT生成的论文最近,斯坦福大学的一个研究小组提出了一种名为DetectGPT的新方法,旨在成为打击高等教育中生成文本的首批工具之一。该方法是基于这样的想法:由LLM生成的文本通常在模型的对数概率函数的负曲率区域的特定区域徘徊。通过这种洞察力,该团队开发了一种新的标准用于判断文本是否是机器生成的,这并不依赖于训练人工智能或收集大型数据集来比较文本。这种方法被称为"zero-shot",允许DetectGPT检测机器写的文本,而不需要了解用于生成文本的人工智能。它的操作与其他需要训练"分类器"和真实及生成段落数据集的方法形成鲜明对比。该团队在AI自动生成新闻文章的数据集上测试了DetectGPT(大概是去年CNET的一些文章),它在检测机器生成的文本方面的表现优于其他方法。具体来说,他们发现DetectGPT提高了对20B参数GPT-NeoX生成的新闻文章的检测准确性,从基线GPT-NeoX的0.81AUROC提高到DetectGPT的0.95AUROC,检测性能有了实质性的提高,并表明DetectGPT可能是一种有前途的方法,可以仔细检查识别机器生成的文本。DetectGPT是一种检测机器生成的文本的新方法,它利用了LLM生成的文本的独特特征。它是一种不需要任何额外数据或训练的零散方法,使其成为识别机器生成的文本的高效和有效工具。随着LLM的使用继续增长,检测机器生成的文本的相应系统的重要性将变得越来越关键,可以在许多领域产生重大影响,它的进一步发展可能对许多领域都有利。了解更多:https://ericmitchell.ai/detectgpt/...PC版:https://www.cnbeta.com.tw/articles/soft/1341433.htm手机版:https://m.cnbeta.com.tw/view/1341433.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人