斯坦福大学发布人工智能状况报告

斯坦福大学发布人工智能状况报告虽然现在人工智能发展之快,让任何与人工智能有关的报告一发布就面临过期的风险,但是我们仍然能从这份386页的中得到一些有用的信息:·在过去的十年里,人工智能的发展已经从学术界主导翻转到了工业界主导,而且这没有改变的迹象。·在传统基准上测试模型正变得困难,这里可能需要一种新的模式。·人工智能训练和使用的能源占用正在变得相当大,但我们还没有看到它如何在其他地方增加效率。·与人工智能相关的技能和工作岗位正在增加,但没有你想象的那么快。·政策制定者们正在努力编写一个明确的人工智能法案,如果有的话,这是一个愚蠢的差事。·投资已经暂时停滞,但这是在过去十年的天文数字般的增长之后。·超过70%的中国、沙特和印度受访者认为人工智能的好处多于坏处。美国人呢?35%。来源,,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

斯坦福大学上周发布重要报告,来自以人为本人工智能研究所 HAI的2023年度AI指数报告。

斯坦福大学上周发布重要报告,来自以人为本人工智能研究所HAI的2023年度AI指数报告。共386页长,挑选了其中一些要点。报告地址:https://aiindex.stanford.edu/report/(阅读体验很友善)1⃣新技能的需求增加AI专业技能需求激增,在美国有统计数据的产业领域(除农业、林业、渔业和狩猎业外),与人工智能相关的工作岗位数量平均从2021年的1.7%增加到2022年的1.9%。2⃣投资持续2022年,人工智能领域的私人投资为919亿美元,是2013年的18倍。在私人投资总额方面,美国领先于世界。2022年,在美国投资的474亿美元大约是次高国家中国(134亿美元)投资额的3.5倍。在新投资的人工智能公司总数方面,美国也继续领先,比欧盟和英国加起来多1.9倍,比中国多3.4倍。3⃣机器学习系统分布最常见的机器学习系统类别是大规模语言模型,2022年发布了23个重要的AI语言系统,是第二常见类型(多模态)数量的6倍。2019年发布的GPT-2,被许多人认为是第一个大型语言模型,有15亿个参数,估计训练成本为5万美元。PaLM是2022年推出的旗舰大型语言模型之一,有5400亿个参数,成本估计为800万美元--PaLM比GPT-2大360倍左右,成本高160倍。4⃣技术性能2022年见证了大规模语言模型的性能提升。随着微软和谷歌等公司将聊天机器人集成到其现有服务中,生成模型出大了普通消费者一系列文本到文本,文本到图像,文本到视频和文本到3D模型,促使新初创公司的形成。5⃣滥用增加进一步伴随着人工智能相关法律案件数量的迅速增加,在过去十年中也呈指数级增长。6⃣公众舆论在2022年IPSOS的调查中,78%的中国受访者同意这样的说法:使用人工智能的产品和服务的好处多于坏处。随后来自沙特阿拉伯(76%)和印度(71%)的受访者对人工智能产品感到积极。只有35%的抽样美国人同意使用人工智能的产品和服务的好处多于坏处。7⃣人工智能教育

封面图片

斯坦福大学研究表明世界上最大的人工智能模型并不很透明

斯坦福大学研究表明世界上最大的人工智能模型并不很透明今天,斯坦福HAI发布了其基础模型透明度指数,该指数追踪10个最受欢迎的人工智能模型的创建者是否披露有关其工作以及人们如何使用其系统的信息。在其测试的模型中,Meta的Llama2得分最高,其次是BloomZ,然后是OpenAI的GPT-4。但事实证明,他们都没有得到特别高的分数。其他评估的模型包括Stability的StableDiffusion、Anthropic的Claude、Google的PaLM2、Cohere的Command、AI21Labs的Jurassic2、Inflection的Inflection-1和Amazon的Titan。研究人员承认,透明度可以是一个相当广泛的概念。他们的定义基于100个指标,这些指标提供有关模型如何构建、模型如何工作以及人们如何使用模型的信息。他们解析了有关该模型的公开信息,并给每个人打分,指出这些公司是否披露了合作伙伴和第三方开发商,是否告诉客户他们的模型是否使用了私人信息,以及一系列其他问题。随着该公司发布了对模型创建的研究,Meta得分为53%,在模型基础知识上得分最高。开源模型BloomZ紧随其后,获得了50%的支持,GPT-4获得了47%的支持——尽管OpenAI的设计方法相对锁定,但它与稳定扩散并列。OpenAI拒绝公布其大部分研究成果,也没有透露数据源,但GPT-4却成功排名靠前,因为有大量有关其合作伙伴的可用信息。OpenAI与许多不同的公司合作,将GPT-4集成到他们的产品中,产生了大量可供查看的公开细节。然而,斯坦福大学的研究人员发现,这些模型的创建者都没有透露任何有关社会影响的信息,包括向何处提出隐私、版权或偏见投诉。斯坦福大学基础模型研究中心的学会负责人、该指数的研究人员之一RishiBommasani表示,该指数的目标是为政府和公司提供基准。一些拟议的法规,例如欧盟的人工智能法案,可能很快就会迫使大型基础模型的开发商提供透明度报告。“我们试图通过该指数实现的目标是使模型更加透明,并将非常不明确的概念分解为可以测量的更具体的事物,”博马萨尼说。该小组专注于每个公司的一种模型,以便更容易进行比较。生成式人工智能拥有一个庞大而活跃的开源社区,但该领域的一些最大的公司并没有公开分享研究成果或他们的代码。尽管OpenAI的名称中有“开放”一词,但它以竞争和安全问题为由,不再分发其研究成果。Bommasani表示,该组织对扩大该指数的范围持开放态度,但与此同时,将坚持使用已经评估过的10个基础模型。...PC版:https://www.cnbeta.com.tw/articles/soft/1390877.htm手机版:https://m.cnbeta.com.tw/view/1390877.htm

封面图片

斯坦福大学复制出ChatGPT人工智能 训练成本不到600美元

斯坦福大学复制出ChatGPT人工智能训练成本不到600美元六个月前,只有研究人员和博学者在关注大型语言模型的发展。但去年年底ChatGPT的推出震惊了世界:机器现在能够以一种与人类几乎没有区别的方式进行交流。它们能够在几秒钟内写出文本,甚至是跨越一系列令人眼花缭乱的主题领域的编程代码,而且往往是非常高的质量标准。正如GPT-4的推出所表明的那样,它们正在以流星般的速度进步,它们将像其他技术一样从根本上改变人类社会,因为它们有可能将一系列工作任务自动化--特别是在白领工人中,人们以前可能认为这是不可能的。许多其他公司--特别是Google、苹果、Meta、百度和亚马逊等--也不甘落后,它们的人工智能很快就会涌入市场,附着在各种可能的应用和设备上。如果你是Bing的用户,语言模型已经出现在你的搜索引擎中,而且它们很快就会出现在其他地方。它们将出现在你的车里、你的手机里、你的电视上,当你试图给一家公司打电话时,它们会在电话的另一端等待。过不了多久,你就会在机器人中看到它们。有一点值得安慰的是,OpenAI和其他这些大公司都意识到这些机器在垃圾邮件、错误信息、恶意软件、有针对性的骚扰和其他各种大多数人都认为会使世界变得更糟的使用情况方面的疯狂潜力。他们花了好几个月的时间在产品发布前手动削减这些能力。OpenAI首席执行官萨姆-奥特曼(SamAltman)是许多担心政府行动不够迅速的人之一,没有以公共利益的名义为人工智能设置围栏。但是,你可以花600美元自己建立一个语言模型呢?斯坦福大学的一个研究小组已经做到了这一点,其令人印象深刻的表现突出了整个行业及其令人敬畏的能力可能会迅速失去控制。斯坦福大学的一个研究小组从Meta的开源LLaMA7B语言模型开始--这是现有几个LLaMA模型中最小和最便宜的。在一万亿个"tokens"上进行预训练,这个小语言模型有一定的能力,但它在大多数任务中会明显落后于ChatGPT;GPT模型的主要成本,甚至主要竞争优势,主要来自OpenAI在后期训练中投入的大量时间和人力。读了十亿本书是一回事,但通过大量的问答式对话来教导这些AI的实际工作是另一回事。因此,随着LLaMA7B模型的建立和运行,斯坦福大学的团队基本上要求GPT采用175个由人类编写的指令/输出对,并开始以同样的风格和格式生成更多的指令/输出对,每次20个。这是通过OpenAI提供的一个有用的API自动完成的,在很短的时间内,该团队有大约52000个对话样本,用于后期训练LLaMA模型。生成这些大量训练数据的成本不到500美元。然后,他们用这些数据来微调LLaMA模型--这个过程在8台80GB的A100云处理计算机上花了大约3个小时,这又花费了不到100美元。斯坦福大学团队使用GPT-3.5给LLaMA7B提供了一套关于如何完成其工作的指令接下来,他们对产生的模型进行了测试,他们称之为Alpaca,与ChatGPT的底层语言模型在各种领域(包括电子邮件写作、社交媒体和生产力工具)进行对比。在这些测试中,Alpaca赢得了90项,GPT赢得了89项。"鉴于模型规模小,指令跟随数据量不大,我们对这一结果相当惊讶,"该团队写道。"除了利用这个静态评估集,我们还对Alpaca模型进行了交互式测试,发现Alpaca在不同的输入集上往往表现得与text-davinci-003[GPT-3.5]类似。我们承认,我们的评估在规模和多样性方面可能是有限的"。该团队表示,如果他们寻求优化过程,他们可能会更便宜地完成这项工作。值得注意的是,任何希望复制人工智能的人现在都可以获得能力更强的GPT4.0,以及几个更强大的LLaMA模型作为基础,当然也没有必要停留在52000个问题上。斯坦福大学的团队已经在Github上发布了这项研究中使用的52000个问题,以及生成更多问题的代码,还有他们用来微调LLaMA模型的代码。该团队指出,"我们还没有对模型进行微调,使其安全无害",并要求任何建立这种模型的人报告他们发现的安全和道德问题。那么,有什么可以阻止任何人现在花100美元左右创建他们自己的人工智能,并以他们选择的方式训练它?OpenAI的服务条款确实带来了一些法律问题,它说:"你不能......使用服务的输出来开发与OpenAI竞争的模型"。而Meta说它在现阶段只允许学术研究人员在非商业许可下使用LLaMA,尽管这是一个有争议的问题,因为整个LLaMA模型在公布一周后就在4chan上泄露了。哦,还有一个小组说它已经设法消除了云计算成本,在Github上发布了更多的代码,可以在树莓派上运行,并在单个高端nVidiaRTX4090显卡上在5小时内完成训练过程。这一切意味着什么?现在可以建立无限数量的不受控制的语言模型--由具有机器学习知识、不在乎条款和条件或软件盗版的人建立--只需花钱,而且并不是高不可攀。这也给致力于开发自己的语言模型的商业人工智能公司泼了一盆冷水;如果所涉及的大部分时间和费用都发生在训练后阶段,而这项工作或多或少可以在回答50或100000个问题的时间内被窃取,那么公司继续砸钱是否有意义?而对于我们其他人来说,嗯,很难说,但这个软件的强大功能肯定可以为专制政权、网络钓鱼行动、垃圾邮件发送者或任何其他可疑的人所用。精灵已经从瓶子里出来了,而且似乎已经非常容易复制和重新训练了。...PC版:https://www.cnbeta.com.tw/articles/soft/1350283.htm手机版:https://m.cnbeta.com.tw/view/1350283.htm

封面图片

哈佛大学发布人工智能在课堂使用指南

哈佛大学发布人工智能在课堂使用指南具体而言,指南给出了三种不同的建议政策供教授选择:完全限制使用、完全鼓励使用以及混合方法。指南强调教授有权决定自己的课程政策,但应该向学生清楚传达选定的政策。图源备注:图片由AI生成,图片授权服务商Midjourney哈佛艺术与科学学院的院长表示,这份指南的一个基本原则是教师对自己的课程有所有权,因此没有一种适用于所有课程的政策。学院还在今年7月发布了全校范围内的人工智能指南,重点是保护非公开数据。指南建议教师不要将学生的作业输入人工智能系统,以保护学生的隐私。学校还正在与第三方人工智能公司合作开发一款名为“AISandbox”的工具,该工具将为学校提供一个安全的环境来测试生成式人工智能。尽管如此,学院并不鼓励使用人工智能检测工具,因为这些工具不够可靠。在过去的一学期中,有57%的教师表示他们没有明确的关于使用人工智能的政策。尽管学院强调了明确的人工智能政策的重要性,但是学校各个学部的很多课程在本学期仍然没有相关政策。在政府系、英语系和分子与细胞生物学系的课程中,大部分课程的教学大纲都没有提及人工智能的使用政策。其中一些课程明确禁止使用工具如ChatGPT,而另一些课程则允许适当地使用。许多课程明确禁止使用人工智能来回答作业问题、解释概念或编写代码,而只允许在特定的课程作业中使用。...PC版:https://www.cnbeta.com.tw/articles/soft/1381095.htm手机版:https://m.cnbeta.com.tw/view/1381095.htm

封面图片

人工智能不能说的小秘密:斯坦福大学研究人员揭露文本检测器的缺陷

人工智能不能说的小秘密:斯坦福大学研究人员揭露文本检测器的缺陷资深作者、斯坦福大学的詹姆斯-邹(JamesZou)说:"我们目前的建议是,我们应该非常小心,也许应该尽量避免使用这些检测器。如果用这些检测器来审查求职申请、大学入学论文或高中作业等,可能会产生重大影响。"像OpenAI的ChatGPT聊天机器人这样的人工智能工具可以撰写论文、解决科学和数学问题,并生成计算机代码。美国各地的教育工作者越来越关注在学生作业中使用人工智能的问题,他们中的许多人已经开始使用GPT检测器来筛选学生的作业。这些检测器是声称能够识别文本是否由人工智能生成的平台,但其可靠性和有效性仍有待检验。邹和他的团队对七种流行的GPT检测器进行了测试。他们用这些检测器检测了91篇由非英语母语人士撰写的英语论文,这些文章是为了参加一个被广泛认可的英语水平测试--托福考试(TestofEnglishasaForeignLanguage)。这些平台错误地将一半以上的文章标记为人工智能生成,其中一个检测器将近98%的文章标记为人工智能所写。相比之下,这些检测器能将超过90%的美国八年级学生撰写的作文正确归类为人工生成。邹解释说,这些检测器的算法是通过评估文本的复杂性(perplexity)来工作的,而文本的复杂性是指文章中选词的出人意料程度。"如果你使用的是常见的英文单词,那么检测器就会给出较低的易混度分数,这意味着我的文章很可能会被标记为人工智能生成。如果你使用的是复杂的高级词汇,那么它就更有可能被算法归类为人类撰写的文章。这是因为像ChatGPT这样的大型语言模型经过训练,可以生成低复杂度的文本,从而更好地模拟普通人的说话方式。"因此,非英语母语写作者所采用的简单选词会使他们更容易被标记为使用了人工智能。然后,研究小组将人类撰写的托福作文放入ChatGPT,并提示它使用更复杂的语言编辑文本,包括用复杂词汇替换简单词汇。GPT检测器将这些人工智能编辑的文章标记为人类撰写的文章。邹说:"在课堂环境中使用这些检测器时,我们应该非常谨慎,因为仍然存在很多偏差,而且它们很容易被愚弄,只需进行最低限度的提示设计即可。使用GPT检测器的影响还可能超出教育领域。例如,Google等搜索引擎会贬低人工智能生成的内容,这可能会无意中压制非英语母语写作者的声音。"虽然人工智能工具可以对学生的学习产生积极影响,但在投入使用之前,GPT检测器还需要进一步加强和评估,用更多样化的写作类型来训练这些算法可能是改进这些检测器的一种方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1381495.htm手机版:https://m.cnbeta.com.tw/view/1381495.htm

封面图片

美国斯坦福大学的一个AI(人工智能)团队就抄袭中国大模型致歉。近日,由三位美国斯坦福学生组成的一个AI团队发布了开源模型Ll

美国斯坦福大学的一个AI(人工智能)团队就抄袭中国大模型致歉。近日,由三位美国斯坦福大学学生组成的一个AI团队发布了开源模型Llama3-V。但是,该模型很快被曝出与中国大模型公司面壁智能的开源成果MiniCPM-Llama3-V2.5拥有几乎完全相同的模型架构与代码,引发“抄袭”质疑。当地时间6月3日,Llama3-V团队的两位作者森德哈斯・沙玛(SiddharthSharma)和阿克沙・加格(AkshGarg)在社交平台X上发布文章,向MiniCPM团队正式道歉,表示会将Llama3-V模型从网络上撤下。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人