马斯克与奥尔特曼的AI之争 什么才是“负责任的AI”?

马斯克与奥尔特曼的AI之争 什么才是“负责任的AI”? 此后,奥尔特曼以及OpenAI在官网发文,承诺OpenAI的使命是“确保人工智能造福全人类”。不过,批评者认为,AI发展速度之快恐会产生意想不到的后果,且对奥尔特曼表现出的责任感仍不以为然。自从生成式人工智能(genAI)在过去一年中迅速普及以来,这些批评者就一直在警告,不受约束、不受监管的人工智能发展所带来的后果严重。奥尔特曼对AI的责任究竟怎么看?批评者又如何认为?“让AI无处不在”以及“负责任的AI”2月下旬在美国加利福尼亚州圣何塞的一次会议上,奥尔特曼亮相并发表公开讲话,现场硅谷大佬云集,轮番登场,但一天议程中唯有此场受到特别瞩目,不少人只能站在走道听他讲话,现场有硅谷工作人员对记者感叹,以前这种围观是针对马斯克的,现在则是奥尔特曼“最红”。这也是近期奥尔特曼最完整一次公开阐述他对AI看法的讲话。据第一财经记者统计,其话题涉及AI算力需求、AI开放标准、AI责任以及前景等,可谓面面俱到。他首先谈到,随着AI模型变得规模越来越大,功能越来越强,应用范围越来越广泛,希望能够确保它们变得数量更多,更加易于访问,使用成本更低,而不是变得越来越贵,只有少数人负担得起。“每次OpenAI推出新版本的模型时,其应用数量都在不断增加。对我来说,最令人兴奋的是AI应用的广泛性和普遍性,我们现在看到其随处可见。我个人最关心的是人们如何提高程序员的工作效率,但它在教育和医疗等领域的工作也很有前途。”奥尔特曼谈到,让AI无处不在,需要先降低AI算力的成本,为此,需要足够的半导体产能,需要建设数据中心,容纳AI芯片,最后还需要能源,满足其能耗需求。如果不能把这几项同时结合起来,就会出现效率低下,系统过于庞大等情况。他表示,目前,AI显然面临着严重的算力短缺。针对媒体所报道的他曾提出所谓“7万亿美元AI芯片计划”,奥尔特曼没有正面回答这个问题,以“核心是世界需要更多的AI算力,既包括提供算力的AI芯片,也包括数据中心等算力基础设施”作为回应。“世界也将需要海量的AI算力,因为未来新模型的功能将会更强大,它们将能为人们做一些超级有用的事情,人们会更愿意使用它们。在一个模型上投入的资源越多,它的性能就越好。”他称,总之,不管如何波动,在接下来的几十年内,我们将需要比现在更多的晶圆。而在“负责任的AI”议题上,他认为技术是好的,是改善社会的一种“魔法”。这并不意味着技术(的使用)没有真正糟糕的部分,我们必须负责任地使用技术。“在未来,AI生成的内容将比人类创造的内容更多,我们需要应对AI带来的影响。这(AI)或许不是一个完美无缺的好故事,但好的方面一定比坏的方面更多。”奥尔特曼说,人们适应新技术的速度非常快,对新技术能带给他们什么的期望也会快速增加。“我认为人们将会继续习惯于使用AI技术,在接下来的五到十年内,人们将能够利用AI工具取得令人瞩目的进展,不仅能够更快地完成更多工作,还能做到以前无法做到的事情,以前只靠人脑、人力无法实现的,新的AI工具将帮助我们做到。”他称。而在谈及AI开放标准时,奥尔特曼表示:“提供互操作性和统一标准,让人们能够使用不同的AI系统,这是一件好事。目前正在开发的AI系统都使用自然语言工作,这为AI的开放标准带来了巨大的先发优势,虽然我们还有许多不同的协调工作要做。”“在使用不同的AI模型时,我们都是给出提示词,得到对应的回答。自然语言让人们能够更容易地从一种AI模型转换到另一种AI模型,并对两者进行比较。”他称。批评者对OpenAI表态不以为然不过,OpenAI和奥尔特曼的表态没有让批评者满意。马斯克就一直在表达对AI可能带来的潜在风险的担忧。IDC全球人工智能与自动化研究集团副总裁杰优替(Ritu Jyoti)则表示,奥尔特曼公开表示支持AI负责任的发展,不过是在做表面文章。“虽然业界一致认为,负责任地开发和部署AI是一项集体责任,但(OpenAI的公开声明)并没有提出所需的具体行动。”她表示,“因此,在我看来,没有太大的增值作用。”此前,奥尔特曼还签署了一封承认AI具有改变世界风险的公开信,但批评者仍然认为,企业应对这些风险的自律性质的努力是不够的。其原因在于,当AI工具开始发展超出其设计规范的行为时,就会出现对齐问题。人们担心的是,最先进的AI实例可能会自我迭代,以人类不希望的方式发展,这是一个严重风险。“问题是,如果一个系统比我们更聪明,我们是否有能力控制它?”致力于降低AI风险的PauseAI组织创始人、荷兰开发者美德特斯马(Joep Meindertsma)这样问道。他举例称,像AutoGPT这样的系统,基本上可以自问自答,创建自己的查询来完成复杂的研究任务,这种技术可能会被证明具有高度的破坏性而且是危险的。AutoGPT是一款自动文本生成系统,能够生成连续且连贯的文本,主要用于文章或故事的自动生成。它是由OpenAI公司开发的GPT-3模型改进而来,专门用于长文本生成的任务。“在某些时候,有人会向这台计算机提出一些问题,而这些问题所涉及的想法会传播到其他机器上,这是很有用的。”美德特斯马解释道。至于马斯克针对奥尔特曼和OpenAI的诉讼,美德特斯马说,马斯克可能有点道理。他认为,当初成立 OpenAI的初衷就是为了引导AI朝着负责任方向发展。然而在奥尔特曼和OpenAI的领导下,AI高速发展的现状很快就超越了行业组织创建的任何防护栏。他举例说,AI已经展示出来的能力比如GPT4自主入侵网站的能力是极其危险的,缺乏监管加上genAI的快速进化是一种威胁。2023年10月,美国政府推出有关genAI的首套监管规定。 ... PC版: 手机版:

相关推荐

封面图片

马斯克起诉 OpenAI 及其 CEO 山姆·奥尔特曼

马斯克起诉 OpenAI 及其 CEO 山姆·奥尔特曼 当地时间2月29日晚间,埃隆·马斯克向旧金山高等法院提起诉讼,以违反合同、违反信托义务和不公平商业行为等为由起诉 OpenAI 及其 CEO 山姆·奥尔特曼。埃隆·马斯克在诉讼中表示,奥尔特曼和 OpenAI 违背了这家人工智能研究公司成立时达成的一项协议,即开发技术的目的是造福人类而不是利润。埃隆·马斯克声称 OpenAI 最近与科技巨头微软公司的关系损害了该公司致力于公共开源通用人工智能的初衷。埃隆·马斯克说:“OpenAI, Inc. 已经转变为世界上最大的科技公司微软事实上的闭源子公司。在新董事会的领导下,它不仅是在开发而且实际上是在完善 AGI,以实现微软的利润最大化,而不是造福人类。”

封面图片

OPENAI 探索如何负责任地制作 AI 色情作品

OPENAI 探索如何负责任地制作 AI 色情作品 人工智能公司 OPENAI 周三透露,正在探索如何“负责任地”允许用户制作人工智能生成的色情内容和其他露骨内容。在该公司产品规则反馈文件中:“我们正在探索是否可以通过 API 和 ChatGPT 负责任地提供在适合年龄的环境中生成 NSFW 内容的功能。”帮助撰写该文件的 OPENAI 产品负责人 Joanne Jang 在接受采访时表示,该公司希望就其人工智能产品中是否应该始终禁止色情文字和裸照展开讨论。Jang 说:“我们希望确保人们在不违反法律或其他人权利的情况下拥有最大程度的控制权,但前提是不得使用深度伪造。”“这并不意味着我们现在正在尝试开发相关内容。” 、

封面图片

奥尔特曼公开回应AI语音争议 但回避关于OpenAI治理的问题

奥尔特曼公开回应AI语音争议 但回避关于OpenAI治理的问题 OpenAI CEO萨姆·奥尔特曼(Sam Altman)在日内瓦当地时间周四的国际电信联盟(ITU)AI for Good全球峰会上,回应了相关敏感话题。“那不是约翰逊的声音,不应该是这样的。对于声音的相似程度,人们会有不同的看法,但我们不认为那是她的声音。”奥尔特曼在与大西洋月刊CEO尼古拉斯·汤普森的现场对话中表示。根据斯嘉丽·约翰逊此前的说法,奥尔特曼在去年9月找到她,希望她为ChatGPT配音,她拒绝了,但近期她发现OpenAI Sky系统声音跟她很像。受质疑后,OpenAI同意删除相关语音。奥尔特曼对于公司治理的相关话题则有所回避。本月,OpenAI与安全相关的“超级智能对齐”团队两名负责人相继出走,其中一名负责人詹·莱克(Jan Leike)在社交媒体上表示,他与OpenAI高层在核心优先事项上存在分歧,到了不可弥合的临界点,在过去的几年间,公司安全文化和流程已被“闪亮的产品”取代。尼古拉斯·汤普森现场询问了关于OpenAI治理情况和成立新安全委员会的想法,奥尔特曼回应称“我们继续讨论如何实施治理,我现在可能不应该说太多”。但奥尔特曼也表示,成立新的安全委员会是为了帮助OpenAI为下一个模型做好准备。近日还有OpenAI前董事会成员质疑奥尔特曼不够诚实。在一档播客节目中,去年投票支持解雇奥尔特曼的OpenAI前董事会成员海伦·托纳(Helen Toner)表示,奥尔特曼多年来一直在隐瞒信息,ChatGPT于2022年11月推出时董事会未得到提前通知,而是在社交媒体上知晓此事。她还表示,奥尔特曼多次提供了关于公司少数安全流程的不准确信息,董事会基本不可能知道这些安全流程效果如何。关于上述说法,奥尔特曼现场表示,他不同意海伦·托纳对事件的回忆,并表示海伦·托纳关心AGI(通用人工智能)的结果,他很欣赏她,祝她一切顺利,而自己不想在此逐句反驳。OpenAI近日宣布公司开始训练下一个前沿模型,并预计该模型有望将人工智能技术能力提升到一个新层级。奥尔特曼现场还分享了关于AI运行机制的想法,他认为AI系统运行与人类大脑有相似性。“我们没有解决可解释性(解释AI系统如何作出决策)的问题。”奥尔特曼表示,但即使没有完全的认知,这些AI系统通常也被认为是安全和强健的,“我们不知道你的大脑在一个个神经元之间发生了什么,但我们知道你可以遵守一些规则,而且可以解释为什么会想一些事情。” ... PC版: 手机版:

封面图片

“控制狂魔”与“弄权高手”之争 马斯克退出OpenAI内幕曝光

“控制狂魔”与“弄权高手”之争 马斯克退出OpenAI内幕曝光 今年6月初,著名博客节目Bloomberg Podcasts上线《智启:OpenAI的崛起》(Foundering: The OpenAI Story)系列音频节目,节目深入地剖析了马斯克退出OpenAI背后的种种原因,生动展现了马斯克和阿尔特曼两人的人物个性。“控制狂魔”VS“弄权高手”据播客节目Bloomberg Podcasts,2017年,马斯克显露出了他对公司的控制欲,曾试图将OpenAI纳入特斯拉旗下并担任其首席执行官,持有多数股权。如果无法如愿,他便准备退出。随着时间推移,马斯克越发强烈地希望加强对OpenAI的控制,以确保公司能按照他的设想发展,这无疑引发了内部的紧张气氛。面对是否接受马斯克条件的抉择,OpenAI内部出现分歧。如果继续与马斯克合作,意味着要忍受他的管理风格和苛刻要求;如果选择分道扬镳,OpenAI则需寻找新的资金来源。在这场资金筹集的挑战中,萨姆·阿尔特曼显得尤为关键。正如阿尔特曼的导师、Y Combinator创始人保罗·格雷厄姆(Paul Graham)所言,阿尔特曼极其擅长运用权力,这几乎成了他独特的标签。熟悉阿尔特曼的人透露,阿尔特曼有一种超凡的能力,能够洞察权力的分布,并用其魅力去征服那些掌握权力的人。最终,阿尔特曼在这场权力斗争中胜出,被选为OpenAI的首席执行官,可以说这是一场重大的胜利。此前,公司并未设立此职位,这场权力斗争无疑巩固了阿尔特曼在公司中的新主导地位。2018年,马斯克带着他的资金,愤然离开OpenAI。但马斯克作为一个更著名、更有经验的人物,显然不喜欢接受失败。在大多数对抗中,他都会不惜一切代价争取胜利,不管后果如何,他都不会轻易认输。马斯克常常以法律诉讼为手段,迫使对手屈服;亦或是利用自己的影响力,不遗余力地争取自己的目标。“被骗钱骗人骗技术”!马斯克起诉OpenAI作为OpenAI的联合创始人之一,马斯克在公司成立初期就投入了大量资金和精力,希望通过这个平台推动人工智能技术的发展。然而,随着时间的推移,OpenAI的发展方向和管理方式逐渐偏离了马斯克最初的愿景。在2019年,微软宣布向OpenAI投资10亿美元,这标志着OpenAI与大型科技公司的合作开始,也预示着其商业模式可能从纯粹的非营利转向商业化。这一转变引发了马斯克的担忧,他认为这种商业化的趋势可能会导致OpenAI偏离其初衷确保人工智能的安全使用,而不是仅仅追求利润最大化。到了2023年,这种担忧进一步加剧。马斯克在社交媒体上公开批评OpenAI违背了创立时的“初心”,特别是关于ChatGPT项目不开源的问题。此外,OpenAI内部的权力斗争也日益激烈,甚至出现了董事会突然解雇CEO的情况,这种情况在科技行业中并不常见,显示出公司内部管理的混乱。多年来,马斯克对OpenAI转向商业盈利和闭源模式怨气颇深,经常在社交平台上表达不满,对OpenAI与微软的合作冷嘲热讽。今年2月底,马斯克在美国加州旧金山提起了诉讼,起诉了OpenAI及其CEO萨姆·阿尔特曼等人,指控他们违反了他在2015年帮助创建这家人工智能研究公司时订立的合同协议。据这份长达46页、1.4万字诉讼文件,阿尔特曼和另一位OpenAI联合创始人格雷格·布罗克曼(Gregory Brockman)在最初接洽马斯克时表示,他们希望成立一家开源的非营利公司,开发AI技术,目的是造福人类,但该公司如今违背了初衷,专注于为微软创造利润。马斯克诉讼称,“直到今天,OpenAI公司的网站仍然宣称,它的宗旨是确保人工智能造福全人类。然而,在现实中,OpenAI公司已经转变为世界上最大的科技公司微软事实上的闭源子公司,并对其最先进的人工智能模型GPT-4的设计完全保密。”“想象一下,如果你给一个声称要保护亚马逊雨林的非营利组织捐款,结果这个非营利组织创办了一个亚马逊伐木的营利公司,用捐款来砍伐雨林。这就是OpenAI的故事。”马斯克这次起诉的诉求有三点赔钱、开源、恢复非盈利性质。马斯克称,自己曾被OpenAI骗钱骗人骗技术,要求OpenAI还钱并赔偿自己的损失费;第二,要求OpenAI恢复开源;第三,阻止OpenAI、微软从AGI技术中获利,试图切断OpenAI和微软的“财路”。马斯克还在X上表示,“如果OpenAI将名字更换到Closed AI,我就撤诉。”总而言之,马斯克和OpenAI的一系列恩怨情仇,用网友一个表情包式的总结来看就是:OpenAI正面开撕马斯克就在马斯克提起诉讼的五天后,OpenAI在官方博客中正式作出回应:“我们计划驳回埃隆的所有诉讼请求。”OpenAI强调,其使命是确保通用人工智能(AGI)造福全人类,这需要构建安全有益的AGI,并帮助创造广泛分布的利益。OpenAI透露,开发AGI所需的资源远超预期。2015年底,格雷格和萨姆创办OpenAI时,他们最初计划筹集1亿美元。但马斯克在一封电子邮件中说:“我们需要给出一个比1亿美元大得多的数字,以免听起来毫无希望。我们将以10亿美元的资金承诺起步,我会承担其他人未提供的部分。”然而,马斯克并未兑现他的承诺。OpenAI最终从马斯克处筹集的资金不到4500万美元,而其他捐赠者提供了超过9000万美元。2017年末,OpenAI和马斯克都意识到,他们需要建立一个营利实体以获得更多资源。马斯克表示,希望获得多数股权、初始董事会的控制权并担任首席执行官。然而,OpenAI无法无法就营利性公司的条款与马斯克达成一致。2018年2月初,马斯克给OpenAI转发了一封邮件,建议OpenAI“依附于特斯拉,作为自己的摇钱树”,并评论说:“特斯拉是唯一一条甚至有望与Google相提并论的道路。即便如此,与Google抗衡的可能性也很小。但并不是零。”马斯克很快就选择离开OpenAI,并称OpenAI成功的可能性为零,他计划在特斯拉内部打造一个AGI竞争对手。2018年2月底马斯克离开时,他告诉OpenAI团队,他支持OpenAI寻找数十亿美元的融资。2018年12月,马斯克给OpenAI发了一封电子邮件,说“即使筹集几亿美元也不够。这需要每年立即筹集数十亿美元,否则想都别想了。”OpenAI还表示,马斯克自己非常清楚,即便在他还在OpenAI的时候,他们的使命也不包括将AGI开源。OpenAI前首席科学家伊尔亚·苏茨克维(llya Sutskever)曾经在邮件中对马斯克说:“随着我们越来越接近构建AI,变得更加保守一些是有必要的。OpenAI中的‘Open’是指人们在AI构建完成后应当能从中受益,但并不意味着我们必须分享所有科学成果。”马斯克当时对此也表示赞同。法院文件显示,2024年6月11日,马斯克于当地时间主动撤销了对OpenAI及其首席执行官萨姆·阿尔特曼等人的诉讼,马斯克的律师在文件中并未解释撤回诉讼的原因。此前许多法律专家表示,相关指控胜诉的可能性较低。 ... PC版: 手机版:

封面图片

OpenAI 回应马斯克起诉 称对事情发展到这个地步感到难过

OpenAI 回应马斯克起诉 称对事情发展到这个地步感到难过 3月6日消息,OpenAI 在其网站上发布博文回击埃隆·马斯克,就这位联合创始人和前赞助人提起的诉讼作出回应。OpenAI 在博文中称,马斯克在试图将该公司纳入特斯拉但未能成功后,对公司大加挞伐。“和一位我们一直深感钦佩的人走到这一步,我们感到难过。”OpenAI 在帖子中写道,“他曾激励我们志存高远,然后告诉我们会失败,进而创立一个竞争者,终至于把我们告上公堂,而此时我们在没有他在场的情况向正开始向着 OpenAI 的使命踔厉奋发。”马斯克上周在旧金山对 OpenAI 及其首席执行官山姆·奥尔特曼和总裁格雷格·布罗克曼提起诉讼,指控他们偏离了构建负责任人工智能AI的使命。 、

封面图片

胡锡进:说Sora不代表什么的人太不负责任了

胡锡进:说Sora不代表什么的人太不负责任了 以下为胡锡进点评全文:美国OpenAI公司发布文生视频模型Sora,震动了全球AI行业,也引起国内很多人对我们的AI研究拉大了与美国距离的担忧。然而,国内也有一些有影响的博主斥责上述担忧是“一惊一乍”,主张AI有很多领域,美国AI大模型的领先只是其中一角,不足为虑,甚至指责谈论OpenAI从ChatGPT到Sora的创新可能产生长期影响的人或者“没见过世面”,或者“别有用心”。老胡一直主张舆论场应该多元,作为多元的一部分,我要说,这种睁着眼睛硬说Sora“不代表什么”的人太不负责任了,他们这样做是在给广大网民们灌迷魂汤。这与清朝官员指责洋货是“奇技淫巧”有什么不同?大语言模型真的不重要吗?不重要还有那么多中国公司紧随其后模仿!那些公司都是中国最优秀的高科技公司,他们会比网上说那只是AI一小块的博主们更傻吗?Sora展示了文生视频模型令人惊叹的视频模仿制作能力,而更令人震撼的是AI生成模型的进步速度。从ChatGPT的出现到现在只过去了不到一年3个月,它几乎是在跳跃式迭代。未来会发生什么,如何颠覆式影响很多产业的面貌,难道不值得我们全面重视起来,想尽办法参与并抓住这个潮流,坚决不被它甩下吗?是的,AI有许多应用领域和场景,这不需要某些人对我们做常识性教育吧?但是,生成模型最为贴近普通人的知识体系和大众生活,最容易与大众经济对接,吸引各行各业的人使用它们改善自己的工作方式,大力提升效率,它们的应用场景最为广泛,最容易带动各行各业的技术进步和整体产业革命,也会威胁大量一般性的技术岗位,这个判断难道会错吗?据老胡所知,国内大量文字工作者已经在使用大语言模型,而且ChatGPT被普遍反映效果是最好的。对这样的事实一些人为何要视而不见,或者刻意否认呢?中国的AI生成模型显然落在了美国的后边,大语言模型还没有哪个能追上ChatGPT4的,现在Sora又出来了,相信中国公司面临新的压力。让我们正视这个差距,好吗?实事求是有时挺难的,因为它要面对我们的自尊,面对我们对一些现实既成利益的维护。然而,正视出现了差距并不意味着失去信心,这种正视在更多时候能够带来奋起直追的决心和勇气,还有如何做到它的百折不回。最可怕的是我们不敢面对问题,在一切都OK甚至很好的自我安慰和陶醉中,变得麻木。老胡还认为,危机感哪怕过一点头,比自满同样过一点头,最后造成的实际害处往往要小。中国这样的大国、大社会不会因为危机感而自暴自弃的。新中国历史上从未有过那样的记录,但是自满和拒绝对外学习的教训我们却真的有过。最后老胡要说,大家都是想为国家好,围绕AI各抒己见,虽然相互使用的语言都有些激烈,但这就是舆论场,希望我们的社会最终能够容纳这样的争鸣。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人