200 名专家编写报告:AI 发展可能对人类构成“灭绝级威胁”

200名专家编写报告:AI发展可能对人类构成“灭绝级威胁”=============这份报告由200多名来自OpenAI、Meta、谷歌、谷歌DeepMind等人工智能领域大公司的高管,以及政府工作人员参与,建议美国政府限制和监管AI的发展,并要求AI公司训练任意新的AI模型时都需要提交申请。报告中还建议美国政府立法,宣布开源重要AI模型定为非法,认为这些模型中的信息可能会导致“对全球安全具有潜在破坏性的后果”。管理式民主,我的朋友https://www.ithome.com/0/755/628.htm

相关推荐

封面图片

美媒:美国务院委托撰写的报告警告,AI 可能对人类构成灭绝级威胁

美媒:美国务院委托撰写的报告警告,AI可能对人类构成灭绝级威胁据美国有线电视新闻网(CNN)当地时间12日报道,美国国务院委托撰写的一份报告于本周发布,报告中警告,AI可能对人类构成“灭绝级”威胁,美国必须进行干预。据CNN介绍,这份报告由专注于AI领域的公司GladstoneAI撰写,该公司为美国政府高层提供关于AI机遇和风险的咨询和报告。美国国务院一名官员向CNN证实,其所在机构委托撰写了这份报告,但报告不代表美国政府的观点。(环球网)

封面图片

报告建议美国政府禁止开源大模型

报告建议美国政府禁止开源大模型美国政府花费了25万美元委托一家四人公司GladstoneAI撰写了一份研究报告《AnActionPlantoIncreasetheSafetyandSecurityofAdvancedAI》。报告督促美国政府立即采取行动以避免AI带来的重大国家安全风险。报告认为在最糟糕的情况下AI构成了对人类的灭绝级威胁。报告的建议包括:国会应该对超过特定算力训练AI模型为非法,该算力阈值由新设立的AI机构设定。报告举例说,可以参考目前最先进的模型OpenAGPT-4和GoogleGemini使用的算力。报告还建议政府应该禁止在开源许可证下公开大模型的权重,违反者将面临监禁。政府还应该进一步加强对AI芯片制造和出口管制。来源,频道:@kejiqu群组:@kejiquchat

封面图片

行业领袖警告: AI 可能给人类带来“灭绝的风险”

行业领袖警告:AI可能给人类带来“灭绝的风险”周二,来自OpenAI、GoogleDeepmind、Anthropic和其他AI实验室的领导者警告说,他们正在开发的人工智能技术可能有一天会对人类构成生存威胁,并应被视为与流行病和核战争同等的社会风险。“减轻人工智能灭绝的风险应该与其他社会规模的风险(例如流行病和核战争)一起成为全球优先事项,”预计将由非营利组织人工智能安全中心发布的一句话声明中写道。超过350名从事AI工作的高管、研究人员和工程师签署了这封公开信签署人包括来自3家领先AI公司的高管:OpenAI首席执行官SamAltman;谷歌DeepMind首席执行官戴米斯·哈萨比斯(DemisHassabis);以及Anthropic的首席执行官DarioAmodei。杰弗里·辛顿(GeoffreyHinton)和约书亚·本吉奥(YoshuaBengio)是三位因在神经网络方面的开创性工作而获得图灵奖的研究人员中的两位,他们通常被认为是现代人工智能运动的“教父”,他们和该领域的其他著名研究人员一样签署了声明。该声明发表之际,人们越来越担心人工智能的潜在危害。所谓的大型语言模型——ChatGPT和其他聊天机器人使用的人工智能系统类型——的最新进展引发了人们的担忧,即人工智能可能很快被大规模用于传播错误信息和宣传,或者它可能会夺走数百万白领的工作。最终,一些人认为,如果不采取任何措施减缓它的发展,人工智能可能会变得强大到足以在几年内造成社会规模的破坏,尽管研究人员有时不会解释这将如何发生。——

封面图片

ChatGPT之父发出警告:“AI可能灭绝人类” 三巨头AI公司CEO力挺

ChatGPT之父发出警告:“AI可能灭绝人类”三巨头AI公司CEO力挺签署这封公开信的,既包括三大AI巨头的CEO,即ChatGPT老板、OpenAI的SamAltman,DeepMind的DemisHassabis和Anthropic的DarioAmodei;也包括不少国内外高校的教授,除了YoshuaBengio和GeoffreyHinton以外,清华AIR院长张亚勤和斯坦福教授、图灵奖得主MartinHellman等人也名列其中。这段时间来,关于AI风险的各种大小讨论也是接连不断,OpenAICEOSamAltman前段时间还倡议称,人们应当像对待核设施一样监管AI。所以,究竟是谁发起的这封公开信倡议,又是否有AI大牛反对这件事?为何签署这封信?发布这封公开信的机构名叫CenterforAISafety(CAIS),是一家关于AI安全的非营利组织。在这封公开信的开头,CAIS反复强调:包括AI专家、记者、政策制定者和公众在内,越来越多的人开始讨论AI带来的一系列重要和紧迫的风险。即便如此,要想表达对先进AI的严重风险,可能还是有一定难度。这封公开信旨在克服这一障碍,并展开对相关议题的讨论,让更多专家和公众人物认识到这一点。事实上,已经有不少签署了这封信的AI大牛,最近发了关于AI风险的博客文章、或是在访谈中谈到了自己的观点。例如前段时间,YoshuaBengio就写了一封长信,警告称“人类大脑是生物机器,一定会有超级智能AI超越它”。除此之外,包括StabilityAI的创始人EmadMostaque、以及剑桥大学助理教授DavidKrueger等人,也都在最近的访谈中提到了关于AI带来的潜在危害。例如,EmadMostaque认为,10年后包括StabilityAI、OpenAI和DeepMind在内,这些AI公司的规模甚至会超过谷歌和Facebook。也正是因此,AI风险是一个必须要考虑的事情:我们可能正处于全面变革的风口浪尖,这些变革对于任何一家公司或是国家来说都太过庞大,以至于难以管理。没签的AI大牛怎么说?当然,这波闹得沸沸扬扬的“请求AI监管”浪潮下,也有不少反对的声音。目前为止,包括另一位图灵奖得主YannLeCun、前特斯拉AI总监AndrejKarpathy还有吴恩达等AI大牛在内,都还没签署这封联名信。吴恩达发推回应称:当我想到大部分人类生存面临的风险时:流行病、气候变化导致大规模人口减少、(撞击地球的)小行星……AI将是我们寻找解决方案的关键部分。所以,如果你想让人类在接下来的1000年里生存和繁荣,那就让AI发展得更快,而不是更慢。LeCun转发表示同意:“超人级”AI之所以不在风险列表榜首,很大程度上是因为它还不存在。至少我们在设计出达到狗智商(更不用说人类了)的AI之前,讨论它的安全性还为时过早。对此,纽约大学教授GaryMarcus补充道:不要把框架缩小到只关注人类灭绝的风险。AI其实还存在许多其他的严重风险,包括可能帮助开发生物武器等。不过,GaryMarcus同样没有签署这份350人公开信。显然包括不少AI大牛在内,反对者主要有两种意见。一种意见认为,AI技术确实存在风险,但这封公开信涉及到的内容太泛泛。如果有更精确的声明如“减轻AI技术的潜在风险应该是科技行业、政府和该领域学术研究人员的首要任务”,那么这封信还是可以签署的。这封公开信中的内容根本就是夸大其词了,而且AI在气候变化等领域甚至可以起到降低风险的作用。另一类意见则认为,这封信只不过是当前掌握最领先AI技术的人,试图控制AI接下来的走向而已。以OpenAI的CEOSamAltman为例:SamAltman要是真的担心,大可以现在直接关掉ChatGPT服务器。所以,你认为按照现在的进度来看,AI有可能灭绝人类吗?参考链接:[1]https://www.safe.ai/statement-on-ai-risk[2]https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html?smtyp=cur&smid=tw-nytimes[3]https://twitter.com/AndrewYNg/status/1663584330751561735[4]https://www.reddit.com/r/MachineLearning/comments/13vls63/n_hinton_bengio_and_other_ai_experts_sign/...PC版:https://www.cnbeta.com.tw/articles/soft/1362681.htm手机版:https://m.cnbeta.com.tw/view/1362681.htm

封面图片

OpenAI 员工发公开信警告 AI 风险,认为可能导致 “人类灭绝”

OpenAI员工发公开信警告AI风险,认为可能导致“人类灭绝”多家美国人工智能(AI)领域企业的在职和离职员工当地时间4日发表公开信,对这项新兴技术带来的风险表示担忧。据路透社5日报道,公开信的签署者包括美国AI初创企业OpenAI以及谷歌旗下“深层思维”公司的前员工和现员工,共计13人。公开信警告了不受监管的AI带来的风险,例如传播错误信息,AI系统独立性丧失,以及社会阶层不平等的加深。信中认为,这些风险可能导致“人类灭绝”,AI公司在与政府分享关键信息方面只尽到了“微弱的义务”,不能指望这些公司自愿分享信息。路透社称,这封公开信是行业内部对生成式AI技术提出安全担忧的最新案例。公开信敦促AI公司允许让在职和离职员工表达与行业风险相关的担忧。(环球时报)

封面图片

DeepMind用新AI超越自己:提速200倍 所有雅达利游戏上胜过人类

DeepMind用新AI超越自己:提速200倍所有雅达利游戏上胜过人类DeepMind又对雅达利游戏下手了!这次,他们最新推出的智能体MEME,在效果不变的前提下,比两年前的Agent57提速了200倍!Agent57,是DeepMind在2020年搞的一个智能体,史上首次在所有57个雅达利游戏中超过了人类基准表现。PC版:https://www.cnbeta.com/articles/soft/1318807.htm手机版:https://m.cnbeta.com/view/1318807.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人