中国和西方科学家呼吁对先进人工智加强监管,警告AI未来会对“人类的生存构成威胁

中国和西方科学家呼吁对先进人工智加强监管,警告AI未来会对“人类的生存构成威胁”中国的人工智能科学家与西方学者一起呼吁对这项技术进行比英国、美国和欧盟提议的更严格的控制,各国在本周的全球人工智能安全峰会之前摆出了相互竞争的立场。周三在英国布莱切利公园举行的峰会的几位中国学术与会者签署了一份声明,警告先进的人工智能将在未来几十年对“人类的生存构成威胁”。该组织包括中国最著名的计算机科学家之一姚期智,呼吁建立一个国际监管机构,对先进人工智能系统进行强制注册和审核,纳入即时“关闭”程序,并要求开发者花费他们的研究预算的百分之三十用于人工智能安全。这些提案比美国总统乔·拜登本周发布的人工智能行政命令(其中包括算法歧视和劳动力市场影响)以及欧盟拟议的人工智能法案(重点保护隐私等权利)更关注存在风险。该声明还比英国首相里希·苏纳克(RishiSunak)为具有里程碑意义的峰会起草的人工智能安全公报草案走得更远,该公报没有呼吁各国政府实施具体监管。这些措施是在北京和华盛顿之间围绕关键技术的世界领导地位紧张局势加剧之际,中国可能对全球人工智能监管采取的立场的早期迹象。——

相关推荐

封面图片

对人类生存构成威胁?美国专家呼吁针对人工智能爆炸式发展展开全球监管

对人类生存构成威胁?美国专家呼吁针对人工智能爆炸式发展展开全球监管例如,这些技术可能导致一些工作岗位流失,经济发展模式被颠覆,甚至能力超过人类。生成式人工智能可以根据无限制的提示生成文本、照片和视频。在周二的会议上,ProtectAI的首席执行官、联合创始人伊恩·斯旺森(IanSwanson)表示:“我们正驾驶着这辆人工智能的汽车在高速公路上飞驰,那么我们需要做什么呢?我们需要进行安全检查,需要适当的基本维护,需要监管。”该公司帮助企业保护人工智能和机器学习系统的安全。“负责任人工智能研究所”所长赛斯·多布林(SethDobrin)则表示,监管机构只需看看社交媒体平台,就可以明白一个新行业不受限制的发展会导致什么样的负面后果。他说:“如果我们扩大数字鸿沟,将导致社会的分裂。监管机构需要考虑这点。”目前,已有多个国家正在准备通过监管手段去解决围绕人工智能的问题。例如,欧盟提议中的人工智能法案将把人工智能应用划分为不同的风险级别,禁止被定性为“不可接受”的应用,并对“高风险”应用进行严格评估。美国的立法者上个月提出了两项独立的人工智能法案,其中一项要求美国政府在使用人工智能与人互动时保持透明,另一项法案提出设立一个办公室,调研美国在最新技术方面是否仍具备竞争力。“未来生命研究所”创始人、执行主任安东尼·阿吉雷(AnthonyAguirre)在会议上说,立法者和科技行业领袖必须警惕的一个新威胁是,人工智能可能会使核武器变得更强大。越来越强的人工智能也将带来社会失业的风险,因为人类将无法通过简单地学习新技能就进入其他行业。阿吉雷说:“我们最终会陷入一个所掌握技能无关紧要的世界。”未来生命研究所是一家非营利性组织,目标是降低先进人工智能带来的灾难性风险。今年3月,该研究所发布公开信,呼吁暂停训练比OpenAI的GPT-4更强的人工智能系统,吸引了媒体的密切关注。该机构警告称,人工智能实验室已经“陷入了一场失控的竞赛”,正试图开发“没有人,甚至是它们的创造者,能够理解、预测或可靠控制的强大数字思维”。阿吉雷说:“这似乎是世界上最显而易见的事情,不能让人工智能获得核指挥和控制权。但这并不意味着我们人类不会这么做,因为我们以往也做过很多不明智的事情。”...PC版:https://www.cnbeta.com.tw/articles/soft/1370539.htm手机版:https://m.cnbeta.com.tw/view/1370539.htm

封面图片

科学家融合人工智能和物理模拟来设计创新材料

科学家融合人工智能和物理模拟来设计创新材料马克斯-普朗克的科学家探讨了人工智能在材料科学中的可能性,并在《自然-计算科学》杂志上发表了他们的评论。先进材料变得越来越复杂,因为它们必须满足有关可持续性和适用性的高要求。DierkRaabe及其同事回顾了人工智能在材料科学中的应用,以及如果与基于物理的模拟相结合,它所开启的未开发的空间。PC版:https://www.cnbeta.com.tw/articles/soft/1352699.htm手机版:https://m.cnbeta.com.tw/view/1352699.htm

封面图片

1000多名硅谷企业家科学家联名呼吁立刻停下所有大型AI研究

1000多名硅谷企业家科学家联名呼吁立刻停下所有大型AI研究当全社会都在为AI的进化而欢呼雀跃,全新的、意想不到的风险可能也正在悄悄酝酿。3月22日,生命未来研究所(FutureofLife)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。该机构以“引导变革性技术造福生活,远离极端的大规模风险”为使命。PC版:https://www.cnbeta.com.tw/articles/soft/1351721.htm手机版:https://m.cnbeta.com.tw/view/1351721.htm

封面图片

欧盟AI法案即将生效 杨立昆等AI科学家表示反对

欧盟AI法案即将生效杨立昆等AI科学家表示反对AGI何时实现,业内分歧较大杨立昆表示,欧盟人工智能法案和其他各个地方都有规范研究和开发的条款,但他认为这不是一个好主意,理由是他并不认为人工智能会很快超越人类智能。“坦率地说,我不相信AI有任何与人接近的地方。”杨立昆表示,“我认为它目前没有那么危险。”不过他承认,未来人工智能系统可能会变得更加智能,届时需要对它们的设计采取适当的保障措施。百度CEO李彦宏也在VivaTech期间表示,AGI的实现还需要超过十年的时间。他表示:“我们希望人工智能像人类一样聪明,但当今最强大的模型远未达到这一程度。”李彦宏呼吁加快人工智能的发展步伐。“我担心的是人工智能技术进步得不够快。每个人都对过去几年技术发展的速度感到震惊。但对我来说还是不够快。”他表示。以特斯拉CEO马斯克为代表的科技人士强调人工智能的风险,马斯克在XSpace的访谈中预测,到明年或2026年,人工智能的智慧可能会超过世界上最聪明的人类,也就是通用人工智能(AGI)的实现。ChatGPT的开发商OpenAI的CEO奥尔特曼(SamAltman)在今年早些时候预测,AGI可能会在“相当近的未来”开发出来。对于人工智能安全性风险的分歧在OpenAI的“内斗”中已经暴露出来。OpenAI在宣布向公众免费提供迄今为止最强大的人工智能模型GPT-4o后,该公司前首席科学家苏茨克维尔(IlyaSutskever)宣布辞职,“超级对齐”团队解散。这也引发了谁来为AI负责的讨论。现任清华大学国强教授、智能产业研究院首席研究员聂再清对第一财经记者表示:“Ilya对大模型技术的理解非常深刻,他的离职和对齐团队的解散短期内对OpenAI大模型技术的发展和安全可控可能会有一些影响。OpenAI应该还会继续大力投入到安全和对齐相关的工作上,确保大模型长期安全可控,在各种边界情况下都表现良好。”他认为,作为大的科技企业,可以通过团队的协同,在“对齐”这个方向上做更好的长期规划和资源共享及调配。创新与监管如何平衡欧盟一直走在人工智能监管的最前沿。上周,欧盟委员会批准了《人工智能法案》,这项法案是全球首创,将为人工智能监管制定全球标准。该立法遵循“基于风险”的方法,旨在促进私人和公共参与者在欧盟市场上开发和采用安全、值得信赖的人工智能系统。法案规定,提供公共服务的实体部署高风险人工智能系统之前,需要评估其基本权利影响。这也意味着AI对社会造成伤害的风险越高,监管的规则就越严格。该法案也涉及通用人工智能大模型(GPAI)的使用。根据法案,不构成系统性风险的GPAI模型将受到一些有限的要求,例如透明度方面的要求,但那些存在系统性风险的模型将必须遵守更严格的规则。一些企业和行业组织已经明确对欧盟的AI法案提出反对,认为这不利于欧洲打造人工智能高地。欧洲科技行业组织DigitalEurope此前在一份声明中称:“这意味着我们需要投入更多来研究对抗人工智能使用风险的方法,而不是投入技术本身,新的监管规则将要求公司投入大量资源来遵守,把资源花在律师身上,而不是雇佣人工智能工程师。”Meta欧盟事务主管MarcoPancini也表示:“最重要的是,我们不应该忽视人工智能在促进欧洲创新和促进竞争方面的巨大潜力,而开放是关键。”亚马逊首席技术官沃纳·沃格尔斯(WernerVogels)也在VivaTech期间表达了对人工智能监管可能会扼杀某些领域创新的担忧。他表示,在考虑风险时,监管机构应该考虑将新技术应用于医疗保健和金融服务。“我认为AI在很多领域应用的风险很小,我们应该让创新在这些领域发挥作用。在其他领域,AI犯的错误可能对人们的生活产生更大的影响,应该针对这些特定领域进行特别的风险管理。”沃格尔斯表示。他还强调,亚马逊欢迎监管,并与监管机构的总体目标保持一致,但警告欧盟不要过度监管人工智能。对此,欧盟委员会表示,该法案的推出目标是“刺激欧洲人工智能的投资和创新”。“这项具有里程碑意义的法案是世界上第一部AI法案,它解决了全球技术挑战,也为我们的社会和经济创造了机会。通过人工智能法案,欧洲强调在处理新技术时信任、透明度和问责制的重要性,同时确保这种快速变化的技术能够蓬勃发展并促进欧洲创新。”欧盟在一份声明中称。欧盟表示,该立法法案经欧洲议会通过后,将在未来几天内在欧盟官方公报上发布,并在发布后二十天生效,新法案将在生效两年后对企业正式产生影响。不遵守规则的公司将面临3500万欧元或等同于全球收入7%的罚款(二选一)。...PC版:https://www.cnbeta.com.tw/articles/soft/1432513.htm手机版:https://m.cnbeta.com.tw/view/1432513.htm

封面图片

马斯克呼吁 OpenAI 首席科学家跳槽至特斯拉或 xAI

马斯克呼吁OpenAI首席科学家跳槽至特斯拉或xAI马斯克认为,OpenAI联合创始人和首席科学家伊利亚・苏茨克沃(IlyaSutskever)应该跳槽到特斯拉或他旗下的人工智能初创公司xAI。上周五有报道称,苏茨克沃的命运处于不确定状态,他最近在OpenAI变成了“隐形人”。当一位X用户在帖子中分享这篇文章,并写道苏茨克沃应该加入特斯拉时,马斯克回答说:“或者xAI。”2015年,当OpenAI以非营利机构的形式成立时,马斯克亲自说服了曾在谷歌工作的苏茨克沃加入OpenAI。(环球市场播报)

封面图片

贺一诚会见中国科学院院士、上海人工智能研究院首席科学家樊春海

贺一诚会见中国科学院院士、上海人工智能研究院首席科学家樊春海据澳门特区发布消息,澳门特区行政长官贺一诚26日在政府总部会见中国科学院院士、上海交通大学讲席教授、上海人工智能研究院首席科学家樊春海,双方就推动澳门人工智能及大健康产业发展等议题交流意见。贺一诚表示,特区政府正着力采取“1+4”经济适度多元发展策略,并以中医药研发制造为切入点,培育发展大健康产业。在国家的大力支持下,由本澳两所高等院校联合设立的中医药国家重点实验室,进一步加强产学研合作。他乐见上海人工智能研究院与本地高等院校团队合作,共同研究探讨人工智能与大健康产业结合发展的课题,相信透过持续深化交流协作,未来的发展前景广阔。(界面新闻)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人