人工智能有“灭绝(人类)的危险”

人工智能有“灭绝(人类)的危险” 非营利组织“人工智能安全中心Center for AI Safety”预计将发布一份只有一句话的声明:“减轻人工智能带来的灭绝风险应与其他社会规模的风险,如大流行病和核战争一样,成为全球优先事项。”这封公开信由 350 多名从事人工智能工作的高管、研究人员和工程师签署,签署者包括三家领先的人工智能公司 OpenAI、谷歌 DeepMind 和Anthropic 的 CEO,也包括除了 Yann LeCun 之外的人工智能领域另外两位图灵奖得主。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

《人工智能:灭绝危机》 科幻

人工智能:灭绝危机奥利维亚·格兰特 / 约翰·汉纳 / 沃伦·布朗

封面图片

《人工 X 智能 》简介:人工 X 智能可能讲述人类与人工智能之间的故事,或许人工智能产生了自我意识,与人类之间发生了情感纠葛、

《人工 X 智能 》 简介:人工 X 智能可能讲述人类与人工智能之间的故事,或许人工智能产生了自我意识,与人类之间发生了情感纠葛、利益冲突或合作探索。影片探讨人工智能对人类社会的影响以及人与人工智能的未来关系,充满科幻色彩 文件大小 NG 标签:#人工 X 智能#科幻伦理电影#人工智能题材 评论区查看资源

封面图片

欧盟批准全球首部《人工智能法案》

欧盟批准全球首部《人工智能法案》 《人工智能法案》提出了人工智能风险等级的分类,这意味着根据人工智能技术的不同应用将对社会可能造成的威胁,应将对其进行不同的对待,该法律禁止应用风险水平被认为“不可接受”的人工智能

封面图片

欧盟理事会正式批准《人工智能法案》

欧盟理事会正式批准《人工智能法案》 当地时间21日,欧盟理事会正式批准《人工智能法案》。该法案在经欧洲议会和欧洲理事会主席签署后,将于近日在欧盟官方公报上公布,并在公布20天后生效。今年3月13日,欧洲议会以523票赞成、46票反对和49票弃权的表决结果通过了该法案。该法案采用基于风险的方法来规范人工智能的使用,并彻底禁止一些“不可接受的风险”用例,例如认知行为操纵或社会评分。法案还定义了一组“高风险”用途,例如生物识别和面部识别,或用于教育和就业等领域的人工智能。 、

封面图片

美英签署人工智能安全测试里程碑协议

美英签署人工智能安全测试里程碑协议 美国和英国签署了一项具有里程碑意义的人工智能协议,这两个盟国成为首批就如何测试和评估新兴人工智能模型风险进行正式合作的国家。英国科学大臣米歇尔•唐兰和美国商务部长吉娜•雷蒙多周一在华盛顿特区签署了这份协议,列出了两国政府将如何在人工智能安全方面汇集技术知识、信息和人才。该协议是全球首个关于人工智能安全的双边协议。该协议将特别使英国于去年11月成立的新人工智能安全研究所 (AISI) 和尚未开始工作的美国同类机构能够通过借调两国研究人员来交流专业知识。两家机构还将共同研究如何独立评估 OpenAI 和谷歌等公司建立的私人人工智能模型。

封面图片

“ChatGPT之父”关于人工智能有哪些新观点?

“ChatGPT之父”关于人工智能有哪些新观点? 人工智能会降低我们对彼此的关注吗?1997年,当IBM公司研制的人工智能系统“深蓝”击败国际象棋世界冠军加里·卡斯帕罗夫时,有评论员预测“这将是国际象棋的终结”,此后没有人会再费心看棋或下棋。但时至今日,“我们仍对人类所做的事情非常感兴趣,几乎没人观看两个人工智能对弈,”奥尔特曼说,他在读完自己喜欢的书后,第一件事就是了解作者的生活,“我想感受到与那个引起我共鸣的人之间的联系”。奥尔特曼说,人类始终在获得更好的工具,但有一点不会改变,那就是“今天我们仍然非常关注彼此”。需要担心人工智能取代人类工作吗?奥尔特曼认为,人工智能将对人类工作产生巨大影响。如今,人工智能已经成为“令人难以置信的生产力工具”,但尚未以经济学家担心的规模取代工作岗位。人类还能从事哪些工作?奥尔特曼以自己为例说,“我并不是人工智能研究人员,我的角色是弄清楚我们将做些什么,然后与其他人合作并实现目标。”他认为,未来,人类将在更高的抽象层次工作,也将获得更多能力。人工智能监管是好事情吗?奥尔特曼表示对人工智能技术实施监管表示欢迎。他认为各方在发展人工智能技术过程中“遵守高标准是件好事”,科技行业有责任将社会意见纳入诸如价值观和安全阈值等决策中,以保证收益大于风险。奥尔特曼强调,“应让社会和技术共同发展,构建这些(人工智能)系统时,应通过非常严格的反馈循环和路线修正使其逐步发展,在符合安全要求的同时提供巨大价值”。比技术更难的问题奥尔特曼指出,对人工智能进行“迭代部署”意味着社会可以逐渐习惯这项技术,并让“我们的机构有时间展开讨论,以弄清楚如何监管”。奥尔特曼认为, GPT-3和GPT-4在对价值观保持一致方面取得了“巨大进展”。但他认为,比技术更难的问题是:谁来决定这些价值观、默认价值观是什么、界限是什么?它在不同国家如何运作?用它可以做什么以及不可以做什么?“这是一个重大社会问题。”他说。AGI是不是“严重危害”?通用人工智能(AGI)是人工智能的重要研究方向。去年2月,奥尔特曼曾警告通用人工智能(AGI)的“严重危害”。在世界经济论坛上,奥尔特曼的态度有所软化。与微软首席执行官萨蒂亚·纳德拉对话时,奥尔特曼表示,AGI将是一个“令人惊讶的持续性事物”,“每年我们都会推出一个新模型,而且会比前一年好得多”。在另一场对话中,奥尔特曼认为,AGI可能会在“相当近的未来”得到开发,但“对世界的改变将比我们想象得要小得多,对工作的改变也比我们想象得要小得多” 。相关文章:OpenAI奥特曼:无论谁赢得白宫 美国和人工智能都将“很好”OpenAI CEO山姆·奥特曼希望建立全球芯片制造工厂网络 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人