100多位全球知名人士共同呼吁全球采取行动应对AI和其他生存威胁

100多位全球知名人士共同呼吁全球采取行动应对AI和其他生存威胁 这封信的签名者包括亿万富翁维珍集团创始人理查德-布兰森、前联合国秘书长潘基文和查尔斯-奥本海默(罗伯特-奥本海默的孙子)。此外,多位前总统和总理、活动家、首席执行官、创始人和教授也在信上签名。"我们的世界正处于严重危险之中,"信的开头这样写道。"我们面临着一系列危及全人类的威胁。我们的领导人没有以必要的智慧和紧迫感做出反应"。信中举例说明了当前的威胁包括气候的变化、大流行病以及使用核武器的战争。信中指出,更糟糕的情况可能会出现,尤其是我们还不知道与无人管理的人工智能相关的新威胁会有多大。"长远型领导力意味着要表现出解决棘手问题的决心,而不仅仅是管理这些问题;要表现出基于科学证据和理性做出决策的智慧;要表现出倾听所有受影响者声音的谦逊"。信中呼吁各国政府就某些项目达成一致,如商定如何为从化石燃料向清洁能源过渡提供资金,重启军备控制谈判以降低核战争风险,以及制定一项公平的大流行病条约。在人工智能方面,我们的建议是建立必要的治理机制,使这项技术成为一种有益的力量,而不是失控的风险。麻省理工学院宇宙学家马克斯-泰格马克(Max Tegmark)与 Skype 联合创始人雅安-塔林(Jaan Tallinn)共同成立了"未来生命研究所"(Future of Life Institute),他告诉CNBC,"长老会"及其组织并不认为人工智能是"邪恶的",但担心如果它在错误的人手中迅速发展,可能会被用作破坏性工具。未来生活研究所去年也发表了一封公开信,呼吁暂停先进人工智能开发六个月。这封信有 1100 人签名,其中包括苹果公司联合创始人史蒂夫-沃兹尼亚克(Steve Wozniak)、埃隆-马斯克(Elon Musk)和 Pinterest 联合创始人埃文-夏普(Evan Sharp)。这封信并没有达到预期效果;人工智能公司不仅没有放慢开发速度,许多公司实际上还加快了开发高级人工智能的步伐。将人工智能与核战争相提并论并不新鲜。去年 5 月,专家和首席执行官们就曾警告过这项技术带来的灭绝风险。甚至连 ChatGPT 的创造者 OpenAI 也说,比人类更聪明的人工智能可能会导致人类灭绝。 ... PC版: 手机版:

相关推荐

封面图片

呼吁暂停六个月AI训练的公开信中许多签名是假冒的,更多专家公开反对这封信

呼吁暂停六个月AI训练的公开信中许多签名是假冒的,更多专家公开反对这封信 超过 30,000 人包括特斯拉的埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、政治家安德鲁·杨和一些领先的人工智能研究人员签署了一封公开信,呼吁暂停训练比 GPT-4 更强大的人工智能系统六个月. 这封信立即引起了轩然大波,因为签署人纷纷撤回他们的立场,一些著名的签署人被证明是假的,更多的人工智能研究人员和专家公开反对这封信的提议和方法。 这封信由生命未来研究所 (Future of Life Institute)撰写,这是一家非营利组织,其使命是“减少强大技术带来的全球灾难性和生存风险”。它也是长期主义的最大支持者之一,这是一种由许多硅谷科技精英成员推动的世俗宗教,因为它鼓吹寻求大量财富以解决人类在遥远的未来面临的问题。 未来生命研究所向 Motherboard 确认所有签名者都“通过直接沟通进行了独立验证”。 尽管有这个验证过程,这封信还是以一些虚假的签名开始,包括冒充 OpenAI 首席执行官山姆奥特曼、中国国家主席习近平和 Meta 首席人工智能科学家 Yann LeCun,之后该研究所清理了名单并暂停显示签名。

封面图片

1000多名人工智能专家及行业高管签署联名信,呼吁暂停训练比GPT-4更强大的人工智能系统至少六个月

1000多名人工智能专家及行业高管签署联名信,呼吁暂停训练比GPT-4更强大的人工智能系统至少六个月 理由是这种系统对社会和人类构成潜在风险。信中写道:“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”马斯克此前曾多次表达对人工智能的担忧,认为人工智能是未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等,甚至比核武器都危险得多。 可以去这里签名:《》目前已经有1000多名精英人士签名了。 - Yoshua Bengio,蒙特利尔大学,图灵奖得主,开发深度学习,蒙特利尔学习算法研究所所长 - Stuart Russell,伯克利,计算机科学教授,智能系统中心主任,标准教科书“人工智能:现代方法”的合著者 - Elon Musk,SpaceX、Tesla 和 Twitter 的首席执行官 - Steve Wozniak, Co-founder, Apple 苹果联合创始人史蒂夫·沃兹尼亚克 - Jaan Tallinn,Skype 联合创始人,生存风险研究中心,未来生命研究所 ...... 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管 Yoshua Bengio"如今,深度伪造往往涉及性图像、欺诈或政治虚假信息。由于人工智能发展迅速,使得深度伪造变得更加容易,因此需要采取保障措施,"该组织在信中说,这封信是由加州大学伯克利分校的人工智能研究员安德鲁-克里奇(Andrew Critch)撰写的。深度伪造(Deepfake)是由人工智能算法创建的逼真而又虚假的图像、音频和视频,最近的技术进步使它们与人类创建的内容越来越难以区分。这封题为"扰乱深度假货供应链"的信就如何监管深度假货提出了建议,包括将深度假货儿童色情制品完全定为刑事犯罪,对任何故意制造或协助传播有害深度假货的个人进行刑事处罚,以及要求人工智能公司防止其产品制造有害深度假货。截至本周三上午,已有来自学术界、娱乐界和政界等各行各业的 400 多人在信上签名。签名者包括哈佛大学心理学教授史蒂文-平克(Steven Pinker)、两位爱沙尼亚前总统、Google DeepMind 的研究人员和 OpenAI 的研究人员。自微软支持的 OpenAI 于 2022 年底推出 ChatGPT 以来,确保人工智能系统不危害社会一直是监管机构的首要任务。知名人士曾多次就人工智能风险发出警告,特别是埃隆-马斯克(Elon Musk)去年签署了一封信,呼吁暂停开发比 OpenAI 的 GPT-4 人工智能模型更强大的系统,为期六个月。 ... PC版: 手机版:

封面图片

马斯克和一些业内专家呼吁暂停比GPT-4更强大AI的训练,理由是担忧对人类社会构成危险

马斯克和一些业内专家呼吁暂停比GPT-4更强大AI的训练,理由是担忧对人类社会构成危险 埃隆·马斯克和一群人工智能专家和行业高管在一封公开信中说,他们呼吁暂停训练比GPT-4更强大的系统六个月,理由是对社会和人类的潜在风险。 这封信由非营利性的 "生命未来研究所 "发布,包括马斯克、苹果公司联合创始人史蒂夫-沃兹尼亚克和稳定人工智能首席执行官埃马德-莫斯塔克在内的1000多人签署,呼吁暂停先进的人工智能开发,直到此类设计的共享安全协议被制定、实施并由独立专家审计。 信中说:"只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。" 信中还详细介绍了人类竞争性人工智能系统以经济和政治混乱的形式对社会和文明的潜在风险,并呼吁开发者与政策制定者在治理和监管机构方面进行合作。 这封信是在欧盟警察部队Europol周一加入了对ChatGPT等先进人工智能的道德和法律担忧的合唱,警告说该系统可能被滥用于网络钓鱼企图、虚假信息和网络犯罪。

封面图片

英国议员呼吁成立全球联盟共同应对人工智能滥用问题。在Bletchley Park举行峰会,制定人工智能指南。对Deepfakes

英国议员呼吁成立全球联盟共同应对人工智能滥用问题。在Bletchley Park举行峰会,制定人工智能指南。对Deepfakes、人工智能文本挖掘和中国的参与表示担忧。人工智能法案建议提交给议会的即将召开的会期。

封面图片

中国和西方科学家呼吁对先进人工智加强监管,警告AI未来会对“人类的生存构成威胁”

中国和西方科学家呼吁对先进人工智加强监管,警告AI未来会对“人类的生存构成威胁” 中国的人工智能科学家与西方学者一起呼吁对这项技术进行比英国、美国和欧盟提议的更严格的控制,各国在本周的全球人工智能安全峰会之前摆出了相互竞争的立场。 周三在英国布莱切利公园举行的峰会的几位中国学术与会者签署了一份声明,警告先进的人工智能将在未来几十年对“人类的生存构成威胁”。 该组织包括中国最著名的计算机科学家之一姚期智,呼吁建立一个国际监管机构,对先进人工智能系统进行强制注册和审核,纳入即时“关闭”程序,并要求开发者花费他们的研究预算的百分之三十用于人工智能安全。 这些提案比美国总统乔·拜登本周发布的人工智能行政命令(其中包括算法歧视和劳动力市场影响)以及欧盟拟议的人工智能法案(重点保护隐私等权利)更关注存在风险。 该声明还比英国首相里希·苏纳克(Rishi Sunak)为具有里程碑意义的峰会起草的人工智能安全公报草案走得更远,该公报没有呼吁各国政府实施具体监管。 这些措施是在北京和华盛顿之间围绕关键技术的世界领导地位紧张局势加剧之际,中国可能对全球人工智能监管采取的立场的早期迹象。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人