None
OpenAI 已解散长期人工智能风险团队 去年 7 月,OpenAI 宣布成立一个新的研究团队,为通用人工智能的到来做准备。OpenAI 首席科学家、公司联合创始人之一 Ilya Sutskever 被任命为这个新团队的联合负责人。OpenAI 表示,该团队将获得 20% 的计算能力。 现在 OpenAI 证实,“超级对齐团队”已不复存在。此前多位相关研究人员离职,该团队的两名研究人员 Leopold Aschenbrenner 和 Pavel Izmailov 因泄露公司机密而被解雇,周二 Sutskever 宣布将离开公司,该团队的另一位联合负责人也辞职了。该小组的工作将被纳入 OpenAI 的其他研究工作中。
欧盟要求微软澄清必应的人工智能风险 如果微软公司未能在5月27日之前提供有关搜索引擎 Bing 的生成式人工智能功能所带来的风险的更多信息,欧盟委员会可能会对其处以罚款。欧盟委员会周五表示,担心深度造假内容的传播以及操纵服务以误导选民的行为。并表示正在加强对此事的执法行动,因为尚未收到3月14日发出的信息请求的答复。如果未在最后期限前完成,委员会可能会对 Bing 处以高达其年总收入1%的罚款,并处以高达其平均每日收入5%的定期罚款。如果公司提供不正确或误导性的信息,也可以对公司处以罚款。
OpenAI 的长期人工智能风险团队已经解散 5 月 17 日消息,据美国杂志 WIRED 报道,去年 7 月,OpenAI 宣布成立一个新的研究团队,为超级智能的到来做准备,这种超级智能能够智胜和压倒其创造者。OpenAI 的首席科学家、公司联合创始人之一 Ilya Sutskever 被任命为这个新团队的联合领导人。OpenAI 表示,该团队将获得其计算能力的 20%。 现在 OpenAI 的超级对齐团队已经解散,公司证实了这一消息。在此之前,已经有几名参与其中的研究人员离职,周二的消息称 Sutskever 将离开公司,而该团队的另一位联合领导人也辞职了。该团队的工作将被整合到 OpenAI 的其他研究工作中。 来源:财经慢报频道
奥特曼警告:“社会失调”可能放大人工智能风险 “有些东西很容易想象,哪里出了问题。我对杀手机器人在街上行走的方向不太感兴趣,”奥特曼说。“我更感兴趣的是非常微妙的社会失调,我们只是把这些系统放在社会上,并没有特别的恶意,事情就会变得非常糟糕。”然而,奥特曼强调,人工智能行业,包括OpenAI在内,不应该在制定行业监管法规方面占据主导地位。“我们仍处于大量讨论的阶段。所以,你们知道,世界上每个人都在开会。每个人都有自己的想法,一份政策文件,这没关系。我认为我们仍然处于一个需要辩论和健康的时期,但在未来几年的某个时候,我认为我们必须采取行动计划,得到全世界的真正支持。”奥特曼说,他很高兴看到学校现在接受了这项对未来至关重要的技术,尽管老师们担心学生会用AI写论文。但他补充说,人工智能仍处于起步阶段。奥特曼说:“我认为原因是我们目前拥有的技术就像……第一款带有黑白屏幕的手机。所以给我们一些时间。但我认为再过几年,它会比现在好得多。十年后,这应该会非常了不起。” ... PC版: 手机版:
🔍 发送关键词来寻找群组、频道或视频。