十三名前 OpenAI 员工在一封公开信中表示,人工智能公司对那些提出安全问题的人进行了报复。

十三名前 OpenAI 员工在一封公开信中表示,人工智能公司对那些提出安全问题的人进行了报复。 几位前 OpenAI 员工在一封公开信中警告说,像 OpenAI 这样的先进 AI 公司压制批评和监督,特别是在过去几个月对 AI 安全的担忧增加的情况下。 这封公开信由 13 名前 OpenAI 员工签署(其中六人选择匿名),并得到前谷歌“人工智能之父”Geoffrey Hinton 的支持。信中表示,在缺乏有效的政府监管的情况下,人工智能公司应该承诺遵守公开批评原则。这些原则包括避免制定和执行禁止贬损条款,提供一个“可验证”的匿名举报问题的渠道,允许现任和前任员工向公众提出担忧,并且不对举报人进行报复。 信中说,尽管他们相信人工智能有潜力造福社会,但也看到了风险,比如加剧不平等、操纵和误导信息,以及人类灭绝的可能性。虽然人们对可能接管地球的机器有重要的担忧,但当今的生成式人工智能有更实际的问题,比如侵犯版权、无意中分享有问题和非法的图像,以及它可以模仿人们的样貌并误导公众的担忧。 信件的签署者声称,现有的举报人保护措施“是不足的”,因为它们侧重于非法行为,而不是他们所说的大多数未受监管的问题。劳工部表示,举报工资、歧视、安全、欺诈和扣留休假时间等违规行为的工人受举报人保护法的保护,这意味着雇主不能解雇、裁员、减少工时或降职举报人。信中写道:“鉴于行业内此类案件的历史,我们中的一些人合理地担心各种形式的报复。我们不是第一个遇到或谈论这些问题的人。” 最近,,同时联合创始人,他一直在公司内倡导安全。一位前研究员表示,在 OpenAI,"安全文化和流程已经让位于光鲜亮丽的产品"。 OpenAI 确实有一个新的安全团队,由 CEO 山姆·奥特曼领导。 标签: #OpenAI #匿名 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

OpenAI员工警告:AI缺乏监督 存在“严重风险”

OpenAI员工警告:AI缺乏监督 存在“严重风险” 预计生成式人工智能市场在10年内收入将超过1万亿美元。OpenAI、谷歌、微软、Meta及其他公司正在主宰生成式人工智能军备竞赛,因为似乎每个公司都急于拥有自己的人工智能驱动的聊天机器人和代理,以避免被竞争对手甩在后面。OpenAI的现任和前任员工在公开信中写道,人工智能公司拥有“大量非公开信息”,包括他们的技术可以做什么,他们采取的安全措施的程度以及技术对不同类型伤害的风险水平。“我们也理解这些技术带来的严重风险,”他们写道,并补充说,这些公司“目前只有微弱的义务与政府分享其中一些信息,而没有与民间社会分享。我们认为不能依靠他们自愿分享它。”这封信还详细说明了现任和前任员工对人工智能行业举报人保护不足的担忧,并指出,如果没有有效的政府监督,员工在追究公司责任方面处于相对独特的地位。公开信称:“宽泛的保密协议阻止我们表达我们的担忧,除非是那些可能未能解决这些问题的公司,”签署者写道。“普通的举报人保护是不够的,因为它们侧重于非法活动,而我们担心的许多风险尚未受到监管。” ... PC版: 手机版:

封面图片

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管 Yoshua Bengio"如今,深度伪造往往涉及性图像、欺诈或政治虚假信息。由于人工智能发展迅速,使得深度伪造变得更加容易,因此需要采取保障措施,"该组织在信中说,这封信是由加州大学伯克利分校的人工智能研究员安德鲁-克里奇(Andrew Critch)撰写的。深度伪造(Deepfake)是由人工智能算法创建的逼真而又虚假的图像、音频和视频,最近的技术进步使它们与人类创建的内容越来越难以区分。这封题为"扰乱深度假货供应链"的信就如何监管深度假货提出了建议,包括将深度假货儿童色情制品完全定为刑事犯罪,对任何故意制造或协助传播有害深度假货的个人进行刑事处罚,以及要求人工智能公司防止其产品制造有害深度假货。截至本周三上午,已有来自学术界、娱乐界和政界等各行各业的 400 多人在信上签名。签名者包括哈佛大学心理学教授史蒂文-平克(Steven Pinker)、两位爱沙尼亚前总统、Google DeepMind 的研究人员和 OpenAI 的研究人员。自微软支持的 OpenAI 于 2022 年底推出 ChatGPT 以来,确保人工智能系统不危害社会一直是监管机构的首要任务。知名人士曾多次就人工智能风险发出警告,特别是埃隆-马斯克(Elon Musk)去年签署了一封信,呼吁暂停开发比 OpenAI 的 GPT-4 人工智能模型更强大的系统,为期六个月。 ... PC版: 手机版:

封面图片

波音 CEO 承认公司对举报人进行了报复

波音 CEO 承认公司对举报人进行了报复 波音公司 CEO 戴夫·卡尔霍恩承认,公司对举报生产违规行为的举报人进行了报复,他在参议院特别听证会上表示:“我知道这会发生。”卡尔霍恩周二在委员会上作证时向波音坠机事故受害者家属道歉,并表示该制造商“完全致力于”未来的安全改进。今年1月,阿拉斯加航空公司一架波音737 MAX 9型客机起飞后不久发生事故,机舱侧面一处门塞脱落。此后,多名举报人对生产检查期间违反安全规定的行为表示担忧,许多人声称他们遭到了波音公司的“报复”。当被问及有多少波音员工因报复举报人而受到处罚时,卡尔霍恩回答说:“我不知道具体数字,但我知道。我知道这会发生。”

封面图片

OPENAI 提出人工智能“达到人类智能”的五级标准,自认接近第二级

OPENAI 提出人工智能“达到人类智能”的五级标准,自认接近第二级 当地时间7月11日,OpenAI 提出了一套衡量人工智能达到并超越人类问题解决能力的五级标准。该公司计划与投资者和公司外部人士分享这套标准,其范围包括从目前可以与人进行语言交互的人工智能 (1级) 到可以完成组织工作的人工智能 (5级)。OpenAI 发言人称,OpenAI 的高管告诉员工,该公司自认为目前处于第一级,但即将达到第二级,公司称之为“推理者” (Reasoners),其能力不亚于一个受过博士级教育但无法使用任何工具的人类。 、

封面图片

OpenAI 提出人工智能 “达到人类智能” 的五级标准,自认接近第二级

OpenAI 提出人工智能 “达到人类智能” 的五级标准,自认接近第二级 OpenAI 当地时间 7 月 11 日提出了一套衡量人工智能达到并超越人类问题解决能力的五级标准。该公司计划与投资者和公司外部人士分享这套标准,其范围包括从目前可以与人进行语言交互的人工智能(1 级)到可以完成组织工作的人工智能(5 级)。OpenAI 发言人称,OpenAI 的高管告诉员工,该公司自认为目前处于第一级,但即将达到第二级,公司称之为 “推理者”(Reasoners),其能力不亚于一个受过博士级教育但无法使用任何工具的人类。(界面新闻)

封面图片

黑客窃取了OpenAI的人工智能技术细节 但公司对此守口如瓶

黑客窃取了OpenAI的人工智能技术细节 但公司对此守口如瓶 黑客设法从 OpenAI 员工的在线论坛中窃取了信息,他们在论坛上讨论了最新技术。幸运的是,黑客没有侵入存放和训练 GPT 模型的系统。向《纽约时报》提供这一信息的两位消息人士称,OpenAI 的一些员工曾表示担心,此类攻击可能会被一些国家用来窃取人工智能技术。最终,这可能会危及美国的国家安全。在得知这一事件后,一些员工还对公司对安全问题的重视程度提出了质疑。据说,员工之间对人工智能的风险也出现了分歧。与此事件相关的是,OpenAI 的一位前技术项目经理给公司董事会写了一份备忘录,称公司在阻止外国对手窃取机密方面做得不够。这位经理名叫莱奥波德-阿申布伦纳(Leopold Aschenbrenner),他曾在一次播客中暗示过安全漏洞。他因向公司外部泄露信息而被 OpenAI 解雇,并认为这次解雇是出于政治动机。OpenAI 被入侵并导致员工分裂的消息曝光后,该公司的问题又多了一个。我们曾目睹首席执行官山姆-奥特曼(Sam Altman)与上一届董事会争斗,最终胜出。最近,几位人工智能安全研究人员因为在超智能问题上存在分歧而离开了公司,在超智能问题上,人们找到了人类控制超智能人工智能的方法。人工智能领域的知名人士,如 Anthropic 的联合创始人 Daniela Amodei 认为,生成式人工智能的最新设计被盗并不会对国家安全造成很大威胁。不过,随着这项技术的能力越来越强,情况可能会发生变化。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人