OpenAI员工警告:AI缺乏监督 存在“严重风险”

OpenAI员工警告:AI缺乏监督 存在“严重风险” 预计生成式人工智能市场在10年内收入将超过1万亿美元。OpenAI、谷歌、微软、Meta及其他公司正在主宰生成式人工智能军备竞赛,因为似乎每个公司都急于拥有自己的人工智能驱动的聊天机器人和代理,以避免被竞争对手甩在后面。OpenAI的现任和前任员工在公开信中写道,人工智能公司拥有“大量非公开信息”,包括他们的技术可以做什么,他们采取的安全措施的程度以及技术对不同类型伤害的风险水平。“我们也理解这些技术带来的严重风险,”他们写道,并补充说,这些公司“目前只有微弱的义务与政府分享其中一些信息,而没有与民间社会分享。我们认为不能依靠他们自愿分享它。”这封信还详细说明了现任和前任员工对人工智能行业举报人保护不足的担忧,并指出,如果没有有效的政府监督,员工在追究公司责任方面处于相对独特的地位。公开信称:“宽泛的保密协议阻止我们表达我们的担忧,除非是那些可能未能解决这些问题的公司,”签署者写道。“普通的举报人保护是不够的,因为它们侧重于非法活动,而我们担心的许多风险尚未受到监管。” ... PC版: 手机版:

相关推荐

封面图片

十三名前 OpenAI 员工在一封公开信中表示,人工智能公司对那些提出安全问题的人进行了报复。

十三名前 OpenAI 员工在一封公开信中表示,人工智能公司对那些提出安全问题的人进行了报复。 几位前 OpenAI 员工在一封公开信中警告说,像 OpenAI 这样的先进 AI 公司压制批评和监督,特别是在过去几个月对 AI 安全的担忧增加的情况下。 这封公开信由 13 名前 OpenAI 员工签署(其中六人选择匿名),并得到前谷歌“人工智能之父”Geoffrey Hinton 的支持。信中表示,在缺乏有效的政府监管的情况下,人工智能公司应该承诺遵守公开批评原则。这些原则包括避免制定和执行禁止贬损条款,提供一个“可验证”的匿名举报问题的渠道,允许现任和前任员工向公众提出担忧,并且不对举报人进行报复。 信中说,尽管他们相信人工智能有潜力造福社会,但也看到了风险,比如加剧不平等、操纵和误导信息,以及人类灭绝的可能性。虽然人们对可能接管地球的机器有重要的担忧,但当今的生成式人工智能有更实际的问题,比如侵犯版权、无意中分享有问题和非法的图像,以及它可以模仿人们的样貌并误导公众的担忧。 信件的签署者声称,现有的举报人保护措施“是不足的”,因为它们侧重于非法行为,而不是他们所说的大多数未受监管的问题。劳工部表示,举报工资、歧视、安全、欺诈和扣留休假时间等违规行为的工人受举报人保护法的保护,这意味着雇主不能解雇、裁员、减少工时或降职举报人。信中写道:“鉴于行业内此类案件的历史,我们中的一些人合理地担心各种形式的报复。我们不是第一个遇到或谈论这些问题的人。” 最近,,同时联合创始人,他一直在公司内倡导安全。一位前研究员表示,在 OpenAI,"安全文化和流程已经让位于光鲜亮丽的产品"。 OpenAI 确实有一个新的安全团队,由 CEO 山姆·奥特曼领导。 标签: #OpenAI #匿名 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

OpenAI和Google对于AI助手的行为方式存在分歧

OpenAI和Google对于AI助手的行为方式存在分歧 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 这种较量在本周表现得淋漓尽致。在Google计划已久的开发者大会的前一天,OpenAI临时宣布将举办自己的产品发布会。过去一年来,Google和 OpenAI在极度保密的情况下,最终在同一个领域取得了相似成果:人工智能助手。它可以实时处理文字、音频或影像,并与你进行语音对话,就像是个有着超能力的Siri。但两家公司对于如何在这个充斥着人工智能个人助理的新世界当中为自己的产品找准定位,采取了截然不同的方法。OpenAI更注重个人元素,而Google则更注重辅助功能。OpenAI表示,它的新语音助手可以理解人的情绪,并表达自己的情绪。人工智能语音可以发笑、唱歌,并把自己所谓的感受讲出来。它似乎还对台上使用该工具的员工搭讪了两次夸他的着装,并对他说:”喂,别说了!你让我脸红了。“在社交平台上,许多人认为这位助理撩人的音效与约翰逊(Scarlett Johansson)在反乌托邦电影《她》(Her)中的声音相似行政总裁萨姆·尔奥特曼(Sam Altman)似乎也在贴文中提到了这部电影,从而暗中认可了这种比较。相比之下,Google则采取了更为实用的方法。Google当天宣布的头等大事不是语音助手,而是围绕人工智能对搜寻进行改造。即使是Google更具未来感、基于语音的人工智能助手,在演示中也基本上避免了任何情绪化的东西。它的人工智能助手帮人们找到眼镜、查询汽车牌照并筹划迈阿密之行。我与Google高官交谈时,他们说这是经过深思熟虑的选择。“如果你愿意,是可以让这些技术表现出情感的,”Google副总裁兼Gemini体验和Google助理业务的总经理Sissie Hsiao说,“但我认为,超级有用和超级实用是我们产品的着眼点。”OpenAI能够在与Google等大型竞争对手的竞争中取得巨大成功,部分原因在于它推出的产品展示了人工智能的广泛潜力。尽管还存在种种缺陷,但ChatGPT的巧妙回应瞬间就改变了我们与人工智能的关系,并让公众意识到这项技术的飞速发展。人工智能助手能够表达情感的这种想法也吸引了我们的注意力和想象力,而OpenAI循序渐进更新其人工智能模型可能达不到这样的效果。然而,打造可以模仿表达感情的人工智能确实存在风险。这些技术在处理基本事实时仍然容易出错,更不用说把握人类情感的细微之处了。在这方面,Google已经比OpenAI付出了更多,无论是其人工智能影像产生器不返回照片所引发的争议,还是Bard在最初演示中的错误导致公司市值缩水数十亿美元。对Google来说,更有分寸地进行押注或许合情合理。但风险在于,使用者可能会无动于衷并转身而去。 ... PC版: 手机版:

封面图片

OpenAI、微软、谷歌等科技巨头本周将讨论制定AI使用标准

OpenAI、微软、谷歌等科技巨头本周将讨论制定AI使用标准 4月11日消息,本周三,人工智能开发领域顶尖企业的高管和员工将开会讨论制定关于如何使用人工智能技术的标准。 据外媒报道,OpenAI、微软、谷歌、苹果、英伟达、Stability AI、Hugging Face和Anthropic等公司的代表预计将出席周三举行的此次会议。这次会议由顶级投资公司SV Angel召集,与会代表计划讨论如何以最负责任的态度继续开发人工智能。 几周前,以马斯克为代表的多位科技行业大佬联名发表了一封公开信,呼吁OpenAI和其他公司暂停开发人工智能技术6个月的时间,在此期间制定并落实安全协议。 与此同时,美国议员们认为有必要对人工智能技术进行监管,但目前尚未通过任何重大立法。

封面图片

ChatGPT 所有者 OpenAI 推出工具来检测人工智能生成的文本

ChatGPT 所有者 OpenAI 推出工具来检测人工智能生成的文本 ================== “在我们对英语文本的‘挑战集’的评估中,我们的分类器正确地将 26% 的人工智能写的文本(真阳性)识别为‘可能是人工智能写的’,而将人类写的文本错误地标记为人工智能写的占 9%(假阳性),”OpenAI 员工写道 ======= 对抗训练是吧

封面图片

中国科技巨头加入AI竞赛,审查制度下或存在政治风险

中国科技巨头加入AI竞赛,审查制度下或存在政治风险 近日由OpenAI研发的人工智能语言模型「ChatGPT」火遍全球。虽然OpenAI并未向中国用户提供服务,但不少人通过代理机器人试用了ChatGPT,其惊艳表现使其在中国收获了极高讨论度。据外媒报道,百度、阿里、腾讯等中国科技巨头已纷纷跟进研发类似产品。 然而审查制度下这些难以控制其内容的产品或存在政治风险。据中媒引用中国律师称ChatGPT可能把用户输入资料纳入语料库而产生泄露风险,而人工智能生成的信息也可能包括虚假信息或违法信息。有中国初创公司提供的人工智能对话程序也确实被指违反相关法律而被暂停服务。 有外媒指在微信上的一些ChatGPT代理机器人已将一些中国敏感关键字列入黑名单。 #AI #人工智能 原文链接 《法治日报》? 《华尔街日报》 《第一财经》” 《Reuters》 《德国之声》 ? (注:此为以上路透社文章的中文翻译)

封面图片

OpenAI 已解散长期人工智能风险团队

OpenAI 已解散长期人工智能风险团队 去年 7 月,OpenAI 宣布成立一个新的研究团队,为通用人工智能的到来做准备。OpenAI 首席科学家、公司联合创始人之一 Ilya Sutskever 被任命为这个新团队的联合负责人。OpenAI 表示,该团队将获得 20% 的计算能力。 现在 OpenAI 证实,“超级对齐团队”已不复存在。此前多位相关研究人员离职,该团队的两名研究人员 Leopold Aschenbrenner 和 Pavel Izmailov 因泄露公司机密而被解雇,周二 Sutskever 宣布将离开公司,该团队的另一位联合负责人也辞职了。该小组的工作将被纳入 OpenAI 的其他研究工作中。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人