OpenAI 组建研究儿童安全的新团队

OpenAI 组建研究儿童安全的新团队 该团队目前正在招聘一名儿童安全执行专家,负责在人工智能生成的内容中应用 OpenAI 的政策,并制定与"敏感"(可能与儿童有关)内容相关的审查流程。具有一定规模的科技厂商都会投入相当多的资源来遵守《美国儿童在线隐私保护规则》(Children's Online Privacy Protection Rule)等法律,这些法律规定了儿童可以访问和不可以访问的网络内容,以及公司可以收集他们的哪些数据。因此,OpenAI 聘请儿童安全专家并不令人完全意外,尤其是如果该公司预计有一天会有大量未成年用户的话。(OpenAI目前的使用条款规定,13至18岁的儿童必须征得父母同意,禁止13岁以下儿童使用)。不过,在 OpenAI宣布与常识媒体(Common Sense Media)合作制定儿童友好型人工智能指南并获得首个教育客户数周后,新团队的成立也表明 OpenAI 对触犯未成年人使用人工智能相关政策和负面新闻抱有戒心。越来越多的儿童和青少年不仅在课业上,还在个人问题上向 GenAI 工具寻求帮助。根据美国民主与技术中心(Center for Democracy and Technology)的一项民意调查,29% 的孩子表示曾使用 ChatGPT 解决焦虑或心理健康问题,22% 的孩子使用 ChatGPT 解决与朋友的问题,16% 的孩子使用 ChatGPT 解决家庭矛盾。一些人认为这种风险越来越大。去年夏天,由于担心剽窃和错误信息,有学校和学院急忙禁止 ChatGPT。此后,一些学校和学院撤销了禁令。但并非所有人都相信GenAI的潜在好处,英国安全互联网中心(U.K. Safer Internet Centre)等机构的调查发现,超过一半的孩子(53%)表示曾见过同龄人以负面的方式使用GenAI例如制造可信的虚假信息或图片来扰乱他人。今年 9 月,OpenAI 发布了课堂 ChatGPT 文档,其中包含提示和常见问题解答,为教育工作者将 GenAI 用作教学工具提供指导。在其中一篇支持文章中,OpenAI 承认其工具,尤其是 ChatGPT,"可能会产生不适合所有受众或所有年龄段的输出",并建议"谨慎"接触儿童即使是那些符合年龄要求的儿童。要求为儿童使用 GenAI 制定指导方针的呼声日益高涨。联合国教育、科学及文化组织(UNESCO)去年年底推动各国政府规范 GenAI 在教育领域的使用,包括对用户实施年龄限制,并在数据保护和用户隐私方面设置防护栏。联合国教科文组织总干事奥黛丽-阿祖莱(Audrey Azoulay)在一份新闻稿中说:"生成式人工智能可以成为人类发展的巨大机遇,但也可能造成伤害和偏见。如果没有公众的参与以及政府必要的保障和监管,它就无法融入教育。" ... PC版: 手机版:

相关推荐

封面图片

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能 OpenAI 正在组建一个由其首席科学家兼公司联合创始人之一 Ilya Sutskever 领导的新团队,以开发引导和控制“超级智能”人工智能系统的方法。 ,Sutskever 和 OpenAI 联盟团队的负责人 Jan Leike 预测,人工智能可能会在十年内实现超越人类的智能。苏茨克弗和雷克说,这种人工智能假设它最终确实到来不一定是仁慈的,需要研究控制和限制它的方法。 他们写道:“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。” “我们目前调整人工智能的技术,例如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。” 为了推动“超级智能对齐”领域的发展,OpenAI 正在创建一个新的超级对齐团队,由 Sutskever 和 Leike 领导,该团队将有权使用公司迄今为止已获得的 20% 的计算资源。该团队由 OpenAI 之前的对准部门的科学家和工程师以及公司其他部门的研究人员加入,目标是在未来四年内解决控制超级智能 AI 的核心技术挑战。

封面图片

【OpenAI回应各方质疑】OpenAI周三发文介绍了确保其技术安全的方案,包括进行安全评估、提高事实准确性、保护儿童以及尊重隐

【OpenAI回应各方质疑】OpenAI周三发文介绍了确保其技术安全的方案,包括进行安全评估、提高事实准确性、保护儿童以及尊重隐私等。OpenAI声称,确保人工智能系统的安全构建、部署和使用对实现其使命至关重要。 #抽屉IT

封面图片

OpenAI宣布与"常识媒体"(Common Sense Media)建立合作伙伴关系

OpenAI宣布与"常识媒体"(Common Sense Media)建立合作伙伴关系 OpenAI 首席执行官 Sam Altman 表示,作为合作关系的一部分,OpenAI 将与 Common Sense Media 合作,根据 Common Sense 的评级和评估标准,在 OpenAI 的 GPT 市场 GPT Store 上策划"家庭友好型"GPT(由 OpenAI 的 GenAI 模型驱动的聊天机器人应用程序)。"人工智能为家庭和青少年带来了难以置信的好处,我们与常识组织的合作将进一步加强我们的安全工作,确保家庭和青少年能够放心使用我们的工具,"Altman 在一份声明中补充道。此前,OpenAI 曾表示将参与 Common Sense 于 9 月推出的新框架,该框架旨在对人工智能产品的安全性、透明度、道德使用和影响进行评估,用于人工智能评级和审查。"常识"联合创始人兼首席执行官詹姆斯-斯蒂尔(James Steyer)表示,"常识"框架旨在为人工智能产品贴上"营养标签",以揭示产品的使用环境,并根据一系列"常识"原则突出潜在的机遇和危害领域。斯泰尔在一份电子邮件声明中说:"Common Sense 和 OpenAI 将共同努力,确保人工智能对所有青少年和家庭产生积极影响。我们的指南和策划将旨在教育家庭和教育工作者安全、负责任地使用[OpenAI 工具,如] ChatGPT,这样我们就能共同避免这一新兴技术带来任何意想不到的后果。" ... PC版: 手机版:

封面图片

Anthropic 聘请前 OpenAI 安全负责人领导新团队

Anthropic 聘请前 OpenAI 安全负责人领导新团队 Leike 在 X 上发表文章说,他在 Anthropic 的团队将专注于人工智能安全和安保的各个方面,特别是"可扩展监督"、"弱到强的泛化"和自动对齐研究。一位熟悉内情的消息人士透露,Leike 将直接向 Anthropic 的首席科学官 Jared Kaplan 汇报工作,而 Anthropic 的研究人员目前正在研究可扩展的监督以可预测和理想的方式控制大规模人工智能行为的技术随着 Leike 团队的发展,他们将转而向 Leike 汇报工作。在许多方面,Leike 的团队听起来与 OpenAI最近解散的 Superalignment 团队有着相似的使命。Leike 共同领导的 Superalignment 团队雄心勃勃,目标是在未来四年内解决控制超级智能人工智能的核心技术难题,但经常发现自己受到 OpenAI 领导层的束缚。Anthropic 经常试图将自己定位为比 OpenAI 更注重安全。Anthropic的首席执行官达里奥-阿莫迪(Dario Amodei)曾是OpenAI的研究副总裁,据报道,他在与OpenAI就公司的发展方向(即OpenAI日益增长的商业重心)产生分歧后与OpenAI分道扬镳。阿莫德伊带着许多前OpenAI员工创办了Anthropic公司,其中包括OpenAI的前政策负责人杰克-克拉克(Jack Clark)。 ... PC版: 手机版:

封面图片

OpenAI 正与 Common Sense Media 合作开展人工智能教育和安全计划

OpenAI 正与 Common Sense Media 合作开展人工智能教育和安全计划 OpenAI 当地时间周一表示,正在与非营利组织 Common Sense Media 合作开展一项计划,旨在帮助青少年了解如何安全地使用人工智能。OpenAI 首席执行官萨姆·阿尔特曼在旧金山举行的 Common Sense 活动上表示,希望弄清楚如何安全、负责任地让这个工具广泛地提供给青少年和将会使用到它的教育工作者。

封面图片

#德国之声: #科技环境 #SamAltman #萨姆·奥特曼 #OpenAI #人工智能 #ChatGPT #Dall-E

#德国之声: #科技环境 #SamAltman #萨姆·奥特曼 #OpenAI #人工智能 #ChatGPT #Dall-E 萨姆·奥特曼(Sam Altman)是当前人工智能热潮中最显眼的面孔。他的公司OpenAI开发了ChatGPT这个人工智能聊天机器人使得人工智能可供每个人使用。但他的成功也随时需要受到公众的审视。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人