【OpenAI回应各方质疑】OpenAI周三发文介绍了确保其技术安全的方案,包括进行安全评估、提高事实准确性、保护儿童以及尊重隐

【OpenAI回应各方质疑】OpenAI周三发文介绍了确保其技术安全的方案,包括进行安全评估、提高事实准确性、保护儿童以及尊重隐私等。OpenAI声称,确保人工智能系统的安全构建、部署和使用对实现其使命至关重要。 #抽屉IT

相关推荐

封面图片

欧盟数据保护委员会称 ChatGPT 的数据准确性仍未达标

欧盟数据保护委员会称 ChatGPT 的数据准确性仍未达标 欧盟隐私监管机构的一个工作组称,OpenAI 致力于减少其 ChatGPT 聊天机器人输出中的事实错误,但这不足以确保完全符合欧盟的数据规则。当地时间24日,该工作组在于其网站发布的一份报告中表示:“尽管为了遵守透明原则而采取的措施有利于避免对 ChatGPT 输出错误信息,但这些措施仍然不足以遵守数据准确性的原则。”在以意大利当局为首的国家监管机构对这项广泛使用的人工智能服务表示担忧后,欧盟数据保护委员会 (EDPB) 随后成立了“ChatGPT 特别工作组”。

封面图片

OpenAI的“企业年”包括提高人工智能准确性的新工具

OpenAI的“企业年”包括提高人工智能准确性的新工具 OpenAI API 于 2020 年推出,允许公司在其大型语言模型的基础上进行连接和构建,随后于去年 8 月开放了 GPT-3.5 的微调功能,最终还将开放GPT-4。高度定制的模型可以在内部提供更好的结果。它们还能使对公众的回复保持在正轨上,避免出现像由ChatGPT 支持的雪佛兰经销商的机器人说它会以 1 美元的价格卖出一辆车那样的尴尬情况。今天,OpenAI 首席运营官 Brad Lightcap在接受彭博社采访时表示,2024 年是"企业年",因为企业开始推出更多使用基础模型的用例,OpenAI 在该领域看到了"巨大的增长"。Lightcap说:"我们越来越感觉到,市场正在把我们拉向真正的应用,提供真正的业务成果,真正广泛地关注人工智能赋能,我们已经准备好为我们的客户提供支持。"Lightcap此前曾警告企业高管不要指望人工智能能解决他们的所有问题,并提醒说,生成式人工智能在很大程度上仍处于试验阶段。OpenAI 还正式宣布了辅助微调功能,作为定制模型计划的一部分,OpenAI 员工将帮助客户对 GPT-4 进行微调。定制模型计划允许选定的组织与 OpenAI 研究人员合作,根据其特定需求训练定制的 GPT-4 模型。通过微调,GPT-4 等预训练模型可以通过更小、更有针对性的数据集(如公司的投资组合)学习更多信息。第一个第三方集成是与 Weights & Biases 平台的集成。虽然 OpenAI 以 ChatGPT 而闻名,吸引了日常消费者和希望创建自己版本聊天机器人的品牌,但该公司也与初创企业和更成熟的组织合作,将人工智能驱动的应用和服务引入主流。生成式人工智能时代最早的一些宠儿,如文案撰写平台 Jasper和视频创作公司 Descript,都是利用 OpenAI 的模型构建自己的服务的。 ... PC版: 手机版:

封面图片

斯诺登:OpenAI聘用前安全局局长是蓄意背叛

斯诺登:OpenAI聘用前安全局局长是蓄意背叛 OpenAI引用中曾根拥有世界级的网络安全经验;从 2018 年到 2024 年 2 月,他领导了美国国家安全局和美国网络司令部。该公司现在希望中曾根能帮助 OpenAI 改善其网络安全,包括保护其 AI 超级计算机免受黑客组织的攻击。然而,斯诺登指控 OpenAI 聘用 Nakasone 别有用心。“任命 NSA 局长进入董事会只有一个原因。这是对地球上每个人权利的蓄意背叛。我已经警告过你了。”斯诺登发推表示。斯诺登没有详细说明,但 OpenAI 因其如何收集数据来训练其 AI 模型而受到严格审查。ChatGPT 正在处理来自数千万每天的用户数这也可能使该技术成为一种有价值的监控方式。“我确实认为人工智能的最大应用将是大规模人口监控,因此将美国国家安全局前局长带入 OpenAI 背后有着坚实的逻辑。”安全专家马修·格林发推文说。OpenAI 没有立即回应置评请求。但该公司认为 Nakasone 的聘用完全是为了网络安全和负责任的 AI 开发。旧金山实验室在公告中表示:OpenAI 系统的安全性从保护我们运营的大型 AI 训练超级计算机到保护我们敏感的模型权重和客户委托给我们的数据对于实现我们的使命至关重要。OpenAI 还指出,人工智能有可能为许多经常遭受网络攻击的机构带来巨大利益,例如医院、学校和金融机构。与其他技术提供商一样,该公司能被迫披露用户信息以遵守执法要求,包括用户姓名、联系方式、IP 地址和内容。不过,OpenAI 确实提供了数据控制这可以阻止他们的数据被用于人工智能模型训练目的。相关文章:前美国国家安全局局长加入OpenAI董事会 ... PC版: 手机版:

封面图片

世界卫生组织在周三的一次简报会中敦促中国政府对其奥密克戎疫情更加透明,一些官员质疑中国新冠数据的准确性。

世界卫生组织在周三的一次简报会中敦促中国政府对其奥密克戎疫情更加透明,一些官员质疑中国新冠数据的准确性。 “我们认为,目前中国公布的数字低估了新冠的真正影响……特别是在死亡方面,”WHO突发卫生事件规划执行主任迈克尔·瑞安说,“中国政府对新冠造成的死亡定义过窄”。

封面图片

OpenAI,ChatGPT团队,正在评估是否许可使用其AI技术制造成人内容。虽然确保不会使用深度伪造技术,但引发了对其“打造安

OpenAI,ChatGPT团队,正在评估是否许可使用其AI技术制造成人内容。虽然确保不会使用深度伪造技术,但引发了对其“打造安全AI”的初衷的担忧。提议让开发者和用户制造NSFW内容,引发讨论。这项政策正被深入研究,其结果将深刻影响AI内容的生成方向。 省流:chatgpt可能在以后支持无nsfw限制的API调用服务,不监控用户生成任何数据。 #OpenAI #AI #AI文爱 引用 source #chatgpt

封面图片

苹果公司发表四款开源新模型 有助于提高未来人工智能的准确性

苹果公司发表四款开源新模型 有助于提高未来人工智能的准确性 这些指导模型被称为开源高效 LLMs 或 OpenELMs,托管在协作平台 Hugging Face 上。Hugging Face 用于托管人工智能模型,以及对其进行训练和与他人合作改进。OpenELM 是指一个开源库,它利用进化算法将多个大型语言模型 (LLM) 结合在一起。这四个 OpenELM 模型采用"分层缩放策略",在变压器机器学习模型的各层中分配参数,以提高精确度。这些模型使用 CoreNet 库进行了预训练。苹果公司提供了使用 2.7 亿、4.5 亿、11 亿和 30 亿个参数的预训练和指令调整模型。预训练数据集由 Dolma v1.6 子集、RefinedWeb、重复 PILE 和 RedPajama 子集组合而成。这样得到的数据集约有 1.8 万亿个标记。在本周二发布的一篇相关论文中,该项目的研究人员表示,大型语言模型的可重复性和透明度"对于推进开放式研究至关重要"。它还有助于确保结果的可信度,并允许对模型偏差和风险进行调查。至于模型的准确性,据解释,在使用 10 亿个参数预算的情况下,OpenELM 比 OLMo 的准确性提高了 2.36%,而所需的预训练代币数量仅为 OLMo 的一半。模型和论文的作者包括 Sachin Mehta、Mohammad Hossein Sekhavat、Qingqing Cao、Maxwell Horton、Yanzi Jin、Chenfan Sun、Iman Mirzadeh、Mahyar Najibi、Dmitry Belenko、Peter Zatloukal 和 Mohammad Rastegari。发布这些模型的源代码是苹果公司宣传其人工智能和机器学习发展成果的最新尝试。这并不是苹果公司第一次公开发布人工智能程序。今年10 月,苹果分享了一个名为 Ferret 的开源 LLM,它改进了模型分析图像的方式。今年 4 月,Ferret 的新版本增加了解析应用程序截图中数据点的功能,并能大致了解应用程序的功能。此外,还发布了关于生成式人工智能动画工具和创建人工智能头像的论文。预计 6 月份的 WWDC 将包括苹果产品在人工智能方面的许多进展。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人