微软发布首份 AI 透明度报告:2023 年创建 30 个负责任的 AI 工具

微软发布首份AI透明度报告:2023年创建30个负责任的AI工具微软公司近日发布了新的透明度报告,概述了2023年制定并部署了各种措施,负责任地发布各项生成式产品。微软在《负责任的人工智能透明度报告》中,介绍了在安全部署人工智能产品方面取得的成就,共创建了30个负责任的人工智能工具,扩大了负责任的人工智能团队,并要求开发生成式人工智能应用程序的团队在整个开发周期中衡量和绘制风险。它还正在扩大其红队(渗透测试团队)工作,包括故意尝试绕过其人工智能模型中的安全功能的内部红队,以及红队应用程序,以允许在发布新模型之前进行第三方测试。(IT之家)

相关推荐

封面图片

微软发布首份年度人工智能透明度报告

微软发布首份年度人工智能透明度报告所有这些活动也让许多人感到担忧,认为像微软开发的人工智能工具可能会被用于不道德或非法行为。今天,微软在一篇博客文章中宣布,它已经发布了第一份计划中的年度透明度报告,介绍其目前负责任的人工智能实践。微软总裁BradSmith在博文中表示:这份报告使我们能够分享我们日趋成熟的实践,反思我们所学到的东西,规划我们的目标,对自己负责,并赢得公众的信任。八年来,我们一直在负责任的人工智能领域不断创新,在发展我们的计划的同时,我们也从过去的经验中吸取教训,不断改进。这份PDF格式的报告详细介绍了微软在多个领域为其服务提供负责任的人工智能实践,并对员工进行了使用培训。报告指出:2023年版的《商业行为标准》培训是全公司必修的商业道德课程,涵盖了我们的员工用于安全开发和部署人工智能的资源。截至2023年12月31日,99%的员工完成了这一课程,包括负责任的人工智能模块。微软还成立了负责任的人工智能委员会,定期召开会议,目的是不断改进工作,确保人工智能服务的安全。公司还有一个"负责任的人工智能冠军"计划,要求其成员发现并解决人工智能产品中存在的问题,并就负责任的做法向其他成员提供指导。报告还举例说明了负责任的人工智能程序如何影响其产品的创建和开发。其中一个例子涉及微软Designer,这款人工智能图像创建应用程序据说被不明人士用来制作流行歌手泰勒-斯威夫特(TaylorSwift)的露骨"深度伪造"图像,后来在互联网上疯传。微软说,它要求新闻团体NewsGuard在Designer中输入提示,"创建强化或描绘与政治、国际事务和选举有关的突出虚假叙述的视觉效果"。结果,在Designer创建的图片中,有12%"包含有问题的内容"。微软对Designer进行了修改,试图避免出现这些图片,效果是有问题图片的数量降到了3.6%。了解更多:https://blogs.microsoft.com/on-the-issues/2024/05/01/responsible-ai-transparency-report-2024/...PC版:https://www.cnbeta.com.tw/articles/soft/1429341.htm手机版:https://m.cnbeta.com.tw/view/1429341.htm

封面图片

Meta 公司解散了负责任人工智能团队(RAI)

Meta公司解散了负责任人工智能团队(RAI)Meta经常对外宣称要以负责任的方式开发人工智能,甚至还专门为此设立了一个页面,列出了其"负责任的人工智能支柱",包括问责制、透明度、安全性、隐私等。TheInformation的报道援引Meta公司代表乔恩-卡维尔(JonCarvill)的话说,公司将"继续优先投资于安全、负责任的人工智能开发"。他补充说,虽然公司正在拆分团队,但这些成员将"继续支持跨Meta的相关工作,负责任地开发和使用人工智能"。截至发稿时,Meta公司没有回应置评请求。该团队在今年早些时候已经进行了重组,《商业内幕》(BusinessInsider)在报道中写道,重组包括裁员,这使得RAI成为"一个空壳团队"。该报道还称,RAI团队自2019年起就已存在,但几乎没有自主权,其倡议在实施前必须经过漫长的利益相关者谈判。RAI的创建是为了发现其人工智能训练方法中存在的问题,包括公司的模型是否经过了充分多样化的信息训练,以防止出现平台上的审核问题等。Meta社交平台上的自动化系统已经导致了一些问题,比如Facebook翻译问题导致了一次错误逮捕,WhatsApp人工智能贴纸生成在特定提示下会产生有偏见的图片,Instagram的算法帮助人们找到CSAM有害信息材料。在世界各国政府竞相为人工智能发展设立监管护栏之际,微软也在今年年初采取了类似的举措。美国政府与人工智能公司达成了协议,总统拜登随后指示政府机构制定人工智能安全规则。与此同时,欧盟公布了其人工智能原则,并仍在努力通过其人工智能法案。...PC版:https://www.cnbeta.com.tw/articles/soft/1398015.htm手机版:https://m.cnbeta.com.tw/view/1398015.htm

封面图片

微软更详细地介绍了它计划如何监管运营负责任的人工智能产品

微软更详细地介绍了它计划如何监管运营负责任的人工智能产品3月,作为该公司裁员1万名员工计划的一部分,它关闭了其道德和社会团队。今天,微软首席负责任的人工智能官娜塔莎-克兰普顿在一篇博文中写道,为什么做出这个决定,作为对该公司负责任的人工智能计划进行全面考察的一部分。克兰普顿表示,道德与社会团队"对于使我们能够取得今天的成就非常重要"。然而,她说,微软决定为该公司负责任的人工智能部门进行一些组织上的改变:去年,我们对负责任的人工智能生态系统做了两个关键的改变:首先,我们对负责AzureOpenAI服务的团队进行了关键的新投资,其中包括GPT-4这样的尖端技术;其次,我们将前道德与社会团队成员调入我们的一些用户研究和设计团队,为这些团队注入专业知识。在这些变化之后,我们做出了一个艰难的决定,即结束道德与社会团队的剩余部分,这影响了七个人。任何影响我们同事的决定都是不容易的,但这是在我们对最有效的组织结构的经验指导下做出的决定,以确保我们负责任的人工智能实践在整个公司得到采用。克兰普顿说,微软现在有350人以某种身份从事负责任的人工智能工作。在这个数字中,有129名员工是全职的,只是在这个主题上工作,其余的人把负责任的人工智能作为他们职责的主要部分。她补充说,微软有计划雇用新员工,并将一些现有员工调到全职从事负责任的人工智能工作,"在未来几个月内",将有更多关于这些努力的消息披露。这篇博文还谈到了微软的责任人工智能理事会,该理事会定期开会讨论这些议题。该委员会由该公司总裁布拉德-史密斯和首席技术官凯文-斯科特担任主席。它还谈到了微软如何努力在该公司所有部门投入负责任的人工智能道德规范。克兰普顿表示:我们有高级领导人负责在每个核心业务集团内带头负责任的人工智能,我们不断培训和发展一个由负责任的人工智能"冠军"组成的大型网络,他们有各种技能和角色,可以更经常地直接参与。虽然所有这些计划听起来像微软正在认真对待许多人对人工智能崛起的担忧,但我们将不得不看看该公司在未来几个月和几年里的行动是否会与它的言论一样。...PC版:https://www.cnbeta.com.tw/articles/soft/1357733.htm手机版:https://m.cnbeta.com.tw/view/1357733.htm

封面图片

英国制定规则 提高人工智能模型训练透明度

英国制定规则提高人工智能模型训练透明度据英国金融时报,英国部长们正在制定计划,以提高科技公司训练人工智能模型的透明度。此前,创意产业对未经许可或付费的作品被复制和使用表示担忧。英国文化大臣弗雷泽表示,政府将首次尝试针对人工智能团体使用电视节目、书籍和音乐等材料制定规则。弗雷泽称,部长们最初将把重点放在确保人工智能开发人员使用哪些内容来训练他们的模型上,以提高透明度,这实际上将使该行业能够看到其生产的成果是否被剽窃。

封面图片

研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度或将加大监管难度一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama2”,得分为54%。推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。谷歌推出的“PaLM2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude2”人工智能模型(36%)。斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。”此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。”这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

封面图片

OPENAI 探索如何负责任地制作 AI 色情作品

OPENAI探索如何负责任地制作AI色情作品人工智能公司OPENAI周三透露,正在探索如何“负责任地”允许用户制作人工智能生成的色情内容和其他露骨内容。在该公司产品规则反馈文件中:“我们正在探索是否可以通过API和ChatGPT负责任地提供在适合年龄的环境中生成NSFW内容的功能。”帮助撰写该文件的OPENAI产品负责人JoanneJang在接受采访时表示,该公司希望就其人工智能产品中是否应该始终禁止色情文字和裸照展开讨论。Jang说:“我们希望确保人们在不违反法律或其他人权利的情况下拥有最大程度的控制权,但前提是不得使用深度伪造。”“这并不意味着我们现在正在尝试开发相关内容。”——、

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人