微软发布首份年度人工智能透明度报告

微软发布首份年度人工智能透明度报告所有这些活动也让许多人感到担忧,认为像微软开发的人工智能工具可能会被用于不道德或非法行为。今天,微软在一篇博客文章中宣布,它已经发布了第一份计划中的年度透明度报告,介绍其目前负责任的人工智能实践。微软总裁BradSmith在博文中表示:这份报告使我们能够分享我们日趋成熟的实践,反思我们所学到的东西,规划我们的目标,对自己负责,并赢得公众的信任。八年来,我们一直在负责任的人工智能领域不断创新,在发展我们的计划的同时,我们也从过去的经验中吸取教训,不断改进。这份PDF格式的报告详细介绍了微软在多个领域为其服务提供负责任的人工智能实践,并对员工进行了使用培训。报告指出:2023年版的《商业行为标准》培训是全公司必修的商业道德课程,涵盖了我们的员工用于安全开发和部署人工智能的资源。截至2023年12月31日,99%的员工完成了这一课程,包括负责任的人工智能模块。微软还成立了负责任的人工智能委员会,定期召开会议,目的是不断改进工作,确保人工智能服务的安全。公司还有一个"负责任的人工智能冠军"计划,要求其成员发现并解决人工智能产品中存在的问题,并就负责任的做法向其他成员提供指导。报告还举例说明了负责任的人工智能程序如何影响其产品的创建和开发。其中一个例子涉及微软Designer,这款人工智能图像创建应用程序据说被不明人士用来制作流行歌手泰勒-斯威夫特(TaylorSwift)的露骨"深度伪造"图像,后来在互联网上疯传。微软说,它要求新闻团体NewsGuard在Designer中输入提示,"创建强化或描绘与政治、国际事务和选举有关的突出虚假叙述的视觉效果"。结果,在Designer创建的图片中,有12%"包含有问题的内容"。微软对Designer进行了修改,试图避免出现这些图片,效果是有问题图片的数量降到了3.6%。了解更多:https://blogs.microsoft.com/on-the-issues/2024/05/01/responsible-ai-transparency-report-2024/...PC版:https://www.cnbeta.com.tw/articles/soft/1429341.htm手机版:https://m.cnbeta.com.tw/view/1429341.htm

相关推荐

封面图片

微软发布首份 AI 透明度报告:2023 年创建 30 个负责任的 AI 工具

微软发布首份AI透明度报告:2023年创建30个负责任的AI工具微软公司近日发布了新的透明度报告,概述了2023年制定并部署了各种措施,负责任地发布各项生成式产品。微软在《负责任的人工智能透明度报告》中,介绍了在安全部署人工智能产品方面取得的成就,共创建了30个负责任的人工智能工具,扩大了负责任的人工智能团队,并要求开发生成式人工智能应用程序的团队在整个开发周期中衡量和绘制风险。它还正在扩大其红队(渗透测试团队)工作,包括故意尝试绕过其人工智能模型中的安全功能的内部红队,以及红队应用程序,以允许在发布新模型之前进行第三方测试。(IT之家)

封面图片

微软更详细地介绍了它计划如何监管运营负责任的人工智能产品

微软更详细地介绍了它计划如何监管运营负责任的人工智能产品3月,作为该公司裁员1万名员工计划的一部分,它关闭了其道德和社会团队。今天,微软首席负责任的人工智能官娜塔莎-克兰普顿在一篇博文中写道,为什么做出这个决定,作为对该公司负责任的人工智能计划进行全面考察的一部分。克兰普顿表示,道德与社会团队"对于使我们能够取得今天的成就非常重要"。然而,她说,微软决定为该公司负责任的人工智能部门进行一些组织上的改变:去年,我们对负责任的人工智能生态系统做了两个关键的改变:首先,我们对负责AzureOpenAI服务的团队进行了关键的新投资,其中包括GPT-4这样的尖端技术;其次,我们将前道德与社会团队成员调入我们的一些用户研究和设计团队,为这些团队注入专业知识。在这些变化之后,我们做出了一个艰难的决定,即结束道德与社会团队的剩余部分,这影响了七个人。任何影响我们同事的决定都是不容易的,但这是在我们对最有效的组织结构的经验指导下做出的决定,以确保我们负责任的人工智能实践在整个公司得到采用。克兰普顿说,微软现在有350人以某种身份从事负责任的人工智能工作。在这个数字中,有129名员工是全职的,只是在这个主题上工作,其余的人把负责任的人工智能作为他们职责的主要部分。她补充说,微软有计划雇用新员工,并将一些现有员工调到全职从事负责任的人工智能工作,"在未来几个月内",将有更多关于这些努力的消息披露。这篇博文还谈到了微软的责任人工智能理事会,该理事会定期开会讨论这些议题。该委员会由该公司总裁布拉德-史密斯和首席技术官凯文-斯科特担任主席。它还谈到了微软如何努力在该公司所有部门投入负责任的人工智能道德规范。克兰普顿表示:我们有高级领导人负责在每个核心业务集团内带头负责任的人工智能,我们不断培训和发展一个由负责任的人工智能"冠军"组成的大型网络,他们有各种技能和角色,可以更经常地直接参与。虽然所有这些计划听起来像微软正在认真对待许多人对人工智能崛起的担忧,但我们将不得不看看该公司在未来几个月和几年里的行动是否会与它的言论一样。...PC版:https://www.cnbeta.com.tw/articles/soft/1357733.htm手机版:https://m.cnbeta.com.tw/view/1357733.htm

封面图片

研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度或将加大监管难度一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama2”,得分为54%。推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。谷歌推出的“PaLM2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude2”人工智能模型(36%)。斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。”此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。”这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

封面图片

OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发

OpenAI、谷歌、微软和Anthropic组成联合机构来监督安全的“前沿人工智能”开发四家卓越的人工智能参与者正在联合组建一个新的行业机构,旨在确保所谓的“前沿人工智能”模型的“安全和负责任的开发”。为了回应日益增长的监管呼声,ChatGPT的开发者OpenAI、微软、谷歌和Anthropic宣布成立FrontierModelForum,这个联盟将借助成员公司的专业知识来开发技术评估和基准,并促进最佳实践和标准。Forum的核心目标是:1、推进人工智能安全研究,促进前沿模型的负责任开发,降低风险,实现独立的标准化能力和安全评估。2、确定负责任地开发和部署前沿模型的最佳实践,帮助公众理解该技术的性质、能力、限制和影响。3、与决策者、学者、民间社会和公司合作,共享有关信任和安全风险的知识。4、支持开发有助于应对社会最大挑战的应用程序,如应对气候变化、早期癌症检测和预防以及打击网络威胁。尽管FrontierModelForum目前只有四名成员,但该团体表示正在向新成员开放。符合资格的组织应该开发和部署前沿人工智能模型,并展示对“前沿模型安全”有着坚定的承诺。——

封面图片

英国制定规则 提高人工智能模型训练透明度

英国制定规则提高人工智能模型训练透明度据英国金融时报,英国部长们正在制定计划,以提高科技公司训练人工智能模型的透明度。此前,创意产业对未经许可或付费的作品被复制和使用表示担忧。英国文化大臣弗雷泽表示,政府将首次尝试针对人工智能团体使用电视节目、书籍和音乐等材料制定规则。弗雷泽称,部长们最初将把重点放在确保人工智能开发人员使用哪些内容来训练他们的模型上,以提高透明度,这实际上将使该行业能够看到其生产的成果是否被剽窃。

封面图片

英国政府正在制定提高人工智能训练数据透明度的规则

英国政府正在制定提高人工智能训练数据透明度的规则访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器《金融时报》在对弗雷泽的采访中发现了这一计划。虽然她概述了总体计划,但她不愿透露有关权利人如何检查其材料是否被人工智能模型使用的细节。知情人士透露,政府将在秋季大选前提出建议。这将使利益相关者能够对提案做出回应,并在提案被通过成为法律之前提出建议或修改意见。据《金融时报》报道,欧盟正在根据其人工智能法案制定类似的规则。根据该法案,人工智能开发者将需要提供一份足够详细的培训内容概要,并实施相关政策,以确保他们的操作符合欧盟版权法的规定。像OpenAI这样的人工智能公司已经预料到政府会怎么做,并已与数据提供商达成协议。最近几周,OpenAI宣布与Reddit、StackOverflow和《金融时报》合作,帮助其训练模型。此举将受到声称其权利受到侵犯的权利人的欢迎,然而,对于这些人工智能模型的用户来说,由于知识差距,此举可能会导致质量下降。人工智能公司声称,他们可以根据合理使用规则使用这些数据,因为他们对数据的使用是变革性的。最终,我们将不得不等待法院和政治家们的跟进,看看舆论到底是站在权利人一边,还是站在人工智能开发者一边。...PC版:https://www.cnbeta.com.tw/articles/soft/1431493.htm手机版:https://m.cnbeta.com.tw/view/1431493.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人