研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度或将加大监管难度一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama2”,得分为54%。推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。谷歌推出的“PaLM2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude2”人工智能模型(36%)。斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。”此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。”这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

相关推荐

封面图片

英国制定规则 提高人工智能模型训练透明度

英国制定规则提高人工智能模型训练透明度据英国金融时报,英国部长们正在制定计划,以提高科技公司训练人工智能模型的透明度。此前,创意产业对未经许可或付费的作品被复制和使用表示担忧。英国文化大臣弗雷泽表示,政府将首次尝试针对人工智能团体使用电视节目、书籍和音乐等材料制定规则。弗雷泽称,部长们最初将把重点放在确保人工智能开发人员使用哪些内容来训练他们的模型上,以提高透明度,这实际上将使该行业能够看到其生产的成果是否被剽窃。

封面图片

斯坦福大学研究表明世界上最大的人工智能模型并不很透明

斯坦福大学研究表明世界上最大的人工智能模型并不很透明今天,斯坦福HAI发布了其基础模型透明度指数,该指数追踪10个最受欢迎的人工智能模型的创建者是否披露有关其工作以及人们如何使用其系统的信息。在其测试的模型中,Meta的Llama2得分最高,其次是BloomZ,然后是OpenAI的GPT-4。但事实证明,他们都没有得到特别高的分数。其他评估的模型包括Stability的StableDiffusion、Anthropic的Claude、Google的PaLM2、Cohere的Command、AI21Labs的Jurassic2、Inflection的Inflection-1和Amazon的Titan。研究人员承认,透明度可以是一个相当广泛的概念。他们的定义基于100个指标,这些指标提供有关模型如何构建、模型如何工作以及人们如何使用模型的信息。他们解析了有关该模型的公开信息,并给每个人打分,指出这些公司是否披露了合作伙伴和第三方开发商,是否告诉客户他们的模型是否使用了私人信息,以及一系列其他问题。随着该公司发布了对模型创建的研究,Meta得分为53%,在模型基础知识上得分最高。开源模型BloomZ紧随其后,获得了50%的支持,GPT-4获得了47%的支持——尽管OpenAI的设计方法相对锁定,但它与稳定扩散并列。OpenAI拒绝公布其大部分研究成果,也没有透露数据源,但GPT-4却成功排名靠前,因为有大量有关其合作伙伴的可用信息。OpenAI与许多不同的公司合作,将GPT-4集成到他们的产品中,产生了大量可供查看的公开细节。然而,斯坦福大学的研究人员发现,这些模型的创建者都没有透露任何有关社会影响的信息,包括向何处提出隐私、版权或偏见投诉。斯坦福大学基础模型研究中心的学会负责人、该指数的研究人员之一RishiBommasani表示,该指数的目标是为政府和公司提供基准。一些拟议的法规,例如欧盟的人工智能法案,可能很快就会迫使大型基础模型的开发商提供透明度报告。“我们试图通过该指数实现的目标是使模型更加透明,并将非常不明确的概念分解为可以测量的更具体的事物,”博马萨尼说。该小组专注于每个公司的一种模型,以便更容易进行比较。生成式人工智能拥有一个庞大而活跃的开源社区,但该领域的一些最大的公司并没有公开分享研究成果或他们的代码。尽管OpenAI的名称中有“开放”一词,但它以竞争和安全问题为由,不再分发其研究成果。Bommasani表示,该组织对扩大该指数的范围持开放态度,但与此同时,将坚持使用已经评估过的10个基础模型。...PC版:https://www.cnbeta.com.tw/articles/soft/1390877.htm手机版:https://m.cnbeta.com.tw/view/1390877.htm

封面图片

微软发布首份年度人工智能透明度报告

微软发布首份年度人工智能透明度报告所有这些活动也让许多人感到担忧,认为像微软开发的人工智能工具可能会被用于不道德或非法行为。今天,微软在一篇博客文章中宣布,它已经发布了第一份计划中的年度透明度报告,介绍其目前负责任的人工智能实践。微软总裁BradSmith在博文中表示:这份报告使我们能够分享我们日趋成熟的实践,反思我们所学到的东西,规划我们的目标,对自己负责,并赢得公众的信任。八年来,我们一直在负责任的人工智能领域不断创新,在发展我们的计划的同时,我们也从过去的经验中吸取教训,不断改进。这份PDF格式的报告详细介绍了微软在多个领域为其服务提供负责任的人工智能实践,并对员工进行了使用培训。报告指出:2023年版的《商业行为标准》培训是全公司必修的商业道德课程,涵盖了我们的员工用于安全开发和部署人工智能的资源。截至2023年12月31日,99%的员工完成了这一课程,包括负责任的人工智能模块。微软还成立了负责任的人工智能委员会,定期召开会议,目的是不断改进工作,确保人工智能服务的安全。公司还有一个"负责任的人工智能冠军"计划,要求其成员发现并解决人工智能产品中存在的问题,并就负责任的做法向其他成员提供指导。报告还举例说明了负责任的人工智能程序如何影响其产品的创建和开发。其中一个例子涉及微软Designer,这款人工智能图像创建应用程序据说被不明人士用来制作流行歌手泰勒-斯威夫特(TaylorSwift)的露骨"深度伪造"图像,后来在互联网上疯传。微软说,它要求新闻团体NewsGuard在Designer中输入提示,"创建强化或描绘与政治、国际事务和选举有关的突出虚假叙述的视觉效果"。结果,在Designer创建的图片中,有12%"包含有问题的内容"。微软对Designer进行了修改,试图避免出现这些图片,效果是有问题图片的数量降到了3.6%。了解更多:https://blogs.microsoft.com/on-the-issues/2024/05/01/responsible-ai-transparency-report-2024/...PC版:https://www.cnbeta.com.tw/articles/soft/1429341.htm手机版:https://m.cnbeta.com.tw/view/1429341.htm

封面图片

英国政府正在制定提高人工智能训练数据透明度的规则

英国政府正在制定提高人工智能训练数据透明度的规则访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器《金融时报》在对弗雷泽的采访中发现了这一计划。虽然她概述了总体计划,但她不愿透露有关权利人如何检查其材料是否被人工智能模型使用的细节。知情人士透露,政府将在秋季大选前提出建议。这将使利益相关者能够对提案做出回应,并在提案被通过成为法律之前提出建议或修改意见。据《金融时报》报道,欧盟正在根据其人工智能法案制定类似的规则。根据该法案,人工智能开发者将需要提供一份足够详细的培训内容概要,并实施相关政策,以确保他们的操作符合欧盟版权法的规定。像OpenAI这样的人工智能公司已经预料到政府会怎么做,并已与数据提供商达成协议。最近几周,OpenAI宣布与Reddit、StackOverflow和《金融时报》合作,帮助其训练模型。此举将受到声称其权利受到侵犯的权利人的欢迎,然而,对于这些人工智能模型的用户来说,由于知识差距,此举可能会导致质量下降。人工智能公司声称,他们可以根据合理使用规则使用这些数据,因为他们对数据的使用是变革性的。最终,我们将不得不等待法院和政治家们的跟进,看看舆论到底是站在权利人一边,还是站在人工智能开发者一边。...PC版:https://www.cnbeta.com.tw/articles/soft/1431493.htm手机版:https://m.cnbeta.com.tw/view/1431493.htm

封面图片

微软发布首份 AI 透明度报告:2023 年创建 30 个负责任的 AI 工具

微软发布首份AI透明度报告:2023年创建30个负责任的AI工具微软公司近日发布了新的透明度报告,概述了2023年制定并部署了各种措施,负责任地发布各项生成式产品。微软在《负责任的人工智能透明度报告》中,介绍了在安全部署人工智能产品方面取得的成就,共创建了30个负责任的人工智能工具,扩大了负责任的人工智能团队,并要求开发生成式人工智能应用程序的团队在整个开发周期中衡量和绘制风险。它还正在扩大其红队(渗透测试团队)工作,包括故意尝试绕过其人工智能模型中的安全功能的内部红队,以及红队应用程序,以允许在发布新模型之前进行第三方测试。(IT之家)

封面图片

艺术家批评苹果在 Apple Intelligence 数据方面缺乏透明度

艺术家批评苹果在AppleIntelligence数据方面缺乏透明度创意人士历来是苹果最忠实的客户,而苹果乔布斯曾将公司定位为“技术与文科的交汇点”。但接受采访的摄影师、概念艺术家和雕塑家表示,他们对苹果在如何收集人工智能模型数据方面的相对沉默感到沮丧。加拿大温哥华的电子游戏艺术家、创作者权利活动家JonLam表示,“我希望苹果公司能以更加透明的方式向公众解释他们是如何收集训练数据的,我认为他们的声明来得太不是时候了。一些创意人员认为苹果可能会做得更好。这就是为什么我想给他们一点信任,我认为他们会以不同的方式看待道德问题。”相反,苹果很少透露AppleIntelligence训练数据来源的信息。苹果人工智能和机器学习负责人约翰·詹南德雷亚称,“大量训练数据实际上是苹果创建的”,但没有透露具体细节。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人