研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度 或将加大监管难度 一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。 法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。 得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama 2”,得分为54%。 推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。 谷歌推出的“PaLM 2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude 2”人工智能模型(36%)。 斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。 研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。” 此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。” 这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

相关推荐

封面图片

微软发布首份年度人工智能透明度报告

微软发布首份年度人工智能透明度报告 所有这些活动也让许多人感到担忧,认为像微软 开发的人工智能工具可能会被用于不道德或非法行为。今天,微软在一篇博客文章中宣布,它已经发布了第一份计划中的年度透明度报告,介绍其目前负责任的人工智能实践。微软总裁 Brad Smith 在博文中表示:这份报告使我们能够分享我们日趋成熟的实践,反思我们所学到的东西,规划我们的目标,对自己负责,并赢得公众的信任。八年来,我们一直在负责任的人工智能领域不断创新,在发展我们的计划的同时,我们也从过去的经验中吸取教训,不断改进。这份PDF格式的报告详细介绍了微软 在多个领域为其服务提供负责任的人工智能实践,并对员工进行了使用培训。报告指出:2023 年版的《商业行为标准》培训是全公司必修的商业道德课程,涵盖了我们的员工用于安全开发和部署人工智能的资源。截至 2023 年 12 月 31 日,99% 的员工完成了这一课程,包括负责任的人工智能模块。微软还成立了负责任的人工智能委员会,定期召开会议,目的是不断改进工作,确保人工智能服务的安全。公司还有一个"负责任的人工智能冠军"计划,要求其成员发现并解决人工智能产品中存在的问题,并就负责任的做法向其他成员提供指导。报告还举例说明了负责任的人工智能程序如何影响其产品的创建和开发。其中一个例子涉及微软 Designer,这款人工智能图像创建应用程序据说被不明人士用来制作流行歌手泰勒-斯威夫特(Taylor Swift)的露骨"深度伪造"图像,后来在互联网上疯传。微软说,它要求新闻团体 NewsGuard 在 Designer 中输入提示,"创建强化或描绘与政治、国际事务和选举有关的突出虚假叙述的视觉效果"。结果,在 Designer 创建的图片中,有 12%"包含有问题的内容"。微软对 Designer 进行了修改,试图避免出现这些图片,效果是有问题图片的数量降到了3.6%。了解更多: ... PC版: 手机版:

封面图片

欧盟发布通用人工智能模型监管指南初稿

欧盟发布通用人工智能模型监管指南初稿 ​周四,欧盟发布了通用人工智能 (GPAI) 模型实践准则的初稿。该文件要到五月才会最终定稿,其中列出了管理风险的指导方针,并为企业提供了遵守规定并避免巨额处罚的蓝图。欧盟的《人工智能法案》于今年8月1日生效,但为日后确定 GPAI 法规的具体细节留下了空间。这份初稿首次尝试明确对这些更先进模型的期望,让利益相关者有时间在法规生效前提交反馈并进行完善。GPAI 是指训练时总计算能力超过10²⁵ FLOPs的模型。预计受欧盟指导方针约束的公司包括 OpenAI、谷歌、Meta、Anthropic 和 Mistral。文件涉及 GPAI 制造商几个核心领域:透明度、版权合规性、风险评估以及技术/治理风险缓解。 Engadget-电报频道- #娟姐新闻:@juanjienews

封面图片

英国政府正在制定提高人工智能训练数据透明度的规则

英国政府正在制定提高人工智能训练数据透明度的规则 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 《金融时报》在对弗雷泽的采访中发现了这一计划。虽然她概述了总体计划,但她不愿透露有关权利人如何检查其材料是否被人工智能模型使用的细节。知情人士透露,政府将在秋季大选前提出建议。这将使利益相关者能够对提案做出回应,并在提案被通过成为法律之前提出建议或修改意见。据《金融时报》报道,欧盟正在根据其人工智能法案制定类似的规则。根据该法案,人工智能开发者将需要提供一份足够详细的培训内容概要,并实施相关政策,以确保他们的操作符合欧盟版权法的规定。像 OpenAI 这样的人工智能公司已经预料到政府会怎么做,并已与数据提供商达成协议。最近几周,OpenAI 宣布与Reddit、Stack Overflow 和《金融时报》合作,帮助其训练模型。此举将受到声称其权利受到侵犯的权利人的欢迎,然而,对于这些人工智能模型的用户来说,由于知识差距,此举可能会导致质量下降。人工智能公司声称,他们可以根据合理使用规则使用这些数据,因为他们对数据的使用是变革性的。最终,我们将不得不等待法院和政治家们的跟进,看看舆论到底是站在权利人一边,还是站在人工智能开发者一边。 ... PC版: 手机版:

封面图片

多家新闻机构签署并发布了一封公开信,呼吁提高人工智能的透明度并加强版权保护。

多家新闻机构签署并发布了一封公开信,呼吁提高人工智能的透明度并加强版权保护。 多家媒体组织呼吁制定规则,保护用于训练生成人工智能模型的数据的版权。 这封敦促全球立法者考虑制定法规,要求训练数据集透明,并在使用数据进行训练前征得权利人的同意。他们还要求允许媒体公司与人工智能模型运营商进行谈判,识别人工智能生成的内容,并要求人工智能公司消除其服务中的偏见和错误信息。 这些签署者表示,使用媒体内容训练的基础模型在传播信息时“完全没有考虑原始创作者的报酬或归属”。 信中写道:“这种做法破坏了媒体行业的核心商业模式,这些模式是建立在读者和观众(如订阅)、许可和广告基础上的。”“除了违反版权法之外,由此产生的影响还减少媒体的多样性,并削弱公司投资媒体报道的财务可行性,进一步降低公众获取高质量和可信任信息的途径。”

封面图片

【Vitalik Buterin:AI不透明,加密货币可带来透明度】

【Vitalik Buterin:AI不透明,加密货币可带来透明度】 以太坊联合创始人 Vitalik Buterin 与 Worldcoin 和 Modulus Labs 团队联合发布最新博客文章《加密+人工智能应用的前景和挑战》(The promise and challenges of crypto + AI applications),文章指出,加密货币和人工智能是过去十年的两个主要深度(软件)技术趋势,感觉两者之间一定存在某种联系。从表面上看,很容易产生协同效应:加密货币去中心化可以平衡人工智能中心化,人工智能是不透明的,加密货币带来透明度,人工智能需要数据,而区块链有利于存储和跟踪数据。VitalikButerin 将人工智能分为四类: -人工智能作为游戏中的玩家[最高生存能力]:人工智能参与的机制中,激励的最终来源来自于人类输入的协议。 -人工智能作为游戏界面[潜力巨大,但也存在风险]:人工智能帮助用户了解周围的加密世界,并确保他们的行为(即签名消息和交易)符合他们的意图,并且不会被欺骗或被骗。 -人工智能作为游戏规则[非常小心]:区块链、DAO 和直接调用人工智能的类似机制。 -人工智能作为游戏的目标[长期但有趣]:设计区块链、DAO 和类似机制,目标是构建和维护可用于其他目的的人工智能,使用加密货币来更好地激励培训或防止人工智能泄露隐私数据或被滥用。 最具挑战性的是尝试使用区块链和加密技术来创建“单例”的应用程序:某些应用程序出于某种目的而依赖的单个去中心化可信人工智能,这些应用程序在功能和提高人工智能安全性方面都有希望,避免与解决该问题的更主流方法相关的中心化风险。 快讯/广告 联系 @xingkong888885

封面图片

英国投资1亿英镑用于人工智能研究和监管

英国投资1亿英镑用于人工智能研究和监管 英国政府当地时间周二表示,将斥资超1亿英镑设立9个新的人工智能研究中心,并为监管人员提供技术培训。英国政府表示,近9000万英镑将用于专注在医疗保健、化学和数学等领域使用人工智能的研究中心,并与美国就负责任AI开展合作。另外1000万英镑将用于帮助监管机构应对人工智能风险和利用人工智能带来的机遇,例如开发实用工具监控电信、医疗、金融和教育等领域的风险。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人