研究:人工智能模型缺乏透明度 或将加大监管难度
研究:人工智能模型缺乏透明度或将加大监管难度一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama2”,得分为54%。推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。谷歌推出的“PaLM2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude2”人工智能模型(36%)。斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。”此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。”这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人