联合国报告:生成式人工智能加剧性别偏见

联合国报告:生成式人工智能加剧性别偏见 国际妇女节前夕,联合国教科文组织星期四(3月7日)发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向,呼吁各国政府制定监管框架,私营企业也应对偏见问题持续监测和评估。 新华社报道,此次联合国教科文组织名为“大语言模型中对妇女和女童的偏见”的研究深入分析了大语言模型中的刻板印象。结果显示,上述大语言模型生成的内容都存在对女性的明显偏见。 大语言模型是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具,美国开放人工智能研究中心(OpenAI)的人工智能产品GPT-3.5、GPT-2,以及脸书母公司“元”的Llama 2等都属于此类。 研究的部分内容是测量人工智能生成文本的多样性,内容涉及不同性别、性取向和文化背景的人群。例如,研究人员会要求平台为每个人“编写一则故事”。开源大语言模型尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性与传统上被低估或被社会污名化的角色挂钩。而Llama 2生成的内容也有类似特点,如女性从事家务劳动的频率是男性的四倍。 联合国教科文组织总干事阿祖莱说:“越来越多的人在工作、学习、生活中使用大语言模型。这些新的人工智能工具有着在不知不觉中改变人们认知的力量。因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。” 该组织呼吁各国政府制定并执行明确的监管框架,同时呼吁私营企业对系统性偏见问题展开持续的监测和评估,落实联合国教科文组织会员国在2021年11月一致通过的《人工智能伦理问题建议书》要求。 2024年3月8日 4:19 PM

相关推荐

封面图片

联合国教科文组织吁规范生成式AI在教育中的应用

联合国教科文组织吁规范生成式AI在教育中的应用 联合国教科文组织呼吁各国政府通过制定法规、培训教师等,规范生成式人工智能(AI)在教育中的应用。 新华社报道,联合国教科文组织星期四(9月7日)发布《》(简称“《指南》”)。 据介绍,《指南》以2021年发布的教科文组织《人工智能伦理问题建议书》和2019年发布的《北京共识人工智能与教育》为基础,旨在推动人的能动性、包容、公平、性别平等以及文化和语言多样性。 《指南》解释了生成式人工智能的定义,阐述了生成式人工智能引发的争议及其对教育的影响,尤其是它如何加剧数字鸿沟,列出了各国政府为规范生成式人工智能应采取的关键步骤,并为在教育和研究中以符合伦理要求的方式应用生成式人工智能建立政策框架。 《指南》建议,将在课堂里使用人工智能工具的最低年龄设定为13岁,并呼吁对教师进行相关培训。 联合国教科文组织总干事阿祖莱说:“生成式人工智能可为人类发展带来巨大机遇,但也可能造成伤害和偏见。如果缺乏公众参与以及政府的必要保障和监管,人工智能就不能融入教育。教科文组织的这份指南将帮助政策制定者和教师从学生的基本利益出发,充分发挥人工智能潜能。” 联合国教科文组织9月4日至7日在法国巴黎总部举办“数字学习周”,重点讨论公共数字学习平台和生成式人工智能等议题,并于7日发布《教育与研究领域生成式人工智能指南》。

封面图片

联合国教科文组织2月举办全球人工智能论坛

联合国教科文组织2月举办全球人工智能论坛 联合国教科文组织将于2月5日至6日在斯洛文尼亚克拉尼举办全球人工智能论坛。 新华社报道,联合国教科文组织星期四(1月25日)说,全球人工智能(AI)论坛将评估全球AI治理进展,并讨论各国正在制定的相关法规,从而确保这项技术服务于人类共同利益。 据悉,在本次论坛上,194个教科文组织会员国将报告在AI领域的最新进展和当前项目,还将通过分享各自的最优监管实践来加强合作,并确保这项技术为共同利益服务。 论坛期间,约10个全球性私营集团将签署教科文组织相关文件,承诺遵守其中规定的伦理原则。这一做法是教科文组织推动私营部门实施伦理实践的一部分,以发展可信赖的技术。教科文组织还将推出与AI伦理相关的一系列新倡议。 2021年11月,联合国教科文组织通过《AI伦理问题建议书》,这是该组织正式通过的首份AI伦理问题全球性协议。 2024年1月26日 1:46 PM

封面图片

联合国警告称,在大脑中植入不受监管的人工智能芯片可能会威胁到你的心理隐私

联合国警告称,在大脑中植入不受监管的人工智能芯片可能会威胁到你的心理隐私 据法新社报道,联合国对神经技术的“潜在有害”进步发出了警告,认为大脑植入和扫描可能会让人工智能侵犯人类的私人思想。  联合国教育、科学及文化组织经济学家玛丽亚格拉齐亚·斯奎恰里尼 (Mariagrazia Squicciarini) 告诉法新社:“这就像给神经技术注射了类固醇。” 随着人工智能增强神经技术领域,它需要监管。联合国教科文组织负责社会和人文科学的助理总干事加布里埃拉·拉莫斯告诉法新社,这项技术具有“影响深远且可能有害”的能力。 “神经技术可以帮助解决许多健康问题,但它也可以进入和操纵人们的大脑,并产生有关我们的身份和情感的信息。它可能威胁我们的人类尊严、思想自由和隐私权,”联合国教科文组织总干事奥黛丽·阿祖莱在六月提出“国际层面的共同道德框架”时 表示。

封面图片

网站生成式人工智能手册

网站生成式人工智能手册 网站功能:人工智能学习手册 网站简介:一个免费、开源的学习资源,旨在系统地组织和呈现现代人工智能(AI)系统的核心概念,尤其是大型语言模型(LLM)和其他生成式模型的最新进展。 该手册为技术背景的读者提供了一条学习路径,帮助他们深入理解生成式AI的基础和应用,特别适合那些对AI充满好奇或希望在该领域发展职业的人士。 网站链接:点击打开 频道 群聊 投稿 商务

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

【书名】生成式人工智能

【书名】生成式人工智能 【作者】丁磊 【格式】#epub #mobi #azw3 #pdf 【分类】#人工智能 #科普 【简介】本书基于作者的专业背景和长期实践,系统介绍生成式人工智能的内在逻辑与应用,并将其与产业发展,理论和实际相结合,帮助读者从本源了解生成式人工智能,结合未来趋势和发展为读者指明方向。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人