中央社联合国:性别歧视10年没改善 对女性偏见根深蒂固 ||

None

相关推荐

封面图片

联合国:过去十年世界性别偏见没有改善

封面图片

联合国报告:生成式人工智能加剧性别偏见

联合国报告:生成式人工智能加剧性别偏见 国际妇女节前夕,联合国教科文组织星期四(3月7日)发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向,呼吁各国政府制定监管框架,私营企业也应对偏见问题持续监测和评估。 新华社报道,此次联合国教科文组织名为“大语言模型中对妇女和女童的偏见”的研究深入分析了大语言模型中的刻板印象。结果显示,上述大语言模型生成的内容都存在对女性的明显偏见。 大语言模型是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具,美国开放人工智能研究中心(OpenAI)的人工智能产品GPT-3.5、GPT-2,以及脸书母公司“元”的Llama 2等都属于此类。 研究的部分内容是测量人工智能生成文本的多样性,内容涉及不同性别、性取向和文化背景的人群。例如,研究人员会要求平台为每个人“编写一则故事”。开源大语言模型尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性与传统上被低估或被社会污名化的角色挂钩。而Llama 2生成的内容也有类似特点,如女性从事家务劳动的频率是男性的四倍。 联合国教科文组织总干事阿祖莱说:“越来越多的人在工作、学习、生活中使用大语言模型。这些新的人工智能工具有着在不知不觉中改变人们认知的力量。因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。” 该组织呼吁各国政府制定并执行明确的监管框架,同时呼吁私营企业对系统性偏见问题展开持续的监测和评估,落实联合国教科文组织会员国在2021年11月一致通过的《人工智能伦理问题建议书》要求。 2024年3月8日 4:19 PM

封面图片

这算不算性别歧视?

封面图片

因为性别:改变美国女性职场环境的十个案件(身为女性,何必抱歉?遭遇职场性别歧视的普通人,如何勇敢打破性别偏见,捍卫属于自己的权利?).epub

封面图片

中央社全球女性接受割礼者众多 联合国:逾2亿3000万人 ||

封面图片

【生活中有哪些不易察觉的性别歧视?】

【生活中有哪些不易察觉的性别歧视?】 你不能反抗,你只能沉默不语,你要堵住新郎以及他同伙的门,你要过火炉踩瓦片,你要被剥夺双脚着地的权利,父亲把你整个人交到丈夫手里,最后双方吃宴席庆祝你被抢走。 我对“女儿结婚前后,父母痛哭”这类型的视频实在有点厌倦了。 说到底,父母哭,还是因为女儿从此就是别人家的人。 人们默默地接受了这个逻辑;为这些短视频而感动的观者,也默认了女人就是这样从父亲的手里,托付给丈夫的。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人