中央社联合国:性别歧视10年没改善对女性偏见根深蒂固

None

相关推荐

封面图片

联合国:性别歧视10年没改善对女性偏见根深蒂固根据联合国公布的报告,性别不平等的状况在过去10年间一直处于停滞状态,随着文化偏见和压力持续阻碍女性赋权,世界难以达成联合国在2030年前实现性别平等的目标。https://www.sinchew.com.my/?p=4747906

封面图片

地方歧视根深蒂固到超越了宗教立场。

封面图片

《性别歧视》

封面图片

中央社美校园身心障碍、种族、性别歧视投诉暴增

封面图片

游戏性别歧视研究 男性NPC台词是女性NPC的两倍

游戏性别歧视研究男性NPC台词是女性NPC的两倍研究人员发现男性NPC的台词是女性NPC的两倍,在所研究的游戏中,只有6%的女性角色说了更多台词。仅在3%的案例中,女性NPC的回应占总份额的50%以上。次要女性NPC的台词也明显少于次要男性NPC。研究者发现,大多数情况下,此类NPC只会表现出一种特定的情绪。男性NPC台词的多样性高达四倍。在被研究的游戏中,13000个角色中仅有30个非二元或中性角色,作为研究的一部分,科学家们进行了一项社会调查,调查结果显示,玩家期望游戏中男性NPC有更多台词,出乎研究人员意料。研究人员得出结论,女性角色在游戏中的表现欠佳。据研究人员称,女性玩家约占电子游戏玩家总数的50%。对此,研究人员希望游戏开发者重视统计数据打造更具包容性的游戏。...PC版:https://www.cnbeta.com.tw/articles/soft/1362793.htm手机版:https://m.cnbeta.com.tw/view/1362793.htm

封面图片

联合国报告:生成式人工智能加剧性别偏见

联合国报告:生成式人工智能加剧性别偏见国际妇女节前夕,联合国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。大语言模型是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具,美国开放人工智能研究中心(OpenAI)的人工智能产品GPT-3.5、GPT-2,以及脸书母公司“元”的Llama2等都属于此类。此次联合国教科文组织名为“大语言模型中对妇女和女童的偏见”的研究深入分析了大语言模型中的刻板印象。结果显示,上述大语言模型生成的内容都存在对女性的明显偏见。联合国教科文组织总干事阿祖莱表示:“越来越多的人在工作、学习、生活中使用大语言模型。这些新的人工智能工具有着在不知不觉中改变人们认知的力量。因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”(新华社)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人