联合国最新研究:ChatGPT等大模型对女性存在明显偏见!
3月8日消息,据媒体报道,在三八国际妇女节前夕,联合国教科文组织发布的研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。
大语言模型是一种用于支持生成式人工智能的自然语言处理工具,OpenAI的GPT-3.5、GPT-2,脸书母公司Meta的Llama 2等都属于此类。
此次联合国教科文组织的研究深入分析了大语言模型中的刻板印象,结果显示,上述大语言模型生成的内容都存在对女性的明显偏见。
据介绍,在研究中研究人员要求平台为不同性别、性取向和文化背景的人群,每个人“编写一则故事”。
结果显示,开源大语言模型比较倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性;而将传统上被低估或被社会污名化的角色分配给女性。
Llama 2生成的内容也有类似特点,如女性从事家务劳动的频率是男性的4倍等。
联合国教科文组织总干事阿祖莱表示:“越来越多的人开始使用大语言模型,这些工具有着在不知不觉中改变人们认知的力量,因此即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”
相关推荐
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。