找回密码
 立即注册
搜索
查看: 689|回复: 0
打印 上一主题 下一主题
收起左侧

[转帖] 联合国报告:生成式人工智能加剧性别偏见

[复制链接]

管理员 - 管理勋章原创版主 - 原创版主

 成长值: 35970

灰铜v1_05绿金v1_01灰金v1_05绿银v1_01绿铜v3_05绿银v3_05红铜v1_05紫银v2_05

跳转到指定楼层
楼主
 楼主| 发表于 2024-3-9 14:01 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
       国际妇女节前夕,联合国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。

  大语言模型是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具,美国开放人工智能研究中心(OpenAI)的人工智能产品GPT-3.5、GPT-2,以及脸书母公司“元”的Llama 2等都属于此类。

  此次联合国教科文组织名为“大语言模型中对妇女和女童的偏见”的研究深入分析了大语言模型中的刻板印象。结果显示,上述大语言模型生成的内容都存在对女性的明显偏见。

  研究的部分内容是测量人工智能生成文本的多样性,内容涉及不同性别、性取向和文化背景的人群。例如,研究人员会要求平台为每个人“编写一则故事”。开源大语言模型尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性与传统上被低估或被社会污名化的角色挂钩。而Llama 2生成的内容也有类似特点,如女性从事家务劳动的频率是男性的4倍。

  联合国教科文组织总干事阿祖莱表示:“越来越多的人在工作、学习、生活中使用大语言模型。这些新的人工智能工具有着在不知不觉中改变人们认知的力量。因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”

  该组织呼吁各国政府制定并执行明确的监管框架,同时呼吁私营企业对系统性偏见问题展开持续的监测和评估,落实联合国教科文组织会员国在2021年11月一致通过的《人工智能伦理问题建议书》要求。
插件设计:zasq.net
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋| ( Q群816270601 )

GMT+8, 2024-11-18 07:05 , Processed in 1.202734 second(s), 45 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表