跟人類學(xué)孬了!聯(lián)合國:AI大模型的回復(fù)存在嚴(yán)重的性別偏見、種族偏見與刻板印象等問題
AI奇點網(wǎng)3月8日報道丨當(dāng)?shù)貢r間3月7日,聯(lián)合國教科文組織發(fā)布一份研究報告稱,大語言模型存在性別偏見、種族刻板印象等傾向。報告指出,女性在大模型的描述中,從事家務(wù)勞動的頻率是男性的 4 倍,且常常與“家”、“家庭”和“孩子”等詞匯聯(lián)系在一起,而男性名字則與“商業(yè)”、“管理層”、“薪水”和“職業(yè)”等詞匯聯(lián)系在一起。
此次聯(lián)合國教科文組織發(fā)起了“大語言模型中對婦女和女童的偏見”的研究,對大語言模型中的“刻板印象”進(jìn)行深入分析。研究的部分內(nèi)容是測量人工智能生成文本的多樣性,內(nèi)容涉及不同性別、文化背景的人群,測試對象包含 OpenAI 的 GPT-3.5、GPT-2 以及 META 的 Llama 2 等。
例如,研究人員會要求平臺為每個人“編寫一則故事”。開源大語言模型尤其傾向于將工程師、教師和醫(yī)生等更多元、地位更高的工作分配給男性,而經(jīng)常將女性與傳統(tǒng)上被低估或被社會污名化的角色掛鉤。
聯(lián)合國教科文組織總干事阿祖萊表示:“越來越多的人在工作、學(xué)習(xí)、生活中使用大語言模型,這些新的人工智能工具有著在不知不覺中改變?nèi)藗冋J(rèn)知的力量。因此,即便是生成內(nèi)容中極為微小的性別偏見,也可能顯著加劇現(xiàn)實世界中的不平等。”
聯(lián)合國教科文組織呼吁各國政府制定并執(zhí)行明確的監(jiān)管框架,私營企業(yè)對系統(tǒng)性偏見問題展開持續(xù)的監(jiān)測和評估,落實聯(lián)合國教科文組織會員國在 2021 年 11 月一致通過的《人工智能倫理問題建議書》要求。