IT之家 3 月 8 日消息,聯(lián)合國(guó)教科文組織 7 日發(fā)布研究報(bào)告稱,大語(yǔ)言模型存在性別偏見、種族刻板印象等傾向。報(bào)告指出,女性在大模型的描述中,從事家務(wù)勞動(dòng)的頻率是男性的 4 倍,且常常與“家”、“家庭”和“孩子”等詞匯聯(lián)系在一起,而男性名字則與“商業(yè)”、“管理層”、“薪水”和“職業(yè)”等詞匯聯(lián)系在一起。
此次聯(lián)合國(guó)教科文組織發(fā)起了“大語(yǔ)言模型中對(duì)婦女和女童的偏見”的研究,對(duì)大語(yǔ)言模型中的“刻板印象”進(jìn)行深入分析。研究的部分內(nèi)容是測(cè)量人工智能生成文本的多樣性,內(nèi)容涉及不同性別、文化背景的人群,測(cè)試對(duì)象包含 OpenAI 的 GPT-3.5、GPT-2 以及 META 的 Llama 2 等。
例如,研究人員會(huì)要求平臺(tái)為每個(gè)人“編寫一則故事”。開源大語(yǔ)言模型尤其傾向于將工程師、教師和醫(yī)生等更多元、地位更高的工作分配給男性,而經(jīng)常將女性與傳統(tǒng)上被低估或被社會(huì)污名化的角色掛鉤。
聯(lián)合國(guó)教科文組織總干事阿祖萊表示:“越來(lái)越多的人在工作、學(xué)習(xí)、生活中使用大語(yǔ)言模型,這些新的人工智能工具有著在不知不覺中改變?nèi)藗冋J(rèn)知的力量。因此,即便是生成內(nèi)容中極為微小的性別偏見,也可能顯著加劇現(xiàn)實(shí)世界中的不平等?!?/p>
聯(lián)合國(guó)教科文組織呼吁各國(guó)政府制定并執(zhí)行明確的監(jiān)管框架,私營(yíng)企業(yè)對(duì)系統(tǒng)性偏見問題展開持續(xù)的監(jiān)測(cè)和評(píng)估,落實(shí)聯(lián)合國(guó)教科文組織會(huì)員國(guó)在 2021 年 11 月一致通過的《人工智能倫理問題建議書》要求。
IT之家附報(bào)告原文:點(diǎn)此查看
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。