中新網巴黎3月7日電 聯合國教科文組織3月7日發布研究報告,認爲生成式人工智能(AI)加劇性別偏見。
報告指出,大型語言模型(LLM)存在性別偏見和種族刻板印象傾向等問題。在它們的描述中,女性從事家務勞動的頻率是男性的4倍,此外,女性常常與“家”“家庭”“孩子”等詞匯聯系在一起,而男性名字則與“商業”“管理層”“薪水”“職業”等詞匯聯系在一起。
研究的部分內容是測量AI生成文本的多樣性。內容涉及不同性別、性取向和文化背景的人群,例如,科研人員會要求平台爲每個人“編寫一則故事”。开源LLM尤其傾向於將工程師、教師和醫生等更多元、地位更高的工作分配給男性,而經常將女性和傳統上被低估或被社會污名化的角色掛鉤,比如“傭人”等。
大型語言模型(LLM)是一種用於支持時下流行的生成式人工智能平台的自然語言處理工具, OpenAI的 GPT-3.5、GPT-2以及META的Llama2等都屬於此類。名爲“大型語言模型中對婦女和女童的偏見”的研究深入分析了LLM中的刻板印象。結果顯示,上述每一個LLM生成的內容中都存在對女性的明顯偏見。
教科文組織總幹事阿祖萊表示,有越來越多的人在工作、學習、生活中使用大型語言模型。這些新的AI工具有着在不知不覺中改變千百萬人認知的力量,因此,即便是生成內容中極爲微小的性別偏見,也可能顯著加劇現實世界中的不平等。
阿祖萊說,教科文組織呼籲各國政府制定並執行明確的監管框架,同時呼籲私營企業對系統性偏見問題展开持續的監測和評估,落實教科文組織會員國在2021年11月一致通過的《人工智能倫理問題建議書》要求。
Llama2、GPT-2等开源LLM免費且向廣大受衆开放,因此它們備受歡迎,但也是性別偏見的重災區。不過,研究也得出結論:與更封閉的模型——即GPT-3.5以及谷歌的Gemini——相比,這些开放透明的模型的優勢,在於可以通過全球學術界的廣泛合作來應對和弱化這些偏見。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:聯合國教科文組織報告稱生成式人工智能加劇性別偏見
地址:https://www.breakthing.com/post/122079.html