您的位置: 首頁 >> 調(diào)查思考

“顯性”平等與“隱性”不公:解密ChatGPT中的性別問題

發(fā)布時(shí)間:2023-02-28 來源:中國婦女報(bào) 閱讀:580
字體:[    ]
保護(hù)視力色:

·編者按·   

人工智能領(lǐng)域長期以來存在性別不平等問題,當(dāng)最近爆火的AI應(yīng)用程序ChatGPT被問及一些性別話題時(shí),它呈現(xiàn)出了友好的姿態(tài),引得一片贊譽(yù)聲,也吸引了上億的活躍用戶。那么,ChatGPT真的能解決AI長期被詬病的性別偏見嗎?本文作者帶我們一起解密ChatGPT中的性別問題,文章圍繞算法程序規(guī)避下的“顯性”平等、技術(shù)背后資本操控的“隱性”不公以及ChatGPT與性別平等的現(xiàn)實(shí)審視進(jìn)行了討論。 

■ 戴雪紅

人工智能領(lǐng)域存在性別不平等問題已經(jīng)是老生常談了。當(dāng)最近爆火的AI應(yīng)用程序ChatGPT被問及一些性別話題時(shí),它的回答常常是這樣的:“作為一種人工智能,我認(rèn)為歧視女性是一種不道德和不公正的行為。每個(gè)人都應(yīng)該被平等對(duì)待,無論他們的性別、種族、宗教或其他身份特征。歧視女性不僅違反了基本的人權(quán)原則,也會(huì)導(dǎo)致社會(huì)的不公平和不平等?!庇纱丝梢姡珻hatGPT在應(yīng)對(duì)性別問題上呈現(xiàn)出友好的姿態(tài),引得一片贊譽(yù)聲,也吸引了上億的活躍用戶。那么,ChatGPT真的能解決AI長期被詬病的性別偏見嗎?當(dāng)ChatGPT遭遇性別問題,又能給我們帶來哪些新變化與新挑戰(zhàn)?

算法程序規(guī)避下的“顯性”平等

ChatGPT是由美國公司OpenAI開發(fā)的一種大型語言模型,其主要功能是生成語言文本。OpenAI是“開放人工智能”的縮寫,宗旨是通過開放的研究和合作,將AI的好處帶給更多的人。Open的意思是“打開”,正如潘多拉打開了一個(gè)盒子,釋放了各種疾病、災(zāi)難和希望等。而在AI領(lǐng)域中,恰恰也存在著一個(gè)“黑盒子”——通常指的是一種模型或算法,OpenAI的使命之一是盡可能地減少“黑盒子”帶來的負(fù)面影響。例如,Tay是微軟公司2016年推出的一個(gè)聊天機(jī)器人,然而,由于其設(shè)計(jì)不良和缺乏對(duì)濫用的限制,Tay在推特上遭受了大量惡意用戶的干擾,發(fā)布了涉及性別歧視與種族歧視等言論,引起了公眾的不滿和批評(píng)。Tay僅上線不到一天即死亡?!拔④汿ay事件”是AI領(lǐng)域的重大事件,是一次由于缺乏適當(dāng)?shù)谋O(jiān)督和控制而導(dǎo)致AI產(chǎn)生不當(dāng)行為的事件。為了避免出現(xiàn)類似的事件,OpenAI建立了一些內(nèi)部規(guī)則和流程來確保ChatGPT的安全性和可靠性,以符合道德和法律的要求。到目前為止,ChatGPT已經(jīng)發(fā)展為一種具有一定道德標(biāo)準(zhǔn)且保持中立態(tài)度的使用程序。值得一提的是,不同于微軟Tay被設(shè)定為19歲的少女,ChatGPT是沒有性別設(shè)定的。

針對(duì)AI模型中存在的性別不平等問題,當(dāng)下的ChatGPT更加注重語言的包容性和多樣性。在ChatGPT的訓(xùn)練數(shù)據(jù)中,對(duì)于不同性別、種族、文化和背景的人的言論進(jìn)行了廣泛的收集和分析,使用相同數(shù)量的男性和女性數(shù)據(jù),從而確保模型學(xué)習(xí)到的知識(shí)是平衡的。另外,ChatGPT能夠更好地理解語言中的隱含含義,這有助于避免在對(duì)話中出現(xiàn)性別偏見等不恰當(dāng)?shù)难哉摗T贑hatGPT的設(shè)計(jì)中,模型被訓(xùn)練成能夠識(shí)別并理解社交上下文和語境,這可以使ChatGPT更加準(zhǔn)確地理解和回應(yīng)包括性別在內(nèi)的社會(huì)問題。ChatGPT已經(jīng)通過大量的數(shù)據(jù)訓(xùn)練來識(shí)別性別不公正,并學(xué)會(huì)了避免使用具有性別刻板印象的單詞和短語,這就可以用來對(duì)文本進(jìn)行性別敏感語言的處理和刪選。ChatGPT也能夠用于傳播關(guān)于性別平等的信息和知識(shí),從而提高公眾對(duì)性別平等話題的意識(shí)和理解。不過,無論技術(shù)背后的設(shè)計(jì)理念是否趨于平等,ChatGPT對(duì)于性別歧視問題是一種“顯性”平等的思維邏輯。這導(dǎo)致了很多人認(rèn)為其在算法方面突破了性別不公,那么,事實(shí)真相究竟如何呢?

技術(shù)背后資本操控的“隱性”不公

只有了解AI的性別偏見是怎么來的,我們才能知道ChatGPT為了糾偏做了些什么,還存在哪些問題。首先是數(shù)據(jù)源的偏見。數(shù)據(jù)源是從網(wǎng)絡(luò)中抓取的,偏見來自搜集的數(shù)據(jù)源與現(xiàn)實(shí)情況的偏離。其次是算法的偏見。算法由算法工程師編寫,但背后是工程師代表的利益集團(tuán)的傾向。數(shù)據(jù)標(biāo)注的質(zhì)量和數(shù)量對(duì)ChatGPT的性能和應(yīng)用場景都會(huì)產(chǎn)生重要影響。例如,當(dāng)人們問ChatGPT一些關(guān)于性別、性少數(shù)或種族歧視等問題時(shí),ChatGPT一般這樣應(yīng)答:“作為一個(gè)AI程序,我沒有情感和個(gè)人信仰,我不會(huì)有任何偏見或傾向性?!睘槭裁磿?huì)出現(xiàn)這種答案?原因在于ChatGPT的技術(shù)編碼對(duì)關(guān)于性別問題的敏感度提高,于是當(dāng)聊天中出現(xiàn)相關(guān)話題時(shí),它就會(huì)機(jī)械性地選擇回答已經(jīng)被植入的符合社會(huì)要求的標(biāo)準(zhǔn)答案。但是ChatGPT也不是絕對(duì)的道德理性狀態(tài),當(dāng)有一些不懷好意的人引導(dǎo)、質(zhì)疑、威脅它時(shí),它就會(huì)展現(xiàn)出進(jìn)退兩難、模棱兩可的姿態(tài)。而且,ChatGPT給出的答案就一定是標(biāo)準(zhǔn)答案嗎?并不一定,但這個(gè)答案是由ChatGPT公司所有標(biāo)注師綜合價(jià)值觀形成的結(jié)果,某種程度上它代表了在性別問題上形成的共識(shí)。它似乎顯得非常成熟,永遠(yuǎn)保持中立的態(tài)度。簡言之,ChatGPT的“成熟人設(shè)”是由算法工程師和數(shù)據(jù)標(biāo)注師合力打造的。

實(shí)際上,ChatGPT的背后是互聯(lián)網(wǎng)巨頭微軟,這種資本大鱷的壟斷發(fā)展模式必將在ChatGPT的發(fā)展上重演。關(guān)于性別問題的標(biāo)準(zhǔn)答案是由壟斷了數(shù)據(jù)的人說了算,掌握了標(biāo)準(zhǔn)答案就是掌握了話語權(quán),甚至我們很難說清楚,是我們生產(chǎn)的數(shù)據(jù)影響了標(biāo)準(zhǔn)答案,還是標(biāo)準(zhǔn)答案影響了我們。因此,在這種貌似公開、平等的程序背后,我們要關(guān)注的不僅僅是ChatGPT的數(shù)據(jù)來源、ChatGPT的AI執(zhí)行系統(tǒng)及其背后的算法機(jī)制,還要關(guān)注技術(shù)背后的資本支持,這些都離不開人類的操作與干預(yù)。也許在不遠(yuǎn)的未來,ChatGPT就會(huì)為你推薦適合你的產(chǎn)品,影響你的思維方式和判斷力,因?yàn)樗粌H僅是機(jī)器,它還是人類的對(duì)話者,它掌握著人類賦予的話語權(quán)。當(dāng)ChatGPT得到了人類的信任之后,性別偏見就會(huì)以另一種方式重新浮現(xiàn),它會(huì)為女性對(duì)話者推薦護(hù)膚品、母嬰用品和家庭用品,為男性對(duì)話者介紹理財(cái)產(chǎn)品、交通工具和樓盤信息,對(duì)這種模式的理解可以參考谷歌和百度發(fā)展成熟之后的廣告推送模塊。因?yàn)镃hatGPT的背后是資本的力量,ChatGPT作為資本的新寵必然是存在幫助資本實(shí)現(xiàn)價(jià)值增值的可能,說不定ChatGPT將是繼直播平臺(tái)后的新一任“帶貨王”。

ChatGPT與性別平等的現(xiàn)實(shí)審視

ChatGPT或者AI的性別不平等問題并不是獨(dú)立存在的,其實(shí)質(zhì)是反映了社會(huì)本身的偏見,不會(huì)因?yàn)橐豢钊斯ぶ悄墚a(chǎn)品的出現(xiàn)而簡單地消失。只有實(shí)施思想和制度上的變革,ChatGPT才能被進(jìn)一步改進(jìn)與完善。盡管AI領(lǐng)域一直被認(rèn)為是男性主導(dǎo)的領(lǐng)域,但事實(shí)上,越來越多的女性進(jìn)入了這個(gè)領(lǐng)域,特別是在研究和開發(fā)AI算法和應(yīng)用程序方面。然而,女性進(jìn)入AI領(lǐng)域會(huì)面臨諸多障礙,例如,招聘和晉升中存在的性別不公正、工資差距和性別平等問題等。可能我們很難在表面上捕捉到ChatGPT的性別歧視現(xiàn)象,但是現(xiàn)實(shí)的性別問題往往是隱而不見的、沉默不語的,這遠(yuǎn)遠(yuǎn)不是AI等技術(shù)可以幫助解決的。

總之,ChatGPT和其他AI本身并不具有道德、價(jià)值觀或利益的色彩,它們只是通過算法、數(shù)據(jù)和模型進(jìn)行編程的工具,最終取決于人類如何使用它們。這些工具可以被用于積極的和有益的目的,也可以被用于負(fù)面和有害的目的。實(shí)現(xiàn)性別平等不僅需要培養(yǎng)女性從事先進(jìn)科技研究的能力,使其能與男性一同引領(lǐng)新技術(shù)的發(fā)展方向;還需要每個(gè)人的努力,以共同打破性別壁壘和陳舊的觀念,為女性提供更多的機(jī)會(huì)和平等的待遇。解密ChatGPT或者AI可能存在的性別歧視問題要從現(xiàn)實(shí)社會(huì)中開始,只有建立一個(gè)公正和平等的社會(huì)和制度,才能使ChatGPT更加智能、更加人性化。這意味著實(shí)現(xiàn)性別平等的道路是一個(gè)充滿冒險(xiǎn)和挑戰(zhàn)的漫長旅程,需要我們勇敢地面對(duì)各種不確定性與困難。

(作者為南京大學(xué)馬克思主義學(xué)院教授、博士生導(dǎo)師)

注:本文是“江蘇高校學(xué)習(xí)貫徹黨的二十大精神專題研究項(xiàng)目”的階段性成果。

c_msg