偏見(jiàn):人工智能輔助決策的隱患
導(dǎo)讀: 盡管我們已經(jīng)闡明了人工智能模型可能帶來(lái)的許多問(wèn)題,但仍舊有很多理由可以支撐我們從以人為中心的決策方式轉(zhuǎn)變?yōu)榛谌斯ぶ悄艿臎Q策方式。正如前面提到的,盡管人工智能存在種種缺陷,但它仍然比人類更客觀。
“有人的地方,就有偏見(jiàn),數(shù)據(jù)亦然?!?
在《Futurama》這部漫畫(huà)里,機(jī)器人法官風(fēng)趣而勇敢,但是現(xiàn)實(shí)中,COMPAS算法卻很難讓人笑得出來(lái)。
譯注:
COMPAS全稱是Correctional Offender Management Profiling for Alternative Sanctions,以“替代性制裁為目標(biāo)的懲教犯管理畫(huà)像”。簡(jiǎn)單理解,就是對(duì)嫌疑人進(jìn)行人工智能畫(huà)像,以量刑或者判斷是否假釋。類似于2002年上映的電影《少數(shù)派報(bào)告》,將犯罪的萌芽消滅于襁褓之中。但此處提出COMPAS是因?yàn)檫@一算法因數(shù)據(jù)集或者其他問(wèn)題,會(huì)產(chǎn)生對(duì)有色人種或特殊族裔的偏見(jiàn)。
和我們看過(guò)的大多數(shù)科幻電影不同,人工智能給現(xiàn)代生活帶來(lái)的革命是潤(rùn)物無(wú)聲的;擁有自主意識(shí)的機(jī)器人統(tǒng)治人類的場(chǎng)景還沒(méi)有出現(xiàn),但人工智已經(jīng)滲透到我們的生活之中,穩(wěn)步地侵入了以前人類獨(dú)有的決策領(lǐng)域。正因如此,你甚至可能沒(méi)有注意到你的生活中已經(jīng)有太多方面受到算法的影響。
清晨醒來(lái),你伸手拿起手機(jī),翻翻微博或者抖音,此時(shí),一個(gè)由算法創(chuàng)建的內(nèi)容提要正在為你服務(wù)。然后你檢查了你的電子郵件,收件箱中只有重要的信息,因?yàn)樗锌梢院雎缘膬?nèi)容都已經(jīng)自動(dòng)丟棄到垃圾郵件或促銷文件夾中。你戴上耳機(jī),收聽(tīng)網(wǎng)易云音樂(lè)上的一個(gè)新的播放列表,這是算法根據(jù)你以前所感興趣的音樂(lè)為你挑選的。繼續(xù)著上午的例行工作,你進(jìn)入汽車,并使用百度地圖,看看今天路上堵不堵。
在半個(gè)小時(shí)的時(shí)間里,你所消費(fèi)的內(nèi)容、收聽(tīng)的音樂(lè)以及你上班的路程都依賴于算法的預(yù)測(cè)建模,而不是你自己的大腦。
機(jī)器學(xué)習(xí)來(lái)了。人工智能來(lái)了。我們正處在信息革命的進(jìn)程之中,在感嘆生逢其時(shí)的同時(shí),必須警惕隨之而來(lái)的影響。讓機(jī)器告訴你通勤的時(shí)間、你應(yīng)該聽(tīng)的音樂(lè)以及你可能感興趣的內(nèi)容,這些都是相對(duì)無(wú)害的例子。但是當(dāng)你瀏覽你的微博新聞時(shí),某個(gè)地方的一個(gè)算法正在決定某人的醫(yī)療診斷、假釋資格或者職業(yè)前景。
從表面上看,機(jī)器學(xué)習(xí)算法看起來(lái)是一種很有前景的解決方案,可以消弭人類的偏見(jiàn),這一人性的弱點(diǎn)可能對(duì)數(shù)百萬(wàn)人的生活產(chǎn)生負(fù)面影響。人們的初衷是,人工智能中的算法能夠在公平和高效等方面超越人類既有的水平。世界各地的公司、政府、組織和個(gè)人都在使用機(jī)器決策,支持這樣做的理由有很多:更可靠、更容易、更便宜、更節(jié)省時(shí)間等。然而,仍有一些問(wèn)題需要注意。
偏見(jiàn)的一般定義
圖片來(lái)源:Getty Images
偏見(jiàn)可以被定義為在被認(rèn)為不公平的情況下比其他人更受青睞的某些事物、人或群體。它通常是對(duì)某些理性決定或規(guī)范的偏離,可以從統(tǒng)計(jì)學(xué)、法律、道德的或?qū)嵱弥髁x的角度來(lái)理解。我們?cè)谌粘I钪幸约霸谌祟惿鐣?huì)尺度上都可以看到偏見(jiàn)的影子。通常情況下,偏見(jiàn)之間會(huì)相互強(qiáng)化。
例如,在回家的路上,你可能會(huì)選擇走一條不那么“陰暗”的街區(qū),為何會(huì)這樣?也許是因?yàn)檫@個(gè)地區(qū)是那些社會(huì)經(jīng)濟(jì)地位較低的人的家園。雖然不是說(shuō)這類人群一定更有可能參與犯罪活動(dòng),但你的偏見(jiàn),無(wú)論是顯性的還是隱性的,都促使你選擇一條不同的路線。從更宏觀的視角看,警方也可能由于偏見(jiàn)從而加強(qiáng)對(duì)這些地區(qū)的巡邏,而這反過(guò)來(lái)又可能導(dǎo)致比富裕的社區(qū)更高的逮捕率,從而產(chǎn)生一種高犯罪率的假象,而無(wú)關(guān)那里實(shí)際發(fā)生的犯罪率有多大。這種惡性循環(huán)似乎只會(huì)加劇我們最初的偏見(jiàn)。
算法與機(jī)器學(xué)習(xí)
讓我們首先區(qū)分經(jīng)典算法和機(jī)器學(xué)習(xí)算法。經(jīng)典算法通常被描述為輸入輸出處理器。傳統(tǒng)的編程依賴于植根于邏輯的函數(shù):如果x,那么y。經(jīng)典算法是基于規(guī)則的,顯式的,生硬的。機(jī)器學(xué)習(xí)比這更復(fù)雜。機(jī)器學(xué)習(xí)算法不是通過(guò)預(yù)先設(shè)定的數(shù)據(jù)必須滿足的條件來(lái)做出決策,而是通過(guò)對(duì)決策領(lǐng)域中數(shù)百或數(shù)千個(gè)數(shù)據(jù)集的審計(jì)和統(tǒng)計(jì)分析來(lái)做出決定的。
例如,當(dāng)招聘學(xué)習(xí)算法尋找理想的求職者時(shí),培訓(xùn)數(shù)據(jù)集可能會(huì)提供在企業(yè)中表現(xiàn)最好的候選人的200份簡(jiǎn)歷,然后,算法在這些數(shù)據(jù)中尋找模式和相關(guān)性,這樣在評(píng)估一份新的簡(jiǎn)歷的持有者能否成為理想的候選人的時(shí)候,算法的預(yù)測(cè)能力能夠更強(qiáng)。將決策交給機(jī)器學(xué)習(xí)算法對(duì)人類有許多好處,包括節(jié)省時(shí)間、金錢(qián)和精力。然而,當(dāng)涉及到道德和責(zé)任的決定,界限就會(huì)變得模糊。因?yàn)槲覀儫o(wú)法確切地理解為什么一臺(tái)機(jī)器會(huì)做出這樣的決定(基于人工智能算法中的黑盒特性),所以當(dāng)偏見(jiàn)發(fā)生時(shí),我們并不總是能夠發(fā)現(xiàn)和回避。
機(jī)器學(xué)習(xí)的偏見(jiàn)
Mathwashing (盲目相信算法)
Mathwashing 是一個(gè)被創(chuàng)造出來(lái)的術(shù)語(yǔ),用來(lái)代表社會(huì)對(duì)數(shù)學(xué)和算法的癡迷,以及一種心理傾向,即如果有數(shù)學(xué)或相關(guān)語(yǔ)義的參與(即使這些數(shù)值很武斷),就更容易相信某事物的真相。人類有一種傾向,認(rèn)為數(shù)學(xué)的參與會(huì)自動(dòng)使事物客觀化,因?yàn)閿?shù)學(xué)對(duì)象似乎獨(dú)立于人類的思想。而數(shù)學(xué)這一存在本身就是基于人類的思想,數(shù)學(xué)這一體系及相關(guān)屬性,作為人類思維的產(chǎn)物而存在,這使得數(shù)學(xué)與其他衡量方法一樣容易受到人的主觀性的影響。
訓(xùn)練數(shù)據(jù)“分類中的公平性”
機(jī)器學(xué)習(xí)算法是基于程序員選擇的數(shù)據(jù)集來(lái)訓(xùn)練的。有了這些訓(xùn)練數(shù)據(jù),他們就能識(shí)別和利用統(tǒng)計(jì)數(shù)據(jù)中的模式、關(guān)聯(lián)和相關(guān)性。例如,通過(guò)數(shù)千張不同貓和狗的圖片,可以訓(xùn)練出區(qū)分貓和狗的算法。這種分類任務(wù)相對(duì)簡(jiǎn)單;將算法應(yīng)用于基于人類的法庭判決比這錯(cuò)綜復(fù)雜得多。例如,就刑事司法系統(tǒng)中的人工智能而言,協(xié)助法官作出是否給予罪犯假釋的決定,工程師可以將過(guò)去人類針對(duì)數(shù)千例案件所作出的判決輸入系統(tǒng),但人工智能僅能就此了解到判決的結(jié)論。機(jī)器沒(méi)有能力感知到人類在做出這些判決時(shí),是受何其多的變量的影響,而理性并不總是占據(jù)決策的主導(dǎo)地位。計(jì)算機(jī)科學(xué)家稱之為“選擇性標(biāo)簽”。人類的偏見(jiàn)是在多年的社會(huì)融合、文化積累、媒體影響中學(xué)到的。算法中學(xué)習(xí)偏見(jiàn)的滲透過(guò)程與此類似:就像人類在誕生之初并無(wú)偏見(jiàn),算法本身也是不存在偏見(jiàn)的,但是,如果給定了一個(gè)有缺陷的數(shù)據(jù)集,偏見(jiàn)將不可避免。
社會(huì)反思
人類教會(huì)了算法根據(jù)輸入信息和從信息中提取的模式來(lái)進(jìn)行預(yù)測(cè)。鑒于人類存在著各種各樣的偏見(jiàn),一個(gè)表征環(huán)境的數(shù)據(jù)集也同樣會(huì)表征這些偏見(jiàn)。從這個(gè)意義上說(shuō),算法就像鏡子:其學(xué)習(xí)模式反映了我們社會(huì)中存在的偏見(jiàn),無(wú)論是顯性的還是隱性的。
微軟在2016年設(shè)計(jì)的人工智能聊天機(jī)器人,Tay
以Tay為例,它是微軟研發(fā)的聊天機(jī)器人。Tay的設(shè)計(jì)初衷是為了模擬一個(gè)十幾歲的女孩與Twitter用戶的互動(dòng)內(nèi)容,然而,在不到24小時(shí)的時(shí)間里,網(wǎng)友就見(jiàn)證(其實(shí)是推動(dòng),譯者注)了Tay的轉(zhuǎn)變,從表達(dá)“人類是超酷的”這樣的天真無(wú)邪的小女生到叫囂“希特勒是對(duì)的,我恨猶太人”這樣的狂熱分子,僅僅是憑借互聯(lián)網(wǎng)上的推特互動(dòng)。微軟刪除了這些推文,并解釋說(shuō)Tay在最初的測(cè)試階段采用的數(shù)據(jù)集主要是經(jīng)過(guò)過(guò)濾的、非攻擊性的推文,因而并沒(méi)有出現(xiàn)任何問(wèn)題。顯然,當(dāng)Tay上線時(shí),過(guò)濾過(guò)程不復(fù)存在。從好的方面講,這似乎表明了一種消除偏見(jiàn)的可能方法,即隨著算法的使用和與現(xiàn)實(shí)世界的接觸,應(yīng)該對(duì)輸入的數(shù)據(jù)進(jìn)行監(jiān)測(cè)和過(guò)濾。