隨著企業(yè)將更多機器學(xué)習(xí)和人工智能模型投入生產(chǎn),人們越來越意識到自己的系統(tǒng)存在偏見。這種偏見不僅可能導(dǎo)致AI系統(tǒng)做出更糟糕的決定,還可能使運行AI系統(tǒng)的組織陷入法律危機。偏見可以滲透到應(yīng)用于各種行業(yè)的AI系統(tǒng)中。
哈佛大學(xué)和埃森哲公司在去年發(fā)布的一份報告中展示了算法偏見如何潛入人力資源部門的招聘流程。在2021年的聯(lián)合報告《隱藏的員工:未開發(fā)的人才》中,不當(dāng)?shù)穆毼幻枋龊蛧?yán)重依賴算法進行招聘廣告發(fā)布和簡歷評估的自動化招聘系統(tǒng),是怎樣阻止合格的個人找到工作。
偏見導(dǎo)致了兩個最壞情況。盡管企業(yè)在技術(shù)上花費了大量金錢,系統(tǒng)仍固守著以往錯誤的做法,而且效率更高,結(jié)果更差。
警務(wù)是另一個容易因算法偏見而產(chǎn)生意外后果的領(lǐng)域。某些警務(wù)預(yù)測產(chǎn)品被證明對特定社區(qū)的犯罪預(yù)測和種族之間存在顯著的相關(guān)性,這種流行的預(yù)測性警務(wù)產(chǎn)品可能對少數(shù)族裔存在偏見。研究發(fā)現(xiàn)在美國,居住在一個地區(qū)的白人居民越少,而居住在那里的黑人和拉丁裔居民越多,該產(chǎn)品預(yù)測發(fā)生犯罪的可能性就越大。同樣的差距也存在于富裕和貧困社區(qū)之間。
DataRobot在一項針對美國和英國各行業(yè)350家機構(gòu)的調(diào)查中,超過一半的機構(gòu)表示,他們非常擔(dān)心人工智能偏見可能會傷害他們的客戶和自己。
該調(diào)查顯示,54%的美國受訪者表示,對其組織中人工智能偏見的潛在危害感到“非常擔(dān)憂”或“深感擔(dān)憂”。而在2019年進行的一項類似研究中持相同觀點的人占42%。調(diào)查顯示,他們的英國同事對人工智能的偏見懷疑態(tài)度更深,64%的人表示他們也有這種看法。
而調(diào)查中超過三分之一(36%)的受訪者說,他們的組織已經(jīng)因AI偏見受到影響,收入損失和失去客戶是最常見的后果。
消費者信任的喪失被認(rèn)為是人工智能偏見的第一大潛在風(fēng)險,56%的受訪者提到了這一風(fēng)險因素,其次是品牌聲譽受損、監(jiān)管審查增加、員工信任的喪失、與個人道德不符、訴訟和股票價值的下降。
雖然有四分之三的受訪機構(gòu)稱計劃對AI偏見進行檢測,約四分之一的組織說他們“非常有信心”有能力來檢測AI偏見。
受訪者列舉了消除偏見的幾個具體挑戰(zhàn),包括:難以理解人工智能模型為什么會做出決定;理解輸入值和模型決策之間的模式;對算法缺乏信任;訓(xùn)練數(shù)據(jù)的清晰性;保持AI模型的動態(tài)更新;教育利益相關(guān)者識別人工智能偏見;以及也不清楚什么是偏見。
那么,如何解決人工智能中的偏見問題呢?首先,81%的受訪者表示,他們認(rèn)為“政府監(jiān)管將有助于定義和防止人工智能偏見。”該調(diào)查稱,在沒有政府監(jiān)管的情況下,約三分之一的人擔(dān)心人工智能“會傷害用戶”。但同時45%的受訪者表示,他們擔(dān)心政府監(jiān)管會增加成本,使采用人工智能變得更加困難。只有約23%的人表示,他們不擔(dān)心政府對人工智能的監(jiān)管。
總而言之,在人工智能的偏見問題上,似乎正處于十字路口。隨著采用人工智能日益被視為現(xiàn)代企業(yè)的必備條件,采用這項技術(shù)的壓力相當(dāng)大。企業(yè)越來越擔(dān)心人工智能帶來的意外后果,尤其是在道德方面。
人工智能領(lǐng)域的從業(yè)者需要了解并理解人工智能和道德的重要性和影響。消除偏見的核心挑戰(zhàn)是理解為什么算法會首先做出這樣的決定。在應(yīng)對人工智能偏見和隨之而來的復(fù)雜問題時,需要規(guī)則和條例來指導(dǎo)。如今,國際組織和產(chǎn)業(yè)巨頭已經(jīng)開始研究人工智能原則和法規(guī),但要確保模型公平、可信和可解釋,還有更多工作要做。