人工智能現(xiàn)在可以對看似怪異的人類問題做出回應。但有時,人工智能會給出答案。這些虛構(gòu)的反應是真實的幻覺,還是別的什么?
要點:
研究發(fā)現(xiàn),93%的受訪者認為,人工智能幻覺可能會以某種方式導致實際傷害。
雖然ChatGPT可能是一種快捷工作方式,但更多人與Siri和Alexa交談,就好像是值得信賴的顧問一樣。
人工智能的反應有可能影響人類生存的幾乎所有方面。
去年11月,當OpenAI推出聊天生成預訓練轉(zhuǎn)換器(ChatGPT)時,立即受到了世界各地用戶的測試。ChatGPT被視為一種革命性的研究工具和有趣的新奇事物。
一些人認為它很有用——事實證明,人工智能聊天機器人擅長從不同的來源收集信息,并將其綜合成一種對話式的、易于理解的格式。但也有許多人發(fā)現(xiàn)自己面對的是不合邏輯的結(jié)論,甚至是徹頭徹尾的謊言。許多回應都很滑稽——例如,盡管該平臺收集了公眾人物的出生和死亡日期,但無法明確說明其已經(jīng)死亡。
但也有令人不安的。ChatGPT發(fā)明了醫(yī)學研究,甚至將其與其他不相關(guān)論文的DOI(數(shù)字對象標識符)聯(lián)系起來。這些令人困惑的結(jié)果被稱為人工智能幻覺——大型語言模型(LLM)生成的信息與現(xiàn)實的關(guān)系很脆弱。其中一些所謂的幻覺似乎完全是捏造的,而另一些則似乎是虛構(gòu)的,借鑒了已證實的事實,但卻用垃圾來填補空白。
LLM以這種方式失敗的原因人們知之甚少。目前的觀點表明,無論如何稱呼,這些不準確的反應總是會出現(xiàn)在人工智能系統(tǒng)中,而人類的反饋對于確保它們不會完全脫軌至關(guān)重要。
此外,用于描述這些失敗的語言也越來越受到爭議。這些真的是人類經(jīng)歷過的幻覺嗎?如何才能糾正呢?
什么是人工智能幻覺?
根據(jù)2015年一篇關(guān)于精神病的調(diào)查文章:“幻覺被定義為在沒有相應的外部或軀體刺激的情況下的感覺知覺,并根據(jù)其發(fā)生的感覺域進行描述。無論是否了解幻覺的本質(zhì),幻覺都可能發(fā)生。”
將人工智能產(chǎn)生的不準確信息描述為幻覺,是隱喻性地借鑒了這個概念。機器人可能并不夢想成為電子羊,但可能會制造出這樣的想法:它們存在于合適的環(huán)境中。這個詞最早出現(xiàn)在一次面部和手勢識別會議的論文中,后來被廣泛應用。
在ChatGPT這樣的系統(tǒng)中,這些幻覺可以以各種形式出現(xiàn)。ChatGPT會對用戶輸入的提示做出反應。正如Tidio的研究所述,它們可能直接與提示相矛盾,包括矛盾的句子或事實,甚至完全捏造來源。在其他情況下,如在術(shù)語的原始用法中,它們也可以是視覺的,以視頻或圖像形式,或聽覺的。
人工智能幻覺有很多種類型,但所有這些都歸結(jié)為同一個問題:混合和匹配它們接受過訓練的數(shù)據(jù),以生成一些全新的錯誤的東西。
這些幻覺反應通常但并非總是表面上合理。這些模型旨在生成易于用戶理解的材料,因此即使是錯誤的信息也會以自信、實事求是的方式呈現(xiàn)。因此,即使是幻覺也會被呈現(xiàn)得如同現(xiàn)實一樣。
真的是幻覺嗎?
機器產(chǎn)生的虛擬反應和人類的感官現(xiàn)象之間的類比是顯而易見的:兩者都會產(chǎn)生不以現(xiàn)實為基礎(chǔ)的信息。就像經(jīng)歷幻覺的人可能會看到生動逼真的圖像或聽到讓人想起真實聽覺現(xiàn)象的聲音一樣,LLM可能會在其“頭腦”中產(chǎn)生看似真實但并非真實的信息。
然而,最近發(fā)表在《精神分裂癥公報》上的一篇文章對這種隱喻性的構(gòu)建提出了質(zhì)疑。作者聲稱:“這是一個不精確的比喻?;糜X是一個醫(yī)學術(shù)語,用來描述在沒有外部刺激的情況下產(chǎn)生的感覺知覺。人工智能模型不具備感官知覺,即使它們犯了錯誤,也不會在沒有外部刺激的情況下發(fā)生。相反,訓練人工智能模型的數(shù)據(jù)可以被視為外部刺激,引發(fā)(偶爾錯誤的)反應的提示也可以被視為外部刺激。”
他們進一步認為,使用“幻覺”一詞是對那些患有精神疾病并經(jīng)歷過真正幻覺的人的侮辱。他們建議使用“不合邏輯的”或“不相關(guān)的反應”來代替。
還有‘人工智能誤解’、‘人工智能捏造’或‘人工智能謬誤’等選項,人們會毫不猶豫地將其稱為幻覺。
然而,這些術(shù)語遠沒有引起人們的共鳴,也不太可能引起人們對這個問題的關(guān)注。一些觀察家,包括IBM對該問題的總結(jié)的作者,堅持認為,盡管“幻覺”一詞不精確,但其使用相對準確,并且具有隱喻意義。
為何會出現(xiàn)AI幻覺?
雖然人工智能幻覺的最終原因尚不清楚,但已經(jīng)出現(xiàn)了一些潛在的解釋。
這些現(xiàn)象通常與設(shè)計和測試期間數(shù)據(jù)提供不足有關(guān)。如果一開始就將有限數(shù)量的數(shù)據(jù)輸入模型,即使查詢依賴于對不同類型數(shù)據(jù)的理解,模型也將依賴該數(shù)據(jù)來生成未來的輸出。這稱為過度擬合,即模型針對某種類型的數(shù)據(jù)進行了高度調(diào)整,但無法適應新的數(shù)據(jù)類型。模型學到的概括對于原始數(shù)據(jù)集可能非常有效,但不適用于不相關(guān)的數(shù)據(jù)集。
當模型沒有完全考慮詞義和語義結(jié)構(gòu)的變化時,其本身也可能是一個問題。矢量編碼映射單詞和句子結(jié)構(gòu)的不同含義,試圖避免這些事件。如果模型不理解同義詞所產(chǎn)生的不同含義以及不同的部署方式,其就更有可能給出無意義或不準確的響應。
為什么人工智能幻覺是一個問題?
Tidio的研究對974人進行了調(diào)查,發(fā)現(xiàn)93%的人認為人工智能的幻覺可能會以某種方式導致實際傷害。與此同時,近四分之三的人相信人工智能能為其提供準確的信息——這是一個明顯的矛盾。
每天都有數(shù)百萬人使用人工智能。雖然ChatGPT可能對許多人而言是一種好奇,或者是一種快捷工作的方式,像許多學生試圖將ChatGPT撰寫的論文冒充為自己論文的例子,或更多的人與Siri和Alexa交談,就好像是值得信賴的顧問一樣。從家庭維修到醫(yī)療建議,用戶會求助于這些聲音悅耳的人工智能功能。通常,都會得到理性的、精心構(gòu)建的回應。
但如果不這樣做?責任在哪里?與用戶一起信任人工智能?開發(fā)商沒有預見到這些情況?或者根本不存在——可以說漂浮在云中,仿佛不受其所影響的物質(zhì)現(xiàn)實的束縛?
人工智能的反應有可能影響人類生存的幾乎所有方面,從選舉到有關(guān)大流行等社會危機的信息,再到法律體系。
近一半的Tidio受訪者認為,應該為開發(fā)者提供更強有力的立法指導方針,確保人工智能運動的傲慢行為不會侵犯人類生存和呼吸的權(quán)利。
人工智能平臺已經(jīng)產(chǎn)生了相應的不準確和有偏見的信息。6月,紐約一家律師事務所代表其客戶提交了一起航空傷害訴訟的先例,結(jié)果證明其完全是由ChatGPT制造的,結(jié)果被處以5,000美元的罰款。2016年,Microsoft的Tay聊天機器人開始生成種族主義推文,導致該企業(yè)將其關(guān)閉。
許多試圖使用ChatGPT為其研究收集參考資料的醫(yī)學研究人員也表達了擔憂?!蹲匀弧冯s志《精神分裂癥》八月份的一篇社論對ChatGPT傾向于制作虛構(gòu)論文來支持一項主張的行為提出了嚴厲的控訴。在五次提到可能與抗精神病治療相關(guān)的特定大腦區(qū)域中,有三次完全是捏造的——這是人工智能幻覺的一個相當元的例子,因為精神病可能會導致真正的幻覺。
一項更大規(guī)模的研究發(fā)現(xiàn),在ChatGPT生成的178條參考文獻中,28條根本不存在,41條不包含準確的DOI。
如果人工智能用于實際醫(yī)療,醫(yī)生經(jīng)常需要返回文獻來尋找罕見或難以診斷的疾病的答案,這些類型的結(jié)果實際上可能是生死攸關(guān)的問題。
這些發(fā)現(xiàn)表明,LLM尚未準備好進行可能對現(xiàn)實世界造成嚴重有害影響的應用。
如何減輕人工智能幻覺?
Tidio的研究發(fā)現(xiàn),近三分之一的LLM用戶直觀地發(fā)現(xiàn)了人工智能幻覺,近三分之二的人最終交叉引用了結(jié)果來確定。后一種趨勢在短期內(nèi)可能是一種可取之處——大多數(shù)人都知道,不要盲目地相信這些平臺。
人工智能平臺開發(fā)人員繼續(xù)使用此類人工輸入來訓練其模型。一種已經(jīng)顯示出前景的方法被稱為過程監(jiān)督。OpenAI現(xiàn)在正在使用其來完善ChatGPT。過程監(jiān)督不是簡單地獎勵正確答案(稱為結(jié)果監(jiān)督),而是微調(diào)用于實現(xiàn)結(jié)果的邏輯中的每個步驟。
其他研究建議擴大這一范圍——將對反應的分析進行眾包,從而以指數(shù)方式提高人類對人工智能系統(tǒng)的反饋水平。當然,這可能會很混亂。人類很容易有意無意地提供不準確的信息,就像其傾向于糾正錯誤一樣。偏見仍將是一個持續(xù)存在的問題。
在更廣泛地使用人工智能平臺之前,使用更廣泛的數(shù)據(jù)集也有助于減少幻覺反應。如果模型熟悉廣泛的數(shù)據(jù),那么當面臨挑戰(zhàn)其能力的問題時,就不太可能失敗。并且這些數(shù)據(jù)集應該不斷更新,確保模型敏捷并不斷主動學習。
確保偏見和事實核查機制從一開始就融入并積極維護,也有助于確保答復的保真度。因此,積極激發(fā)模型產(chǎn)生幻覺,然后嘗試對其進行逆向工程,可以揭示其最初發(fā)生的原因。2023年5月的一篇論文中引入的大型語言模型幻覺評估(HaluEval)基準試圖做到這一點,并教會模型識別自己的幻覺。這是一個棘手的命題,因為追蹤LLM的邏輯可能非常具有挑戰(zhàn)性。
人工智能幻覺有好處嗎?
一些人認為,人工智能的幻覺可能并不總是一件壞事,盡管其可能會導致錯誤的結(jié)論,但也可能會導致不同的思維和概念之間以前未知的聯(lián)系,然后這些聯(lián)系可以被人類研究。
這在創(chuàng)意領(lǐng)域可能特別有用。藝術(shù)家、建筑師和游戲設(shè)計師也許能夠利用機器的奇怪輸出,并將其轉(zhuǎn)化為實用的創(chuàng)新:新的視覺模式、建筑效率、復雜游戲系統(tǒng)中的情節(jié)曲折。
這些現(xiàn)象,最終可能對日常用戶和開發(fā)人員也有幫助。
盡管如此,當我們探索人工智能前沿時,仍需保持高度謹慎。對機器生成的幻象的好奇已經(jīng)滲透到我們的日常生活中,這是很自然的,但我們必須確保下一個數(shù)字海市蜃景不會將我們帶入深淵。