人工智能(AI)無疑是我們這個時代的流行語。特別是隨著ChatGPT等生成式AI應用程序的出現(xiàn),AI大受歡迎,成為了技術大辯論的核心話題。
所有人都在談論像ChatGPT這樣的生成式AI應用程序的影響以及利用它們的能力是否公正。然而,面對這場完美風暴,圍繞AI一詞的種種謊言和誤解突然隨之激增。您可能已經(jīng)聽過很多這樣的謊言和誤解了。
不妨深入研究這些謊言,戳穿它們,以了解AI的真正本質(zhì)。
1. AI是智能的
與普遍的看法相反,AI一點也不智能。現(xiàn)在大多數(shù)人確實認為基于AI的模型很智能。這可能是由于“人工智能”這個名稱中含有“智能”一詞。
但是智能是什么意思呢?智能是生物體獨有的一種特征,其定義是獲取并運用知識和技能的一種能力。這意味著智能使生物體能夠與周圍環(huán)境相互作用,從而學會如何生存。
另一方面,AI是一種機器模擬,旨在模仿這種自然智能的某些方面。我們接觸的大多數(shù)AI應用程序(尤其是在商業(yè)和在線平臺領域)都依賴機器學習。
這些是專門的AI系統(tǒng),使用大量數(shù)據(jù)進行特定任務的訓練。它們擅長完成指定的任務,無論是玩游戲、翻譯語言還是識別圖像。
然而一旦超出其預期范圍,它們通常是無用的……在一系列任務中擁有類似人類智能的AI這個概念被稱為通用AI,我們離實現(xiàn)這個里程碑事件還很遙遠。
2. 始終越大越好
科技巨頭們常常競相吹噓自家的AI模型的規(guī)模有多龐大。
Llama 2開源LLM以強大的700億參數(shù)版本讓世人感到驚訝,而谷歌的Palma擁有5400億參數(shù),OpenAI最近發(fā)布的ChatGPT4更是擁有1.8萬億參數(shù)。
然而,LLM的成百上千億個參數(shù)不一定意味著有更好的性能。數(shù)據(jù)的質(zhì)量和訓練方法常常是決定模型性能和準確性的更關鍵因素。斯坦福大學的Alpaca實驗已經(jīng)證明了這點,一個簡單的使用70億參數(shù)的基于Llama的LLM其性能可以與多達1760億參數(shù)的ChatGPT 3.5相媲美。
所以并非始終是越大就越好!優(yōu)化LLM的大小及其相應性能將使這些模型在本地得到更廣泛的使用,并讓我們可以將它們集成到日常設備中。
3. AI毫無透明度和問責制可言
一個常見的誤解是,AI是神秘的黑盒子,缺乏任何透明度。實際上,雖然AI系統(tǒng)可能很復雜,仍然相當不透明,但業(yè)界正在努力提高其透明度和問責制。
監(jiān)管機構(gòu)要求有道德、負責任地使用AI。《斯坦福人工智能透明度報告》和《歐洲人工智能法案》等重要舉措旨在促使企業(yè)提高AI透明度,并為各國政府在這個新興領域制定法規(guī)提供基礎。
透明AI已成為AI社區(qū)的一個核心討論話題,涵蓋眾多問題,比如允許個人確定AI模型全面測試的流程和理解AI決策背后基本原理的流程。
這就是為什么全球各地的數(shù)據(jù)專業(yè)人士已經(jīng)在研究使AI模型更加透明的方法。
所以雖然這個謊言可能部分正確,但顯然不能作為常識。
4. AI一貫正確
許多人認為AI系統(tǒng)是完美的,不會出錯。事實絕非如此。與任何系統(tǒng)一樣,AI的表現(xiàn)取決于其訓練數(shù)據(jù)的質(zhì)量。這些數(shù)據(jù)常常是由人類創(chuàng)建或管理的。如果這些數(shù)據(jù)含有偏見,AI系統(tǒng)會在不經(jīng)意間將偏見固化下來。
麻省理工學院(MIT)的一個團隊分析了多個廣泛使用的預訓練語言模型后發(fā)現(xiàn),將性別與某些職業(yè)和情緒關聯(lián)時存在明顯的偏見。比如說,空姐或秘書等角色主要與女性特質(zhì)聯(lián)系在一起,而律師和法官與男性特質(zhì)聯(lián)系在一起。該團隊在情感方面觀察到了同樣的行為。
其他發(fā)現(xiàn)的偏見與種族有關。隨著LLM進入醫(yī)療保健領域,有人開始擔心,它們可能會承襲基于種族的有害的醫(yī)療實踐,反映出訓練數(shù)據(jù)中固有的偏見。
人工干預至關重要,需要監(jiān)督和糾正這些缺點,確保AI的可靠性。關鍵在于使用具有代表性、無偏見的數(shù)據(jù),并進行算法審計以消除這些偏見。
5. AI嚴重沖擊就業(yè)市場
最普遍的擔憂之一是,AI將導致大規(guī)模失業(yè)。
然而歷史表明,雖然技術可能會淘汰某些工作,但同時也會造就新的行業(yè)和機會。
比如說,世界經(jīng)濟論壇預測,雖然到2025年AI可能會取代8500萬個工作崗位,但也將創(chuàng)造9700萬個新崗位。
6. AI主宰人類
最后一個謊言也是最反烏托邦的。以《黑客帝國》和《終結(jié)者》等電影為代表的流行文化描繪了AI可能奴役人類的可怕場景。
盡管Elon Musk和Stephen Hawking等頗有影響力的人物表達了擔憂,但AI的現(xiàn)狀遠非這種反烏托邦的形象。今天的AI模型(比如ChatGPT)是為了協(xié)助完成特定的任務而設計的,不具備科幻作品中描述的能力或動機。
所以現(xiàn)在,我們?nèi)允前踩模?/p>
主要結(jié)論
總之,隨著AI不斷發(fā)展并融入到我們的日常生活中,辨別真?zhèn)沃陵P重要。
只有有了清晰的認識,我們才能充分利用AI的潛力,負責任地應對其挑戰(zhàn)。
謊言會影響判斷,阻礙進步。
只有對AI的實際范圍有清晰的了解,我們才可以向前邁進,確保這項技術服務于人類。