無論是否被過度炒作,人工智能算法的前景依然廣闊。但是,IT 領導者要想利用當今最熱門的新興技術,就必須牢記以下核心問題。
股價飆升。生成式人工智能算法可以創(chuàng)作出任何風格的驚人藝術作品,然后一轉(zhuǎn)眼就能寫出語法精湛的長篇文章,這讓每個人都驚嘆不已。每一位首席信息官和首席執(zhí)行官都在自己的演示文稿中準備了一三張幻燈片,討論生成式人工智能將如何改變他們的業(yè)務。
這項技術仍處于起步階段,但其能力已經(jīng)毋庸置疑。下一波計算浪潮將涉及生成式人工智能,可能會在工作流程的多個地方出現(xiàn)。這股浪潮將勢不可擋。
會出什么問題呢?嗯,很多事情。末日論者認為,經(jīng)濟會遭到徹底破壞,人類會被奴役,動物世界也會被奴役。
他們可能會緊張得喘不過氣來。但即使最糟糕的情況從未出現(xiàn),也并不意味著一切都會完美無缺。生成式人工智能算法仍然非常新穎,而且發(fā)展迅速,但仍有可能在基礎上出現(xiàn)裂縫。深入研究這些算法,你仍然會發(fā)現(xiàn)它們有一些地方無法達到預期的效果。
以下是生成式人工智能算法的 N 個秘密,在計劃如何將該技術融入企業(yè)工作流程時應牢記在心。
01|他們憑空捏造錯誤
大型語言模型(LLMs)能寫出 1000 字的文章,論述沙鶴的交配儀式或 17 世紀東歐建筑中凸棱的重要性等晦澀難懂的話題,這種方式幾乎有一種魔力。但同樣的魔力也能讓他們憑空捏造出錯誤。他們游刃有余地使用動詞變位和語法,其能力不亞于受過大學教育的英語專業(yè)學生。許多事實完全正確。然后,瞧,他們就像一個四年級的小學生一樣胡編亂造起來。
LLM 的結(jié)構(gòu)使得這種情況不可避免。它們使用概率來學習單詞如何搭配。有時,數(shù)字會選擇錯誤的詞語。沒有真正的知識,甚至沒有本體論來指導它們。這只是概率,有時骰子會擲出骰子。我們可能認為自己在與一個新的高級生命進行心靈交融,但其實我們與在拉斯維加斯尋找擲骰子信號的賭徒并無不同。
02|它們是數(shù)據(jù)篩
人類試圖建立一個復雜的知識等級體系,其中有些細節(jié)只有內(nèi)部人員知道,有些則與所有人共享。這種一廂情愿的等級制度在軍事分類系統(tǒng)中最為明顯,但許多企業(yè)也有這種制度。對于 IT 部門和管理這些系統(tǒng)的首席信息官來說,維護這些層次結(jié)構(gòu)往往是一件非常麻煩的事情。
LLM 在這些分類方面做得并不好。雖然計算機是規(guī)則的終極遵守者,它們可以保存幾乎無限復雜的目錄,但 LLM 的結(jié)構(gòu)并不允許某些細節(jié)是保密的,某些細節(jié)是可以共享的。這一切只是馬爾可夫鏈上概率和隨機行走的巨大集合。
甚至在一些令人毛骨悚然的時刻,LLM 會利用其概率將兩個事實粘合在一起,并推斷出一些名義上秘密的事實。如果有相同的細節(jié),人類甚至會做同樣的事情。
也許有一天,法律碩士能夠保持強大的保密層,但目前,這些系統(tǒng)的最佳訓練方式是使用非常公開的信息,一旦泄露,不會引起轟動。目前已經(jīng)有幾個備受關注的例子,涉及公司數(shù)據(jù)泄露和法律碩士規(guī)避法律風險。一些公司正試圖將人工智能轉(zhuǎn)化為阻止數(shù)據(jù)泄露的工具,但我們還需要一些時間才能了解做到這一點的最佳方法。在此之前,首席信息官們最好對提供給他們的數(shù)據(jù)嚴加管理。
03|它們助長了懶惰
人類非常善于信任機器,尤其是在機器省力的情況下。當 LLM 在大多數(shù)時候都證明自己是正確的時候,人類就會開始一直信任它們。
即使要求人類重復檢查人工智能,效果也不會太好。當人類習慣了人工智能的正確性之后,他們就會開始迷失方向,相信機器就是正確的。
這種懶惰開始充斥整個組織。人們不再獨立思考,最終企業(yè)陷入低能耗的停滯狀態(tài),沒有人愿意跳出框框思考問題。這種狀態(tài)可以讓人暫時放松,沒有壓力--直到競爭對手出現(xiàn)。
04|其真實成本不得而知
沒有人知道使用 LLM 的正確成本。許多應用程序接口都有價格標簽,上面標明了每個令牌的成本,但有跡象表明,風險資本對這些令牌進行了大量補貼。我們看到 Uber 等服務也是如此。價格一直很低,直到投資者的錢花光了,價格才一路飆升。
有跡象表明,目前的價格并不是最終主導市場的真實價格。租用一個好的 GPU 并保持其運行可能要貴得多。在本地運行 LLM,在機架上裝滿顯卡可以節(jié)省一些費用,但這樣就失去了交鑰匙服務的所有優(yōu)勢,比如只需在需要時支付機器的費用。
05|它們是版權噩夢
市場上已經(jīng)有一些不錯的法學碩士,他們可以處理一般的瑣事,比如做高中家庭作業(yè)或?qū)懘髮W入學論文,這些都強調(diào)學生的獨立性、干勁、寫作能力和道德品質(zhì)--哦,還有他們獨立思考的能力。
但是,大多數(shù)企業(yè)并沒有這類一般性的瑣事讓人工智能去做。他們需要針對具體業(yè)務定制結(jié)果?;镜?LLM 可以提供一個基礎,但仍然需要大量的培訓和微調(diào)。
很少有人能找出匯集這些訓練數(shù)據(jù)的最佳方法。有些企業(yè)很幸運,擁有自己控制的大型數(shù)據(jù)集。然而,大多數(shù)企業(yè)發(fā)現(xiàn),他們并沒有解決版權方面的所有法律問題。一些作家提起訴訟,因為在使用他們的作品訓練人工智能時,沒有征求他們的意見。一些藝術家覺得自己被剽竊了。隱私問題仍在解決中。你能用客戶的數(shù)據(jù)訓練人工智能嗎?版權問題解決了嗎?您是否擁有正確的法律形式?數(shù)據(jù)的格式是否正確?要創(chuàng)建一個優(yōu)秀的、定制化的人工智能,讓它在您的企業(yè)中發(fā)揮作用,還有很多問題需要解決。
06|它們可能會導致供應商鎖定
從理論上講,人工智能算法是一種通用工具,抽象掉了用戶界面的所有復雜性。它們應該是獨立的,能夠處理生活--或它們所服務的白癡人類--給它們帶來的任何問題。換句話說,它們不應該像應用程序接口那樣僵化和缺乏靈活性。從理論上講,這意味著可以很容易地快速更換供應商,因為人工智能只會適應。當需要切換供應商時,就不需要某個程序員團隊重寫膠水代碼,也不需要做所有會帶來麻煩的事情。
但在現(xiàn)實中,它們?nèi)匀淮嬖诓町?。應用程序接口可能很簡單,但它們?nèi)匀淮嬖诓町?,比如調(diào)用的 JSON 結(jié)構(gòu)。但真正的差異卻深藏其中。為生成式人工智能編寫提示是一門真正的藝術。要讓人工智能發(fā)揮出最佳性能并不容易?,F(xiàn)在已經(jīng)有一份職位描述,要求聰明人了解其特異性,并能編寫更好的提示語,提供更好的答案。即使應用程序接口的差異很小,但提示結(jié)構(gòu)的怪異差異也讓人很難快速切換人工智能。
07|他們的智慧仍然淺薄
長期以來,對教材的淺嘗輒止與深入睿智的理解之間的差距一直是大學的一個主題。亞歷山大-波普(Alexander Pope)寫道:"一點學問是危險的;
深飲吧,否則嘗不到皮埃爾泉水的滋味"。那是在 1709 年。
其他聰明人也注意到了人類智力極限的類似問題。蘇格拉底的結(jié)論是,盡管他學識淵博,但其實一無所知。莎士比亞認為,智者自知是個傻瓜。這樣的例子不勝枚舉,其中大部分對認識論的見解都以這樣或那樣的形式應用到了神奇的生成式人工智能中,而且往往應用得更為廣泛。首席信息官和技術領導團隊面臨著艱巨的挑戰(zhàn)。他們需要充分利用生成式人工智能所能產(chǎn)生的最佳效果,同時努力避免在所有智力淺灘上擱淺,而這些淺灘一直以來都是人類、外星或計算智能所面臨的問題。