現(xiàn)如今,生成式AI的探索和實施工作已經(jīng)不可避免地同安全問題交織在一起。根據(jù)近期的一份數(shù)據(jù)報告,49%的企業(yè)領導者認為安全風險已經(jīng)成為首要問題,38%的企業(yè)領導者則將因不了解如何使用GPT工具而引發(fā)的人為錯誤/人為數(shù)據(jù)泄露列為頭號挑戰(zhàn)。
盡管這些擔憂各有道理,但早期采用者所獲得的好處將遠遠超過這些阻礙探索的潛在后果。
在本文中,我們將幫助各位團隊成員和客戶了解為何不能把安全視為事后因素,而應將其作為AI與業(yè)務相集成的先決條件,同時探討這方面工作中的一系列最佳實踐。
以安全策略為起點
企業(yè)已經(jīng)感受到由AI應用所帶來的新興安全風險與現(xiàn)實緊迫性。事實上,根據(jù)之前提到的統(tǒng)計報告,81%的企業(yè)領導者表示他們的公司已經(jīng)實施、或者正在制定圍繞生成式AI建立的用戶政策。
然而,由于該項技術的發(fā)展速度極快、新興應用與用例時刻都在涌現(xiàn),因此政策內容也必須不斷更新以應對隨時出現(xiàn)的風險和挑戰(zhàn)。
為了在加快探索的同時最大限度降低安全風險,我們自然有必要為測試和學習工作設置“護欄”。而且相關政策的制定也絕不應孤立推進,而應從企業(yè)內各個部門的代表處充分征集意見,思考不同職能單位如何使用/是否可以使用生成式AI應對各自面臨的安全風險。
總而言之,各部門對于AI技術的探索不應被粗暴禁止。如果單純出于恐懼而在企業(yè)范圍內全面封禁,那么大家也不必擔心競爭對手吞噬自己的市場份額了——您本身就是在自毀長城。
以一線人員為核心
為了確保能夠以安全的方式使用生成式AI,我們首先應為普通開發(fā)人員提供許可,例如允許他們全面使用大語言學習模型Insight GPT的私有實例。這一方面有助于發(fā)現(xiàn)潛在用例,同時也能根據(jù)輸出開展壓力測試,對生成式AI服務做出持續(xù)改進。
我們很快發(fā)現(xiàn),一位倉庫團隊成員找到了一種提高訂單配送效率的方法。在這種非凡的用例中,該成員要求Insight GPT在SAP中編寫一份腳本,用以自動處理部分工作負載。雖然效果很棒,但如果沒有設置適當?shù)淖o欄,這種嘗試也極易引發(fā)事故。比如說,一旦工作人員粗心之下執(zhí)行了一筆訂單中并不存在的交易,那么后續(xù)的自動環(huán)節(jié)將無法中斷。
所以在促進民間探索并盡可能限制風險的過程中,我們需要:審查委員會應制定明確的指導方針,開展風險評估并加強AI系統(tǒng)的透明度。進行適當培訓,教育員工如何以負責任的方式將AI納入工作場景,特別是應當闡明對于道德標準、偏見、人類監(jiān)督和數(shù)據(jù)隱私等關鍵問題的處理方式。開設內部論壇,鼓勵團隊成員在公司創(chuàng)新者群組內分享自己的發(fā)現(xiàn)和教訓。
減少“幻覺”的風險
生成式AI之所以存在風險,一個重要原因就是它偶爾會產(chǎn)生“幻覺”。根據(jù)Insight報告,企業(yè)領導者最關心的一個共同主題,就是幻覺會如何引發(fā)錯誤的商業(yè)決策。然而,由幻覺導致的風險往往各不相同,有時問題不大、有時后果嚴重,具體影響往往因場景而異。
雖然GPT工具必然會輸出某些與客觀現(xiàn)實不符的結果,但我們很快意識到這種錯誤回答往往屬于措辭層面的混淆。例如,在早期測試當中,我們詢問Insight GPT埃迪·范·海倫曾與埃迪·范·海倫合作過哪首作品。正確答案是“Beat It”,但它的回答卻是“Thriller”??蓮牧硪唤嵌戎v,“Beat It”確實是“Thriller”專輯中的一首作品,所以它的回答也并非毫無道理。
這就完美詮釋了“幻覺”問題造成的不同風險,特別是在處理各種主觀性較強的工作負載時。要想在安全角度上解決這類問題,我們就必須建立并執(zhí)行相關政策,將所有AI生成的內容都納入人工監(jiān)督范疇之內。此外,所有由AI輔助生成的內容都必須進行明確標記。當這些內容穿行在內部及外部各價值鏈時,也應始終附帶標記并接受監(jiān)督。
當下,生成式AI行業(yè)仍處于萌芽階段,誰能摸索出負責任且安全的應用方式,同時減少數(shù)據(jù)泄露、信息錯誤、偏見及其他風險所引發(fā)的潛在威脅,誰就能建立起明確的技術優(yōu)勢。企業(yè)需要保證自己的AI政策與行業(yè)的變化持續(xù)保持同步,在維護合規(guī)性、緩解幻覺問題的同時逐步建立起用戶信任。