在EmTech MIT,專家們探討了在企業(yè)中采用生成式AI的挑戰(zhàn)和好處,包括開源生成式AI模型的優(yōu)缺點(diǎn)。
本周早些時(shí)候,在麻省理工學(xué)院技術(shù)評(píng)論(MIT Technology Review)主辦的EmTech MIT會(huì)議上,人工智能在演講中占有重要地位。隨著實(shí)驗(yàn)生成式人工智能的壓力越來越大,組織正面臨著一系列挑戰(zhàn),從特定領(lǐng)域的準(zhǔn)確性等實(shí)際問題到安全和隱私風(fēng)險(xiǎn)。
生成式人工智能已經(jīng)在企業(yè)環(huán)境中找到了多樣化的應(yīng)用。IBM Infrastructure首席技術(shù)官兼創(chuàng)新總經(jīng)理Hillery Hunter在她的演講“生成式AI世界中的數(shù)據(jù)影響”中指出,早期用例包括供應(yīng)鏈、客戶支持、合同和法律。“企業(yè)開始明白,人工智能將以多種不同的方式打擊他們,”亨特說。
隨著組織探索生成式AI的廣泛用例,人們對(duì)開源選項(xiàng)的興趣也在增加。雖然從長(zhǎng)遠(yuǎn)來看,對(duì)流行的大型語言模型(如GPT-4)的專有許可訪問可能會(huì)受到限制且成本高昂,但開源替代方案通常更便宜且更可定制。
因此,利用開源選項(xiàng)可以使公司減少對(duì)供應(yīng)商的依賴,并構(gòu)建針對(duì)特定任務(wù)和工作流程量身定制的專用內(nèi)部工具。但是,負(fù)責(zé)任地將開源生成式人工智能集成到企業(yè)中,需要嚴(yán)格評(píng)估安全、道德和技術(shù)能力方面的風(fēng)險(xiǎn)。
評(píng)估開源與專有生成式 AI
博思艾倫漢密爾頓生成式人工智能總監(jiān)艾莉森·史密斯(Alison Smith)在她的演講“開源生成式人工智能”中概述了開源生成式人工智能的機(jī)遇和風(fēng)險(xiǎn)。
Smith 強(qiáng)調(diào)了開源社區(qū)與 AI 突破之間的歷史聯(lián)系,機(jī)器學(xué)習(xí)的重大進(jìn)步與 TensorFlow 和 PyTorch 等開源計(jì)劃有關(guān)。然而,在生成式人工智能時(shí)代,迄今為止性能最高的 LLM 已被關(guān)閉。
但生成式人工智能是一個(gè)快速發(fā)展的領(lǐng)域,未來平衡可能會(huì)發(fā)生變化,特別是對(duì)于利基應(yīng)用。開源的低成本、靈活性和透明度使其對(duì)希望微調(diào)利基應(yīng)用程序模型和審查源代碼是否存在安全漏洞的組織具有吸引力。
“關(guān)于開源與封閉和專有的爭(zhēng)論一直存在,”史密斯在接受TechTarget編輯部采訪時(shí)說。“我認(rèn)為,由于這些生成式人工智能模型的強(qiáng)大功能,這一點(diǎn)只會(huì)被放大。
盡管像ChatGPT這樣面向消費(fèi)者的生成模型仍然大多是專有的,但史密斯認(rèn)為,開源在更狹窄的應(yīng)用中越來越受歡迎,它可以提供專業(yè)化、透明度和成本優(yōu)勢(shì)。“真的很難圍繞開源做出這些籠統(tǒng)的聲明,或者根本不做,”她說。
相反,決定是使用專有還是開源生成式人工智能,可能涉及檢查特定用例的細(xì)節(jié)。史密斯提到,生態(tài)系統(tǒng)可能會(huì)出現(xiàn)一個(gè)針對(duì)特定任務(wù)量身定制的小型開源模型,而 ChatGPT 等消費(fèi)者應(yīng)用程序在很大程度上仍然是專有的。
史密斯說:“我不認(rèn)為我們期望在這種非常廣泛的生成式人工智能層面上看到一個(gè)與另一個(gè)。“ChatGPT 太棒了,因?yàn)槟憧梢噪S心所欲地問它,做各種瘋狂的任務(wù)。但是,對(duì)于特定的企業(yè)級(jí)用例,您真的需要它嗎?可能不是。
開發(fā)開源生成式人工智能的難點(diǎn)
盡管有其好處,但構(gòu)建開源生成式人工智能可能會(huì)被證明是具有挑戰(zhàn)性的。與其他類型的軟件甚至機(jī)器學(xué)習(xí)的其他領(lǐng)域相比,生成式人工智能需要更廣泛的基礎(chǔ)設(shè)施和數(shù)據(jù)資源,以及構(gòu)建和操作模型的專業(yè)人才。
這些因素都為構(gòu)建有效的開源生成式人工智能帶來了潛在的障礙。即使對(duì)于資金雄厚的企業(yè)來說,訓(xùn)練有用的高性能模型所需的財(cái)務(wù)和計(jì)算資源也具有挑戰(zhàn)性,更不用說在開源環(huán)境中工作的模型開發(fā)人員了。這些資金挑戰(zhàn)雖然在人工智能開發(fā)中加劇,但反映了開源領(lǐng)域長(zhǎng)期存在的普遍問題。
“即使使用開源軟件,無論框架或庫(kù)多么流行 - 即使是Python作為編程語言 - 對(duì)于所有維護(hù)它的人來說,這確實(shí)是一項(xiàng)吃力不討好的工作,”史密斯說。“而且很難商業(yè)化。”
史密斯提到,免費(fèi)增值模式提供對(duì)基本功能的免費(fèi)訪問,同時(shí)對(duì)某些功能或服務(wù)(如安全或咨詢)收費(fèi),這是一種潛在的融資方式。其他常見的模式包括眾籌、非營(yíng)利組織的支持和大型科技公司的資助。然而,后者可能會(huì)引發(fā)圍繞影響開源模型和軟件開發(fā)而引發(fā)的棘手問題。
“開源社區(qū)的偉大之處在于,貢獻(xiàn)來自一個(gè)龐大的、多樣化的人群,”史密斯說。“每當(dāng)你集中資金時(shí),你可能會(huì)夸大集中資金來源的激勵(lì)措施。
預(yù)測(cè)和管理企業(yè)生成式 AI 風(fēng)險(xiǎn)
在企業(yè)中有效地部署生成式人工智能,特別是在通過微調(diào)領(lǐng)域和組織特定數(shù)據(jù)來充分利用該技術(shù)的情況下,需要仔細(xì)平衡風(fēng)險(xiǎn)管理與創(chuàng)新。
盡管許多組織都感受到了快速實(shí)施生成式 AI 計(jì)劃的壓力,但部署強(qiáng)大的概率模型需要深思熟慮,尤其是對(duì)于敏感應(yīng)用程序。例如,處理與醫(yī)療保健或國(guó)家安全有關(guān)的信息的模型比客戶服務(wù)聊天機(jī)器人涉及更大的風(fēng)險(xiǎn)。
對(duì)于生成式人工智能的企業(yè)應(yīng)用,如內(nèi)部問答系統(tǒng),史密斯強(qiáng)調(diào)需要對(duì)用戶訪問和權(quán)限進(jìn)行控制。正如員工只能訪問其組織文檔管理系統(tǒng)中的某些文件夾一樣,內(nèi)部 LLM 應(yīng)僅向有權(quán)接收信息的用戶提供信息。實(shí)施適當(dāng)?shù)脑L問控制可以確保用戶只獲得適合其角色的響應(yīng)。
“首先列舉可能的風(fēng)險(xiǎn)總是很重要的,”史密斯說。“[首先]你從它的嚴(yán)重性開始,無論你試圖完成什么行動(dòng),其次,它有多廣泛 - 有多少人會(huì)受到影響。
鑒于預(yù)測(cè)所有風(fēng)險(xiǎn)不太可能實(shí)現(xiàn),因此仔細(xì)規(guī)劃和制定事件響應(yīng)策略至關(guān)重要。“對(duì)我來說,最好的做法是首先從安全態(tài)勢(shì)開始,”史密斯說,然后繼續(xù)討論有效性和用戶體驗(yàn)問題。
Hunter 指出,IBM 的研究發(fā)現(xiàn),提前規(guī)劃可以顯著降低與網(wǎng)絡(luò)安全事件相關(guān)的成本。在 IBM 2023年版的年度“數(shù)據(jù)泄露成本報(bào)告”中,與低級(jí)別同行相比,具有高水平事件響應(yīng)規(guī)劃和測(cè)試的組織節(jié)省了近 150 萬美元。
“我認(rèn)為我們傾向于 - 特別是當(dāng)我們對(duì)新技術(shù)感到興奮時(shí) - 被這些好處所震撼,”史密斯說。“我?guī)缀跸M覀兡芟染惋L(fēng)險(xiǎn)進(jìn)行對(duì)話,你正在詳細(xì)說明......所有可能出錯(cuò)的事情,知道還有更多的事情。然后,基于這些好處,這有意義嗎?