在數(shù)字化的巨浪中,一場(chǎng)看似微不足道的失誤揭示了一個(gè)深刻的問(wèn)題:當(dāng)企業(yè)將人工智能(AI)納入其運(yùn)營(yíng)時(shí),它們應(yīng)承擔(dān)何種責(zé)任?加拿大航空就因一次由客服聊天機(jī)器人引發(fā)的定價(jià)錯(cuò)誤而不得不進(jìn)行賠償,這一事件遠(yuǎn)非簡(jiǎn)單的插曲,而是關(guān)于企業(yè)如何精確監(jiān)管 AI 工具的重大議題的縮影。
優(yōu)惠引發(fā)的爭(zhēng)議
這一故事圍繞著加拿大 British Columbia 省的居民 Jake Moffatt 展開。2022 年 11 月的一個(gè)清晨,他在瀏覽加拿大航空的網(wǎng)站,試圖預(yù)訂一張飛往安大略省,參加祖母葬禮的機(jī)票。網(wǎng)站上的聊天機(jī)器人向他保證,只要在 90 天內(nèi)提交申請(qǐng),他就有資格獲得部分退款。然而,現(xiàn)實(shí)卻與之相悖,因?yàn)榧雍降膶?shí)際政策明確指出,預(yù)訂航班票后,乘客不能以家庭悲傷為由申請(qǐng)退款。
到了 2023 年 2 月,Moffatt 終于提交了他與聊天機(jī)器人對(duì)話的截圖給航空公司,以此證明自己的主張。文件揭露,加航“承認(rèn)聊天機(jī)器人使用了‘誤導(dǎo)性詞匯’”,但仍然拒絕退款。
加航的辯解是,鑒于聊天機(jī)器人的回復(fù)中鏈接到了詳細(xì)的喪親旅行政策頁(yè)面,Moffatt 本應(yīng)該知曉喪親優(yōu)惠不能追溯申請(qǐng)。加航未予退款,而是提出更新聊天機(jī)器人的計(jì)劃,并向 Moffatt 提供了一張價(jià)值 200 美元的優(yōu)惠券,供其日后使用。
對(duì)這一解決方案,Moffatt 表示不滿,拒絕了優(yōu)惠券,并向加拿大民事解決法庭提起了索賠。
案件的主審官 Christopher Rivers 對(duì)加航的立場(chǎng)提出了批評(píng),他指出:“加航的論點(diǎn)是,它不能為其代理人、仆人或代表(包括聊天機(jī)器人)所提供的信息承擔(dān)責(zé)任。”他質(zhì)疑航空公司要求客戶根據(jù)網(wǎng)站其他部分的信息來(lái)驗(yàn)證聊天機(jī)器人所提供信息的合理性,認(rèn)為這一要求是不合理的。
最終,支持 Moffatt 的裁決讓他能夠從 1640.36 加元的原票價(jià)中獲得 650.88 加元的部分退款,以及額外的損失賠償,包括機(jī)票利息和法庭費(fèi)用。
在與 AI 系統(tǒng)提供的不良投資建議、指導(dǎo)進(jìn)行欺詐性交易等問(wèn)題相比,650 加元或許只是象征性的金額,但它凸顯了一個(gè)更廣泛的問(wèn)題:在 AI 日益滲透我們生活的今天,企業(yè)應(yīng)如何負(fù)責(zé)地部署和監(jiān)管這些技術(shù),以確保既促進(jìn)效率又保護(hù)消費(fèi)者權(quán)益。
轟轟烈烈地上崗后悄無(wú)聲地下崗
在數(shù)字化創(chuàng)新的浪尖上,加拿大航空的一次大膽嘗試——引入聊天機(jī)器人,旨在通過(guò)人工智能(AI)技術(shù)探索新的客戶服務(wù)模式,卻在實(shí)踐中遭遇了波折。去年三月,加航首席信息官 Mel Crocker 曾對(duì)外宣布,部署聊天機(jī)器人是一場(chǎng)關(guān)于 AI 的“實(shí)驗(yàn)”,初衷是緩解航班延誤或取消時(shí)呼叫中心的壓力。
Crocker 解釋道,在極端天氣條件下,乘客急需重新安排航班,而此時(shí),AI的介入能簡(jiǎn)化流程,提升效率:“如果你因?yàn)楸╋L(fēng)雪而未能拿到新的登機(jī)牌,僅僅想要確認(rèn)是否能在另一班飛機(jī)上獲得座位,這正是我們可以借助 AI 輕松解決的問(wèn)題。”隨著時(shí)間推移,加航寄望于聊天機(jī)器人能解決更多復(fù)雜的客戶服務(wù)問(wèn)題,實(shí)現(xiàn)服務(wù)流程的全面自動(dòng)化,減少“人工接觸”的需求。
Crocker 的言論透露了加航對(duì)技術(shù)進(jìn)步的積極態(tài)度:“如果我們能通過(guò)技術(shù)解決那些可以自動(dòng)化的問(wèn)題,我們就會(huì)毫不猶豫。”加航對(duì)于客戶服務(wù)中人工智能技術(shù)的初步投資,盡管成本高昂,遠(yuǎn)超繼續(xù)支付人工處理簡(jiǎn)單查詢的費(fèi)用,但他們堅(jiān)信,這樣的投資最終會(huì)通過(guò)提高服務(wù)質(zhì)量得到回報(bào)。
然而,這一切并非沒(méi)有代價(jià)。至少對(duì)于一位顧客而言,這項(xiàng)技術(shù)帶來(lái)的是更多的挫折而非便利。截至 2 月 18 日,這位不速之客——聊天機(jī)器人,在加航的網(wǎng)站上已經(jīng)不復(fù)存在。這不僅標(biāo)志著一個(gè)高調(diào)啟動(dòng)、卻默默退場(chǎng)的技術(shù)實(shí)驗(yàn)的結(jié)束,也對(duì)企業(yè)如何在追求自動(dòng)化和保證客戶滿意度之間尋找平衡提出了重要的思考。
有沒(méi)有規(guī)避措施?
在人工智能(AI)愈發(fā)成為企業(yè)運(yùn)營(yíng)不可或缺的一部分時(shí),加航聊天機(jī)器人引發(fā)的爭(zhēng)議凸顯了一個(gè)重要的法律與道德議題:企業(yè)如何在利用 AI 提升效率與確保提供準(zhǔn)確信息之間找到平衡點(diǎn)。法律專家的見(jiàn)解揭示了一個(gè)潛在的規(guī)避責(zé)任的策略:若加航的聊天機(jī)器人能在與顧客互動(dòng)時(shí)明確指出其提供的信息可能存在不準(zhǔn)確性,那么公司或許能夠規(guī)避類似莫法特案件中的責(zé)任。
遺憾的是,加航似乎未采取此類預(yù)警措施。Christopher Rivers 裁判官的判斷明確指出,“加航未采取合理謹(jǐn)慎的措施以確保其聊天機(jī)器人提供信息的準(zhǔn)確性”,強(qiáng)調(diào)企業(yè)應(yīng)對(duì)其網(wǎng)站上所有形式的信息負(fù)責(zé),無(wú)論是來(lái)自靜態(tài)頁(yè)面還是動(dòng)態(tài)的聊天機(jī)器人。
這一判決對(duì)于所有利用AI工具的企業(yè)來(lái)說(shuō),都是一個(gè)重要的警示,強(qiáng)調(diào)了監(jiān)控和確保 AI 產(chǎn)出準(zhǔn)確性的重要性。Gartner 的 AI 分析師 Avivah Litan 強(qiáng)調(diào),企業(yè)必須投入資源進(jìn)行嚴(yán)格的監(jiān)控,這不僅可以避免潛在的法律費(fèi)用和罰款,更重要的是確保技術(shù)為企業(yè)帶來(lái)的是助力而非負(fù)擔(dān)。
此外,生成式 AI,特別是聊天機(jī)器人等工具的使用,引發(fā)了對(duì)準(zhǔn)確性的廣
泛討論。Litan 指出,大約 30%的生成式 AI 回答存在誤差,企業(yè)需要通過(guò)建立防護(hù)機(jī)制來(lái)控制這些被稱為“幻覺(jué)”的輸出,確保不準(zhǔn)確的信息不會(huì)誤導(dǎo)用戶。
IDC 的 Hayley Sutherland 和 Forrester 的 David Truog 分別強(qiáng)調(diào)了負(fù)責(zé)任地使用 AI 的重要性和目前聊天機(jī)器人技術(shù)的局限性。他們提醒企業(yè),盡管技術(shù)不斷進(jìn)步,但在部署這些工具時(shí)應(yīng)保持審慎,確保其既能處理簡(jiǎn)單任務(wù),也能在復(fù)雜性和專業(yè)性方面達(dá)到有效溝通的標(biāo)準(zhǔn)。
綜上所述,加航的經(jīng)驗(yàn)教訓(xùn)為所有企業(yè)提供了寶貴的洞察:在追求自動(dòng)化和效率的同時(shí),必須投入適當(dāng)?shù)馁Y源和策略來(lái)確保 AI 工具的準(zhǔn)確性和可靠性,從而避免潛在的法律風(fēng)險(xiǎn)和維護(hù)顧客信任。
企業(yè)擁抱AI的責(zé)任與挑戰(zhàn)
加拿大航空的經(jīng)歷超越了一個(gè)簡(jiǎn)單的聊天機(jī)器人失誤,它觸及了企業(yè)在采納人工智能(AI)技術(shù)時(shí)所必須承擔(dān)的更深層責(zé)任。這起事件不僅僅是一個(gè)警鐘,也是對(duì)未來(lái),特別是涉及 AI 系統(tǒng)——包括生成式 AI——的案件一個(gè)明確的指示:需要仔細(xì)考慮哪些參與者,無(wú)論是 AI 的行為者還是使用者,應(yīng)對(duì) AI 系統(tǒng)的輸出承擔(dān)責(zé)任。
這一事件強(qiáng)調(diào)了一個(gè)關(guān)鍵信息,即所有企業(yè)在追求由技術(shù)帶來(lái)的效率和便利性的同時(shí),也必須相應(yīng)地投入資源,以確保這些技術(shù)的使用是安全、可靠且負(fù)責(zé)任的。這不僅關(guān)乎法律責(zé)任的界定,更關(guān)乎于企業(yè)如何在技術(shù)創(chuàng)新與倫理責(zé)任之間找到平衡點(diǎn),確保在利用 AI 推動(dòng)業(yè)務(wù)發(fā)展的同時(shí),也能保護(hù)消費(fèi)者的權(quán)益并促進(jìn)公平、透明的技術(shù)使用環(huán)境。