邻居一晚让我高潮3次正常吗,人妻丰满熟妇AV无码区动漫,乱LUN合集1第40部分阅读,精品无码国产一区二区三区51安

當(dāng)前位置:首頁 > 最新資訊 > 行業(yè)資訊

對AI不夠信任的高管們,究竟在想什么?

高管們長期以來一直抵制將數(shù)據(jù)分析用于更高層次的決策,他們總是青睞依靠基于現(xiàn)場經(jīng)驗(yàn)的直覺層面的決策,而不是AI輔助的決策。

AI已在許多行業(yè)被廣泛用于戰(zhàn)術(shù)性、低級別的決策——信用評分、超額促銷建議、聊天機(jī)器人或管理機(jī)器性能都是成功部署AI的例子。然而,它在更高層次的戰(zhàn)略決策中的作用尚待證明——比如重組產(chǎn)品線,改變企業(yè)戰(zhàn)略,在各職能部門重新配置人力資源,或與新的合作伙伴建立關(guān)系。

無論是AI還是高級分析,企業(yè)領(lǐng)導(dǎo)者仍然還沒有做好準(zhǔn)備,以深刻的方式將他們的業(yè)務(wù)完全押在機(jī)器做出的決策上。瑞士國際管理發(fā)展學(xué)院商學(xué)院(IMD Business School)的阿米特·喬希(Amit Joshi)和邁克爾·韋德(Michael Wade)對金融和零售企業(yè)中的AI活動開展的研究發(fā)現(xiàn),“AI現(xiàn)在主要被用于戰(zhàn)術(shù)性而非戰(zhàn)略性目的——事實(shí)上,很少能夠找到一個(gè)完整的長期AI戰(zhàn)略愿景。”

在接受德勤(Deloitte)的一項(xiàng)調(diào)查時(shí),三分之二以上的高管(67%)表示,他們在訪問或使用先進(jìn)分析系統(tǒng)的數(shù)據(jù)時(shí)感到“不自在”。在擁有強(qiáng)大數(shù)據(jù)驅(qū)動文化的企業(yè)中,37%的受訪者仍然表達(dá)了不適。同樣,在畢馬威(KPMG)開展的一項(xiàng)類似調(diào)查中,67%的CEO表示他們通常更喜歡根據(jù)自己的直覺和經(jīng)驗(yàn)來做決定,而不是通過數(shù)據(jù)分析產(chǎn)生的見解。該研究證實(shí),許多高管對其公司的數(shù)據(jù)、分析和AI缺乏高度信任,而且不確定誰該對錯誤和濫用AI負(fù)責(zé)。數(shù)據(jù)科學(xué)家和分析師也看到了高管們的這種不情愿——SAS最近的一項(xiàng)調(diào)查發(fā)現(xiàn),42%的數(shù)據(jù)科學(xué)家表示他們的結(jié)果沒有被企業(yè)決策者使用。

高管們何時(shí)才能做好準(zhǔn)備,將AI推向下一步,對AI足夠信任,以至于會按照那些影響他們業(yè)務(wù)的更具戰(zhàn)略性的建議而采取行動?雖然存在許多挑戰(zhàn),但是現(xiàn)在可以采取四項(xiàng)行動,以增加高管在AI輔助決策方面的信心。

創(chuàng)建可靠的模式

高管的猶豫可能源于負(fù)面的經(jīng)歷,比如某AI系統(tǒng)提供了誤導(dǎo)性的銷售結(jié)果。幾乎每個(gè)失敗的AI項(xiàng)目都有一個(gè)共同點(diǎn)——缺乏數(shù)據(jù)質(zhì)量。在舊的企業(yè)模式中,結(jié)構(gòu)化的數(shù)據(jù)占主導(dǎo)地位,它在數(shù)據(jù)從源頭到達(dá)時(shí)就對其進(jìn)行分類,使得數(shù)據(jù)相對容易立即投入使用。

雖然AI可以使用高質(zhì)量的結(jié)構(gòu)化數(shù)據(jù),但它也使用大量的非結(jié)構(gòu)化數(shù)據(jù)來創(chuàng)建機(jī)器學(xué)習(xí)(machine learning, ML)模型和深度學(xué)習(xí)(deep learning,DL)模型。這些非結(jié)構(gòu)化數(shù)據(jù)雖然很容易以原始格式收集,但如果不對其進(jìn)行適當(dāng)?shù)姆诸?、?biāo)記和清理,它們是無法使用的——視頻、圖像、圖片、音頻、文本和日志——都需要進(jìn)行分類、標(biāo)記,以便AI系統(tǒng)創(chuàng)建和訓(xùn)練模型,然后才能將這些模型部署到現(xiàn)實(shí)世界。因此,輸入AI系統(tǒng)的數(shù)據(jù)可能是過時(shí)、不相關(guān)、多余、有限的或不準(zhǔn)確的數(shù)據(jù)。輸入AI/ML模型的片面數(shù)據(jù)只會提供企業(yè)的局部視野。AI模型的構(gòu)建可能是為了反映企業(yè)一直以來的經(jīng)營方式,并沒有能力適應(yīng)新的機(jī)會或現(xiàn)實(shí),例如我們看到的因全球疫情的影響而造成的供應(yīng)鏈中斷。這意味著數(shù)據(jù)需要實(shí)時(shí)輸入,這樣才能實(shí)時(shí)創(chuàng)建或改變模型。

難怪,許多數(shù)據(jù)科學(xué)家把一半的時(shí)間花在數(shù)據(jù)準(zhǔn)備上。在創(chuàng)建能提供適當(dāng)結(jié)果的可靠AI模型的過程中,這仍然是唯一的重要任務(wù)。要獲得高管的信任,背景和可靠性是關(guān)鍵。有許多AI工具可以用來幫助進(jìn)行數(shù)據(jù)準(zhǔn)備——從綜合數(shù)據(jù)到數(shù)據(jù)去偏,再到數(shù)據(jù)清理,企業(yè)應(yīng)該考慮使用其中一些人AI工具在合適的時(shí)間提供合適的數(shù)據(jù),以創(chuàng)建可靠的AI模型。

避免數(shù)據(jù)偏見

高管的遲疑態(tài)度可能是出于持續(xù)、合理的擔(dān)憂,認(rèn)為AI結(jié)果會在其企業(yè)內(nèi)部導(dǎo)致歧視或影響客戶。同樣,固有的AI偏見可能會將企業(yè)決策引向錯誤的方向。如果不采取謹(jǐn)慎的措施清除數(shù)據(jù)中的任何偏見,所產(chǎn)生的AI模型始終會帶有偏見,結(jié)果造成“輸入垃圾,輸出垃圾”的局面。如果某一AI模型是用有偏見的數(shù)據(jù)進(jìn)行訓(xùn)練的,它就會影響該模型的準(zhǔn)確性并產(chǎn)生有偏見的建議。

模型和決策只有在數(shù)據(jù)不存在偏見的情況下才算是好的模型和決策。糟糕的數(shù)據(jù),無論是有意還是無意,都可能包含隱性偏見信息——比如種族、性別、出身、政治、社會或其他意識形態(tài)偏見。此外,對企業(yè)有害的其他形式的偏見也可能是固有的?,F(xiàn)在大約有175種已認(rèn)定的人類偏見需要關(guān)注。這需要通過分析找出輸入數(shù)據(jù)的偏見和其他負(fù)面特征來解決。如上所述,AI團(tuán)隊(duì)花了過多的時(shí)間準(zhǔn)備數(shù)據(jù)格式和質(zhì)量,但沒花多少時(shí)間來消除偏見數(shù)據(jù)。

高層決策中使用的數(shù)據(jù)需要進(jìn)行徹底審查,以向高管們保證這些數(shù)據(jù)經(jīng)過驗(yàn)證、有權(quán)威性、經(jīng)過鑒定,并且來源可靠。它需要從已知的歧視性做法中清理出來,那些做法會影響算法的準(zhǔn)確性。

如果數(shù)據(jù)來自有問題的或未經(jīng)審核的來源,它要么應(yīng)該完全根除,要么應(yīng)該得到較低的信任分?jǐn)?shù)。另外,通過控制分類精度,歧視可以以最小的增量成本大幅減少。這種數(shù)據(jù)預(yù)處理的優(yōu)化應(yīng)該集中在控制歧視、限制數(shù)據(jù)集的失真和保持效用上。

人們通常假設(shè)——錯誤地假設(shè)——AI的數(shù)學(xué)模型最終可以濾除人類的偏見。其風(fēng)險(xiǎn)在于,這種模型,如果不受限制地運(yùn)行,可能會導(dǎo)致額外的不可預(yù)見的偏見——原因還是輸入的數(shù)據(jù)受限或準(zhǔn)確性受到影響。

做出符合倫理和道德的決策

高管的遲疑態(tài)度可能反映了這樣一個(gè)事實(shí):企業(yè)正面臨著前所未有的壓力,要確保企業(yè)的運(yùn)營符合道德和倫理,而AI輔助的決策也需要反映倫理觀和道德觀。部分原因是他們希望以具有倫理和道德價(jià)值觀的公司形象出現(xiàn)并誠信經(jīng)營,部分原因是做出錯誤的決定可能引起法律責(zé)任,而這些錯誤決定可能會在法庭上受到質(zhì)疑——尤其是考慮到?jīng)Q定如果是由AI做出的或由AI輔助的,它將經(jīng)歷額外一層的審查。

研究和教育機(jī)構(gòu)正在進(jìn)行研究,將人類的價(jià)值觀應(yīng)用于AI系統(tǒng),將這些價(jià)值觀轉(zhuǎn)換成機(jī)器可以理解的工程術(shù)語。比如,加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)教授斯圖爾特·拉塞爾(Stuart Russell)率先提出了人稱“價(jià)值對齊原則”(Value Alignment Principle)的有用想法,該想法實(shí)質(zhì)上是“獎勵”AI系統(tǒng)從事更可接受的行為。AI系統(tǒng)或機(jī)器人可以被訓(xùn)練來閱讀故事,從這些故事中學(xué)習(xí)可接受的事件序列,并更好地反映成功的行為方式。

至關(guān)重要的是,拉塞爾開展的這種研究被引入商業(yè)領(lǐng)域,因?yàn)锳I極有可能影響到涉及生活與事業(yè)的決策的準(zhǔn)確性。企業(yè)需要確保有足夠的制衡,以確保AI輔助的決策符合倫理和道德。

能夠解釋AI決策

如果缺乏透明度,高管們在接受AI決策時(shí)可能會有戒心。大多數(shù)AI決策都沒有內(nèi)在的可解釋性。當(dāng)做出的決定和采取的行動會給企業(yè)帶來數(shù)百萬美元的風(fēng)險(xiǎn),或涉及人們的生命/工作時(shí),如果聲稱是AI做出了這個(gè)決策、所以我們是在按此決策行事,這樣做不太好。

AI產(chǎn)生的結(jié)果和在此基礎(chǔ)上采取的行動不可能不透明。直到最近,大多數(shù)系統(tǒng)都被編制了程序,可以清晰識別和處理預(yù)先確定的情況。然而,傳統(tǒng)的非認(rèn)知型系統(tǒng)在遇到它們程序中未設(shè)定的情況時(shí)就會碰壁。另一方面,要置入一定程度的批判性思維能力,旨在更接近地模仿人腦。隨著新情況的出現(xiàn),這些系統(tǒng)可以學(xué)習(xí)、理解、分析情況并根據(jù)情況采取行動,無需另外編程。

用于訓(xùn)練算法的數(shù)據(jù)需要以負(fù)責(zé)任的方式進(jìn)行維護(hù)——通過安全存儲、驗(yàn)證、審核和加密。區(qū)塊鏈或其他分布式賬本技術(shù)之類的新興方法也提供了一個(gè)永恒不變且可審核的存儲方式。此外,需要設(shè)立一個(gè)第三方管理框架,以確保AI決策不僅可以解釋,而且是基于事實(shí)和數(shù)據(jù)。在一天結(jié)束時(shí),應(yīng)該有可能證明,人類專家如果被提供了同樣數(shù)據(jù)集,是否會得出同樣的結(jié)果——AI沒有操縱結(jié)果。

AI基于數(shù)據(jù)的決策幾乎總是以概率(概率性相比于確定性)為基礎(chǔ)。正因?yàn)槿绱?,?dāng)AI做出決定時(shí),總是存在一定程度的不確定性。對結(jié)果的可靠性必須要有相應(yīng)程度的信心或評分。正是由于這個(gè)原因,大多數(shù)系統(tǒng)不能、不會、也不應(yīng)該實(shí)現(xiàn)自動化。在近期的未來,人類需要在決策圈中發(fā)揮作用。這使得在涉及醫(yī)療衛(wèi)生等敏感行業(yè)時(shí),依賴基于機(jī)器的決策難度更大。在醫(yī)療衛(wèi)生行業(yè),決策不夠好的概率是98%。

隨著系統(tǒng)之間的相互作用,事情變得復(fù)雜和不可預(yù)測。據(jù)隸屬于哈佛大學(xué)伯克曼·克萊因互聯(lián)網(wǎng)與社會中心(Berkman Klein Center for Internet and Society at Harvard University)的戴維·溫伯格(David Weinberger)博士稱:“我們開始接受這樣的事實(shí):世界的真正復(fù)雜性遠(yuǎn)遠(yuǎn)超過了我們設(shè)計(jì)來解釋它的法則和模型”。無論決策變得多么復(fù)雜,今天的企業(yè)仍然需要來自人類的批判性思維來運(yùn)營。高管們?nèi)匀恍枰心芰Ψ駴Q或質(zhì)疑基于AI的輸出,尤其是在一個(gè)不透明的過程中。

提高高管信心的任務(wù)

在尋求提高高管對AI方面的舒適度時(shí),請考慮以下行動步驟:

提升IT部門之外接觸到AI流程的任何人對AI的主人翁和責(zé)任感。為促進(jìn)合乎道德的決策,在數(shù)據(jù)經(jīng)濟(jì)中生存,需要進(jìn)行文化變革。

認(rèn)識到AI(在大多數(shù)情況下)只是根據(jù)先前的數(shù)據(jù)和模式做出決定并對未來進(jìn)行一些猜測的代碼。每位企業(yè)領(lǐng)導(dǎo)——以及與他們共事的員工——仍然需要批判性思維能力來質(zhì)疑AI的輸出。

將AI瞄準(zhǔn)其影響力最大的領(lǐng)域,并首先完善這些領(lǐng)域,這將增加最大的商業(yè)價(jià)值。

調(diào)查并推行最具影響力的技術(shù)。

通過提高透明度,并最大限度實(shí)現(xiàn)決策提供鏈的能觀性,確保AI中的公平性。

在各個(gè)級別促進(jìn)對公平、可操作AI的更多認(rèn)識和培訓(xùn),并將激勵措施與AI的成功采用掛鉤。

定期、系統(tǒng)性地審視或?qū)彶锳I結(jié)果。

負(fù)起責(zé)任,自主決策,如果做出了錯誤的決定,請糾正方向——不要怪罪于AI。

不可避免的是,出于戰(zhàn)略目的,更多的AI輔助決策將出現(xiàn)在高管辦公室。目前,AI將在決策方面協(xié)助人類表現(xiàn)出更強(qiáng)的智能,而不是按一個(gè)按鈕就能提供獨(dú)角獸式的正確見解。確保這些AI輔助決策的輸出是基于可靠、無偏見、可解釋、符合倫理、道德且透明的見解,這將有助于企業(yè)領(lǐng)導(dǎo)者現(xiàn)在及在未來幾年對基于AI的決策充滿信心。

猜你喜歡