當(dāng)前,人工智能正在迅速部署到商業(yè)和金融的各個(gè)方面。一些令人興奮的成功給行業(yè)帶來(lái)了接受這項(xiàng)新技術(shù)的壓力,因?yàn)闆](méi)有人愿意被競(jìng)爭(zhēng)對(duì)手遠(yuǎn)遠(yuǎn)拋在后面。
人工智能背后的核心技術(shù)是神經(jīng)網(wǎng)絡(luò)模型、深度學(xué)習(xí)算法和用于訓(xùn)練的海量數(shù)據(jù)集。該模型是為特定目的而構(gòu)建的,例如對(duì)象識(shí)別、語(yǔ)音識(shí)別和對(duì)象跟蹤。“模型”描述了神經(jīng)網(wǎng)絡(luò)的構(gòu)建方式、網(wǎng)絡(luò)有多少參數(shù)以及有多少層。
神經(jīng)網(wǎng)絡(luò)的總體精度是訓(xùn)練數(shù)據(jù)集的質(zhì)量和大小、參數(shù)數(shù)量和訓(xùn)練過(guò)程的函數(shù)。這不是一門(mén)精確的科學(xué)。訓(xùn)練過(guò)多,模型對(duì)訓(xùn)練集的響應(yīng)良好,但對(duì)現(xiàn)實(shí)情況的響應(yīng)卻不佳。這是模型“過(guò)度擬合”。訓(xùn)練太少,模型將無(wú)法響應(yīng)所有已知情況。
沒(méi)有一個(gè)模型是完美的??偸谴嬖谡`差幅度,并且會(huì)出現(xiàn)模型沒(méi)有參數(shù)的異常情況。在過(guò)去10年中,隨著功能和準(zhǔn)確性的提高,模型變得更加復(fù)雜。
Bard和GPT-4等大型語(yǔ)言模型使用的模型使用數(shù)千億個(gè)參數(shù),需要海量數(shù)據(jù)集進(jìn)行訓(xùn)練。即使是最強(qiáng)大的個(gè)人計(jì)算機(jī)也無(wú)法處理需要大量計(jì)算能力和內(nèi)存資源的大型模型。計(jì)算是通過(guò)互聯(lián)網(wǎng)(云)在大型數(shù)據(jù)中心計(jì)算機(jī)(服務(wù)器場(chǎng))上完成的。
服務(wù)器場(chǎng)用于自然語(yǔ)言處理、生成文本和圖像、視頻流分類(lèi)以及物聯(lián)網(wǎng)過(guò)程控制和監(jiān)控等應(yīng)用?!哆B線》 雜志估計(jì),訓(xùn)練像 GPT-4 這樣的大型模型需要花費(fèi)1億美元,并在11個(gè)月內(nèi)使用多達(dá)10000個(gè)配備強(qiáng)大A100 GPU處理器陣列的系統(tǒng)。已知最大的模型是Google GLaM,擁有超過(guò)1 萬(wàn)億個(gè)參數(shù)。
如今,模型變得越來(lái)越大,但這些系統(tǒng)能否繼續(xù)擴(kuò)展?
SemiAnalysis首席分析師Dylan Patel表示,每天運(yùn)行ChatGPT的成本估計(jì)高達(dá)70萬(wàn)美元。 該成本細(xì)分為維護(hù)、計(jì)算機(jī)資源折舊以及服務(wù)器和冷卻系統(tǒng)的電力消耗。在谷歌和加州大學(xué)伯克利分校(《科學(xué)美國(guó)人》)聯(lián)合發(fā)表的一項(xiàng)研究中,GPT-3 的耗電量為1,287 兆瓦時(shí)。
當(dāng)考慮到全球服務(wù)器場(chǎng)的數(shù)量和人工智能處理的成倍增加時(shí),這一點(diǎn)值得高度關(guān)注。隨著越來(lái)越多的人開(kāi)始訪問(wèn)在線人工智能,服務(wù)器群的功耗可能會(huì)增加。到2025年,服務(wù)器群可能消耗全球20% 以上的電力。
服務(wù)器群使用配備強(qiáng)大計(jì)算機(jī)和GPU的大型機(jī)架。它們包含數(shù)千個(gè)處理核心,可用作并行處理單元來(lái)計(jì)算神經(jīng)網(wǎng)絡(luò)的功能。單個(gè)GPU使用的功率可高達(dá)400瓦,服務(wù)器最多可使用32個(gè) GPU。一個(gè)公司的大型數(shù)據(jù)中心集群可能部署多達(dá)250萬(wàn)臺(tái)服務(wù)器。即使只有一半的服務(wù)器配備GPU,最壞情況下的計(jì)算也將達(dá)到16000兆瓦時(shí)。換言之,這是大量的溫室氣體排放的源泉。
有多種方法可以減少服務(wù)器群對(duì)環(huán)境的影響。解決方案的一部分是更高效的硬件以及可再生能源的使用。另一種方法是使用混合解決方案,在專(zhuān)用的、低功耗但高性能的神經(jīng)形態(tài)硬件中執(zhí)行分布在邊緣的大部分處理。神經(jīng)形態(tài)處理的靈感來(lái)自大腦的節(jié)能方法。
人腦包含大約860億個(gè)神經(jīng)元細(xì)胞(大約是最大的大型語(yǔ)言模型GLaM的80倍),估計(jì)有100萬(wàn)億個(gè)連接(大約是 GLaM 的 100 倍)。每個(gè)細(xì)胞都有不同數(shù)量的電化學(xué)記憶。存儲(chǔ)在這種生物記憶中的信息可以被認(rèn)為等同于神經(jīng)網(wǎng)絡(luò)模型中的參數(shù)。
與人工神經(jīng)網(wǎng)絡(luò)相比,大腦模型是動(dòng)態(tài)的。當(dāng)我們學(xué)習(xí)時(shí),它會(huì)創(chuàng)造新的連接和更多的記憶,當(dāng)我們睡覺(jué)時(shí),它會(huì)修剪多余的連接。人腦神經(jīng)網(wǎng)絡(luò)盡管比最大的人工智能模型還要大,但其消耗的能量?jī)H相當(dāng)于20 瓦,比一個(gè)燈泡還少。盡管我們?cè)谶^(guò)去幾年中取得了成功,但大腦的結(jié)構(gòu)與當(dāng)今人工智能系統(tǒng)中使用的神經(jīng)網(wǎng)絡(luò)模型有很大不同。
神經(jīng)形態(tài)處理借鑒了大腦的高效處理技術(shù),將其行為復(fù)制到數(shù)字電路中。雖然數(shù)字電路可能不如模擬電路那么節(jié)能,但穩(wěn)定性、可互換性和速度超過(guò)了輕微的功耗優(yōu)勢(shì)。由于事件驅(qū)動(dòng)的卷積殼,使用神經(jīng)形態(tài)計(jì)算引擎對(duì)開(kāi)發(fā)人員和用戶(hù)來(lái)說(shuō)是透明的。
神經(jīng)形態(tài)處理可以運(yùn)行卷積神經(jīng)網(wǎng)絡(luò) (CNN),并可以在ImageNet1000上運(yùn)行圖像分類(lèi)、實(shí)時(shí)視頻分類(lèi)、氣味和味道識(shí)別、振動(dòng)分析、語(yǔ)音和語(yǔ)音識(shí)別以及疾病和異常檢測(cè)。由于其功耗低,因此可以在便攜式和電池供電的工具中使用這些功能。
通過(guò)在快速神經(jīng)形態(tài)計(jì)算設(shè)備中使用分布式人工智能處理,可以減少數(shù)據(jù)中心過(guò)多的功耗,從而降低運(yùn)營(yíng)成本并提高邊緣產(chǎn)品的功能和響應(yīng)能力。神經(jīng)形態(tài)處理可以幫助補(bǔ)償人工智能預(yù)期的負(fù)面環(huán)境影響。