隨著巴以沖突的發(fā)展,社交媒體平臺上出現了大量反映當地現場畫面的視頻,但這些內容真實性到底幾何,恐怕不容樂觀。
在推特上, 自巴以沖突以來便產生了相關大量虛假內容,比如有看起來效果逼真的游戲視頻被篡改成哈馬斯發(fā)動襲擊的錄像、阿爾及利亞人放煙花慶祝的照片被充作以色列打擊哈馬斯的圖片、足球巨星C羅揮舞巴勒斯坦國旗的假照片,甚至一段3年前敘利亞內戰(zhàn)的視頻也被重新編輯,冒充成最近拍攝的新視頻。
而這些內容的虛假程度,甚至都蒙騙了推特的CEO埃隆·馬斯克。他發(fā)推寫道:“如果想實時關注巴以沖突,推薦關注@WarMonitors和@sentdefender。”然而真相卻是,這兩個賬戶竟都是臭名昭著的虛假信息傳播者。
為何虛假信息能夠在網絡大行其道,甚至收獲不少流量,除了蹭熱點帶來的流量加持,數字平臺在傳播速度與規(guī)模上的優(yōu)勢也給虛假信息的病毒式擴散提供了“溫床”。此外,在如今各種算法的加持下,不同信仰、認知的群體所帶來的信息繭房效應被進一步加劇,以至于“造謠一張嘴,辟謠跑斷腿”的局面逐漸成為常態(tài),辟謠的傳播力度遠不及謠言來得快、傳得廣。
隨著今年以ChatGPT為代表的內容生成式AI模型集中爆發(fā),虛假內容已經突破了傳統(tǒng)的張冠李戴、捕風捉影,無中生有式內容開始大量出現,真實信息在網絡空間的傳遞聲浪正變得狹窄。
本文將結合信息繭房效應,探究以深度偽造為代表的AI技術加持下,虛假內容如何影響受眾,以及背后有哪些更加深層次的運維操作。
被信息繭房割裂的受眾
所謂信息繭房,是指受眾更傾向于關注自己原本就感興趣的領域,更樂于與志同道合的人開展交流,久而久之就如同蠶蛹一般被“繭房”束縛,不愿面對外部的世界和生活,甚至在接觸到不同聲音時產生強烈反彈。
換言之,如果受眾長期受片面或者虛假信息的浸泡,久而久之便會與“唱反調”的真相產生抵觸,心甘情愿落入其所營造的“繭房”中,并成為此類信息的分享者與傳播者。
在國內,眾多互聯網平臺會根據用戶喜好推送特定內容,其形式已從用戶首次使用時手動勾選感興趣的領域,逐步演化為通過用戶行為構建大數據,進而勾勒出更精準的用戶畫像,使得推送內容更加符合不同受眾群體的胃口。從商業(yè)角度出發(fā),這無疑能夠增加受眾及粘性,但由此帶來的信息繭房效應已讓不同群體在認知上愈發(fā)割裂,進而造成輿論的分化、沖突。
不久前,國內知名短視頻平臺被曝出同一視頻的評論區(qū)內容會因不同用戶而大相徑庭。在一則在男女吵架的視頻中,男生看到的是支持男方,而女生看到的則是支持女方。如此一來,不同群體很難根據視頻及評論內容獲得更加客觀、全面且理性的判斷,反倒是單一群體及認知偏見被放大。一些網友為此感到擔憂,未來的視頻可能會以此呈現出更符合不同用戶心理的內容,從而進一步加劇信息繭房效應。
國內某短視頻平臺上男(左)女(右)用戶群體呈現出截然不同的評論
在促進社會秩序發(fā)展的事件中,信息繭房效應的危害得到進一步暴露,比如最近鬧得沸沸揚揚的成都惡犬傷人事件,養(yǎng)犬人士、動物保護人士與厭犬人士的矛盾再度被點燃,而信息繭房效應無疑只會加劇這些群體的對立,對如何規(guī)范養(yǎng)犬、保證各方權益,起不到任何建設性作用,反而容易促成一些地方決策層對養(yǎng)犬要么散漫不管,要么直接一刀切的極端局面。
可以預見,在AI時代,各類大模型無疑會更加精準地細分受眾,處在繭房中的群體將越發(fā)割裂,更加難以接受其他各類信息及觀點。自然,一旦繭房中的信息成分虛假,也更加難以通過其他信息進行佐證,導致虛假信息泛濫。
割裂的后續(xù):AI深度偽造成為虛假內容生產池
深度偽造能夠利用AI的深度學習特性來捏造看似現實的虛假圖像。隨著今年Midjourney等AI繪圖工具大火,以特朗普被逮捕為代表的AI生成式圖片在社交媒體廣泛傳播,若不是背景人物出現如有六根手指頭等翻車情況,其逼真程度已非過去任何一款自動化圖像生成工具所能比擬。
由Midjourney生成的特朗普被捕畫面
而一位推特用戶則分享了用Midjourney虛構的歷史事件畫面:2001年4月,美國西雅圖發(fā)生了毀滅性的里氏9.1級地震,城市被徹底摧毀,救援人員在廢墟中拯救幸存者。
試想一下,除了贊嘆逼真?zhèn)卧旒夹g的吃瓜群眾,會有人僅因為這些畫面信以為真嗎?由于信息繭房導致不同群體拒絕或者接收不到其他外部信息,對虛假信息的辨別力也隨之大打折扣,此類基于生成式AI的深度偽造技術無疑正成為大量虛假信息的制造機。
由AI虛構的2001年美國西雅圖大地震
在仍然持續(xù)的俄烏沖突中,深度偽造技術就已開始“大顯其手”。2022年3月,澤連斯基和普京分別宣布投降的兩段虛假視頻在推特等社交平臺上瘋傳,雖然視頻本身的偽造技術還顯得有些拙劣,但對這場沖突持對立立場的受眾而言,無疑都是喜聞樂見的結果,從而在一定程度上促成了這些虛假視頻的傳播。
2023年5月,一張由AI生成的美國五角大樓爆炸的圖片又在全球社交平臺上病毒式傳播,甚至導致美國股市應聲下跌。雖然這張照片同樣存在一些肉眼可見的破綻,但對于全世界許多不滿美國的人而言,任何關于美國負面的信息往往會在第一時間對其深信不疑。
AI虛構的五角大樓附近發(fā)生爆炸畫面
AI的信息操縱
由于生成式AI能制造虛假信息,誤導受眾認知,并在信息繭房效應下加劇不同群體間的割裂與對立,進而顯示出AI具有能夠操縱信息的能力,在國際形勢越發(fā)復雜、地緣政治問題頻出的當下,利用AI生成的虛假信息已經成為現代認知戰(zhàn)的重要利器,不僅關乎世界和平穩(wěn)定,對國家政治安全也構成挑戰(zhàn)。
被AI操控的選舉
過去,以美國為首的西方國家在舉行總統(tǒng)選舉等重大政治活動時都會曝出大量作弊甚至是涉嫌操縱選舉的消息。到了現在,AI技術也恐將在這一系列“見不得光“的操作中發(fā)揮重要作用。
2024年,美國將舉行新一輪總統(tǒng)選舉,多家媒體預測,這將成為美國第一場廣泛使用AI工具的選舉,民主黨與共和黨都會將AI技術用于宣傳、籌款等活動。比如《紐約時報》6月25日報道,一些政治競選活動開始使用AI,這種現象幾個月前還只是緩慢滲透,而現在已經匯聚成巨大洪流,開始改寫全球民主選舉的游戲規(guī)則。技術專家警告稱,由于美國陷入政治極化,加上美國前總統(tǒng)特朗普輸掉2020年大選后抨擊選舉被“操縱”,許多選民對政壇和主流媒體的信任度大打折扣。有人可能利用這一點,用AI技術制造混亂。
正如同前文所述,利用AI繪圖工具已經能夠生成逼真的特朗普被捕畫面,如此一來,生成性AI工具能迅速產出競選電郵、視頻等宣傳材料,冒充候選人、誤導選民。美聯社為此設想了一些在競選期間炮制的“AI陷阱”:用總統(tǒng)候選人的聲音制作假音頻,指示選民在錯誤的日期投票;冒充候選人承認“犯罪”,或發(fā)布種族主義言論;散布和新聞報道截圖相似的圖片。
沖突和戰(zhàn)爭的催化劑
在國際關系中,戰(zhàn)略互信是國際安全與國際形勢穩(wěn)定的核心支柱,可以為全球合作和多邊合作體制建設奠定堅實的基礎。但基于AI的深度偽造與其他顛覆性數字技術相結合,將極大地降低全球和區(qū)域多邊機構以及國際關系行為體彼此間的信任。
2019年,印度和巴基斯坦之間的緊張局勢升級期間,路透社發(fā)現了30起關于該事件的深度偽造視頻。視頻大部分是2017年印巴沖突期間,發(fā)生在印巴兩國一些城市的民眾向對方抗議示威的場景。但卻被AI技術對這些視頻作了處理,并有意錯誤描述為正在印度和巴基斯坦發(fā)生的視頻片段。這些視頻極大地刺激了印巴兩國的民族主義者,導致事態(tài)升級。由于擔心事態(tài)失控,印度和巴基斯坦官方被迫暫時關閉了一些社交平臺。
對國家政治安全的危害
當前,中國的迅速崛起正給西方霸權主義帶來挑戰(zhàn),以美國為首的一些國家除了在技術上遏制中國,在輿論上也對中國進行抹黑,并試圖分裂中國,給中國國家政治安全帶來風險,其中AI技術正起到推波助瀾的作用。
2021年4月29日,中國駐比利時王國大使館專門發(fā)布了揭露以美國為首的西方國家制作包括深度偽造在內的關于涉疆問題的虛假信息的文章,揭露在美國反華勢力的操縱下,一些歪曲事實的“學術機構”、造謠的“專家學者”和不顧道德的“業(yè)余演員”,是如何制造謊言、包括利用現代人工智能技術制造更加逼真的謊言,以通過誹謗中國的治疆政策誤導國際公共話語。
如英國廣播公司BBC關于所謂“強迫勞動”的專題報道,視頻中將央視在安徽省報道對口幫扶的新疆和田地區(qū)皮山縣招聘工人的鏡頭,通過剪輯、扭曲,搖身一變?yōu)?ldquo;強迫”新疆的維族青年到內地工作。還有一些深度偽造視頻污蔑中國政府通過計劃生育政策在新疆實施所謂的“種族滅絕”政策等。這些深度偽造內容給中國政府的新疆政策抹黑,將涉疆問題建構成為所謂的“人權”問題和中國政府的“種族滅絕政策”,不僅誤導了外部世界的民眾,讓中國外交面臨更為惡劣的國際環(huán)境,也影響了新疆的和平安定和民族團結局面以及未來的發(fā)展。
雖說虛假信息問題已非一日之談,但AI技術無疑讓虛假信息更加難以辨別,同時也更能揣測受眾心理,并能按照特定意志顛倒黑白、煽風點火,裹挾進紛繁復雜的國家競爭與沖突當中。如果說信息繭房的雛形是因認知偏差和群體分化所致,那么AI技術則在不同繭房之間再加上了一層具有硝煙味的迷霧,讓對立加劇,讓真相消失。網絡時代,由AI技術帶來的虛假信息需引起我們充分警惕。