邻居一晚让我高潮3次正常吗,人妻丰满熟妇AV无码区动漫,乱LUN合集1第40部分阅读,精品无码国产一区二区三区51安

當前位置:首頁 > 最新資訊 > 行業(yè)資訊

使用AI怎樣創(chuàng)造更安全的在線空間

AI算法對人類生活和更廣泛的社會有著巨大的影響。

圍繞AI的倫理困境囊括數(shù)字差異及其武器化。

自治應該與人類監(jiān)督相平衡,同時應該提高對AI的負責任使用,以便可以運用它來解決歧視問題。

在計算機進步、數(shù)據(jù)科學和龐大數(shù)據(jù)集的可用性的推動下,AI(AI)已成為強大的日?,F(xiàn)實和商業(yè)工具。大型科技公司如谷歌、亞馬遜和Meta現(xiàn)在正在開發(fā)基于AI的系統(tǒng)。該技術可以模仿人類語言、檢測疾病、預測犯罪活動、起草法律合同、解決可訪問性問題,并比人類更好地完成任務。對于企業(yè)而言,AI有望預測業(yè)務成果、改進流程并以大幅節(jié)省成本的方式提高效率。

但人們對AI的擔憂仍在增加。

AI算法已經變得如此強大,一些專家將AI標記為有感知能力以至于任何腐敗、篡改、偏見或歧視都可能對組織、人類生活和社會產生巨大影響。

數(shù)字鑒別

AI決策愈來愈大規(guī)模地影響和改變人們的生活。不負責任地使用它們會加劇現(xiàn)有的人類偏見和歧視性措施,比如種族定性、行為預測或性取向識別。之所以會出現(xiàn)這種固有的偏見,是因為AI的好壞取決于我們可以提供的訓練數(shù)據(jù)量,而這很容易受到人類偏見的影響。

當機器學習算法在未充分代表某些族群(比如女性、有色人種或特定年齡人口統(tǒng)計數(shù)據(jù)的人)的數(shù)據(jù)上進行訓練和測試時,也會出現(xiàn)偏差。比如,研究表明,有色人種特別容易受到面部識別技術算法偏差的影響。

使用中也會出現(xiàn)偏差。比如,為特定應用設計的算法可能會用于非預期目的,這會招致對輸出的誤解。

驗證AI性能

AI主導的歧視可能是抽象的、不直觀的、微妙的、無形的和難以察覺的。源代碼可能會受到限制,亦或審計人員可能不知道算法是怎樣部署的。進入算法以查看其編寫方式和響應方式的復雜性不容小覷。

當前的隱私法依賴于通知和選擇;故此,很少有人閱讀由此產生的要求消費者同意冗長的隱私政策的通知。假如將此類通知應用于AI,將對消費者和社會的安全和隱私產生嚴重后果。

AI作為武器

雖說真正的AI惡意軟件可能還不存在,但假設AI惡意軟件會增強攻擊者的能力并不牽強??赡苄允菬o窮無盡的——從環(huán)境中學習以識別和運用新漏洞的惡意軟件、針對基于AI的安全性進行測試的工具或可以用錯誤信息毒害AI的惡意軟件。

由AI操縱的數(shù)字內容已經被用于實時建立超逼真的個人合成副本(也稱為深度偽造)。故此,攻擊者將運用深度偽造來制造針對性很強的社會工程攻擊、導致經濟損失、操縱輿論或獲得競爭優(yōu)勢。

“AI主導的歧視可能是抽象的、不直觀的、微妙的、無形的和難以察覺的。源代碼可能會受到限制,亦或審計人員可能不知道算法是怎樣部署的。”—SteveDurbin,信息安全論壇首席執(zhí)行官

減輕與AI相關的風險

由于AI決策愈來愈大規(guī)模地影響和影響人們的生活,企業(yè)有道德、社會和信托責任以合乎道德的方式管理AI的采用。他們可以通過多種方式做到這一點。

1.將道德轉化為指標

道德AI遵守明確定義的道德準則和基本價值觀,比如個人權利、隱私、非歧視,重要的是,非操縱。組織必須建立明確的原則來識別、衡量、評估和減輕AI主導的風險。接下來,他們必須將它們轉化為實用的、可衡量的指標,并將其嵌入日常流程中。

2.了解偏見的來源

擁有正確的工具來調查偏見的來源并了解決策中公平的影響對于開發(fā)道德AI絕對至關重要。識別使用機器學習的系統(tǒng),確定它們對業(yè)務的重要性,并針對AI引起的偏差實施流程、控制和對策。

3.平衡自主權與人工監(jiān)督

組織應建立一個跨領域倫理委員會,監(jiān)督組織和供應鏈中AI系統(tǒng)引入的風險的持續(xù)管理和監(jiān)控。委員會必須由來自不同背景的人組成,以確保對所有道德問題的敏感性。

算法的設計必須考慮到專家的意見、情境知識和對歷史偏見的認識。必須在關鍵領域(比如在金融交易中)強制執(zhí)行人工授權流程,以防止它們被惡意行為者破壞。

4.賦予員工權力并提升負責任的AI

培育一種文化,使個人能夠在不扼殺創(chuàng)新的情況下提出對AI系統(tǒng)的擔憂。通過透明地處理角色、期望和責任來建立對AI的內部信任和信心。認識到對新角色的需求并積極提升技能、重新技能或雇用。

假如需要,可以通過提供更好的控制權和對追索權的訪問來授權用戶。強大的領導力對于賦予員工權力和將負責任的AI提升為業(yè)務必要性也至關重要。

5.運用AI解決歧視問題

程序化檢查是評估人類公平性的傳統(tǒng)方法,可以通過在人類決策過程中運行算法、比較結果并解釋機器主導決策背后的原因來從AI中受益。另一個例子是麻省理工學院有關打擊系統(tǒng)性種族主義的研究計劃,該計劃致力于開發(fā)和使用計算工具在社會的很多不同部門創(chuàng)造種族平等。

猜你喜歡