網(wǎng)絡(luò)安全領(lǐng)域的工作很熱門,而且需要合格的員工。根據(jù)美國國家標(biāo)準(zhǔn)與技術(shù)研究所匯編的數(shù)據(jù),2022年全球網(wǎng)絡(luò)安全工作者短缺340萬。僅在美國就有超過663000個(gè)網(wǎng)絡(luò)安全職位空缺。
ChatGPT等生成性人工智能工具的興起引發(fā)了新的問題,即這些工具是否有助于縮小或加劇就業(yè)差距。因此,許多專家將其視為一把雙刃劍。
一方面,攻擊者可以使用生成人工智能“大大降低網(wǎng)絡(luò)安全中的作惡成本”,IEEE高級(jí)會(huì)員林道莊說。
另一方面,生成型人工智能可能能夠加速軟件代碼和新工具的開發(fā),以挫敗網(wǎng)絡(luò)攻擊。
“這些大型語言模型是一個(gè)根本的范式轉(zhuǎn)變,”IEEE會(huì)員Yale Fox近日在《數(shù)據(jù)中心知識(shí)》雜志上如此表示。“反擊人工智能驅(qū)動(dòng)的惡意攻擊的唯一方法是在防御中使用人工智能。數(shù)據(jù)中心的安全經(jīng)理需要提高現(xiàn)有網(wǎng)絡(luò)安全資源的技能,并尋找專門從事人工智能的新人群。”
目前,生成性人工智能對(duì)尋求招聘的網(wǎng)絡(luò)安全高管來說是福是禍的問題基本上是無法回答的。這并沒有阻止關(guān)于它可能如何改變網(wǎng)絡(luò)安全專業(yè)人員工作的更廣泛討論。
以下是專家們對(duì)生成性人工智能可能塑造網(wǎng)絡(luò)安全工作性質(zhì)的看法:
1. 軟件開發(fā)人員可能需要對(duì)人工智能生成的代碼進(jìn)行更多的驗(yàn)證和測(cè)試,更加強(qiáng)調(diào)質(zhì)量控制技能。IEEE高級(jí)會(huì)員Amol Gulhane指出,質(zhì)量控制人員需要獲得與評(píng)估生成人工智能模型性能相關(guān)的知識(shí)和技能。
Gulhane說:“他們需要了解與這些模型相關(guān)的局限性和偏見,識(shí)別潛在的漏洞,并根據(jù)預(yù)定義的標(biāo)準(zhǔn)和安全要求測(cè)試生成的輸出。”
2. 生成型人工智能可以減輕網(wǎng)絡(luò)安全專業(yè)人員面臨的文書工作和文件負(fù)擔(dān)。盡管網(wǎng)絡(luò)安全分析師的鍵盤技能以及他們細(xì)節(jié)能力在很大程度上得到了提升,但人們對(duì)該角色可能需要的大量文件卻關(guān)注較少。
IEEE高級(jí)會(huì)員Kayne McGladrey說:“這份文件可以采取多種形式,包括在誤報(bào)警報(bào)上進(jìn)行標(biāo)注到寫下如何進(jìn)行新型調(diào)查的文檔。雖然這些文檔具有巨大的組織價(jià)值,但它也是分析師執(zhí)行的最不受歡迎和耗時(shí)的任務(wù)之一。通過使用人工智能自動(dòng)化任務(wù),如根據(jù)預(yù)定義格式匯總文本和生成報(bào)告,分析師可以顯著節(jié)省時(shí)間。”
3. 它可以加速新產(chǎn)品的安全缺陷測(cè)試,內(nèi)部安全專家試圖以開發(fā)人員沒有預(yù)料到的方式“破解”產(chǎn)品,這一過程被稱為red teaming。
“作為組織軟件開發(fā)生命周期的一部分,red teamers偶爾會(huì)被要求評(píng)估軟件組件的安全性,”McGladrey說,“不幸的是,這帶來了日程壓力;red teamers需要的時(shí)間越長,軟件發(fā)布到通用狀態(tài)的時(shí)間就越長,因此并非所有組織都遵循這種模式。”