介紹
生成式人工智慧(Generative AI)——能夠創建新內容或進行預測的人工智慧系統——正在成為網路安全領域的一股變革力量。 OpenAI 的 GPT-4 等工具已展現出分析複雜資料和生成類人文字的能力,從而為防禦網路威脅提供了新的方法。各行各業的網路安全專業人士和商業決策者正在探索如何利用生成式人工智慧來增強防禦能力,抵禦不斷演變的攻擊。從金融和醫療保健到零售和政府部門,各行各業的組織都面臨著複雜的網路釣魚攻擊、惡意軟體和其他威脅,而生成式人工智慧或許能夠幫助應對這些威脅。在本白皮書中,我們將探討如何將生成式人工智慧應用於網路安全,重點介紹其實際應用、未來發展潛力以及應用過程中需要考慮的重要事項。
生成式人工智慧不同於傳統的分析型人工智慧,它不僅能夠偵測模式,還能創造內容——無論是模擬攻擊以訓練防禦機制,或是為複雜的安全資料產生自然語言詮釋。這種雙重能力使其成為一把雙面刃:它提供了強大的新型防禦工具,但威脅行為者也可能利用它。以下章節將探討生成式人工智慧在網路安全領域的廣泛用例,從自動化網路釣魚偵測到增強事件回應。我們還將討論這些人工智慧創新帶來的優勢,以及組織必須管理的風險(例如人工智慧「幻覺」或對抗性濫用)。最後,我們將提供一些實用建議,幫助企業評估生成式人工智慧,並負責任地將其融入其網路安全策略。
網路安全中的生成式人工智慧:概述
網路安全中的生成式人工智慧是指能夠產生洞察、建議、程式碼甚至合成資料以輔助安全任務的人工智慧模型(通常是大型語言模型或其他神經網路)。與純粹的預測模型不同,生成式人工智慧可以基於其訓練資料模擬場景並產生人類可讀的輸出(例如報告、警報甚至惡意程式碼樣本)。這種能力正被用於以比以往更動態的方式預測、檢測和響應網路安全中的生成式人工智慧是什麼? - Palo Alto Networks )。例如,生成式模型可以分析海量日誌或威脅情報庫,並產生簡潔的摘要或建議的操作,其功能幾乎就像安全團隊的人工智慧「助手」。
生成式人工智慧在網路防禦領域的早期應用已顯示出良好的前景。 2023 年,微軟推出了Security Copilot ,這是一款由 GPT-4 驅動的安全分析師助手,可協助識別漏洞並篩選微軟每天處理的 65 兆個訊號( Microsoft Security Copilot 是用於網路安全的全新 GPT-4 AI 助理 | The Verge )。分析師可以用自然語言提示系統(例如「總結過去 24 小時內的所有安全事件」 ),然後 Copilot 將產生有用的敘述摘要。同樣,Google的威脅情報 AIGemini的生成模型,透過谷歌龐大的威脅情報資料庫實現對話式搜索,快速分析可疑程式碼並總結發現以幫助惡意軟體搜尋者(生成式人工智慧如何用於網路安全?10 個真實世界的例子)。這些例子說明了它的潛力:生成式人工智慧可以消化複雜的大規模網路安全數據,並以易於理解的形式呈現見解,從而加速決策。
同時,生成式人工智慧可以創造高度逼真的虛假內容,這對於模擬和訓練來說大有裨益(但不幸的是,這對攻擊者進行社會工程攻擊也大有裨益)。隨著我們深入探討具體用例,我們將看到生成式人工智慧合成和分析資訊支撐著其眾多網路安全應用。以下將深入探討關鍵用例,涵蓋從網路釣魚防禦到安全軟體開發等各個領域,並舉例說明各個用例在各行各業的應用。
生成式人工智慧在網路安全的關鍵應用
圖:生成式人工智慧在網路安全領域的關鍵用例包括安全團隊的人工智慧副駕駛、程式碼漏洞分析、自適應威脅偵測、零時差攻擊模擬、增強的生物辨識安全和網路釣魚偵測(網路安全中生成式人工智慧的 6 個用例 [+ 範例] )。
網路釣魚偵測與預防
網路釣魚仍然是最普遍的網路威脅之一,它會誘騙用戶點擊惡意連結或洩露用戶憑證。生成式人工智慧正被用於偵測網路釣魚攻擊並加強使用者培訓,以防止攻擊得逞。在防禦方面,人工智慧模型可以分析電子郵件內容和寄件者行為,從而發現基於規則的過濾器可能遺漏的細微網路釣魚跡象。透過從大量合法和詐欺電子郵件的資料集中學習,生成模型可以標記出語氣、措辭或上下文中可能存在詐騙的異常——即使語法和拼字已經無法識別。事實上,Palo Alto Networks 的研究人員指出,生成式人工智慧可以識別“原本可能無法檢測到的網路釣魚電子郵件的細微跡象”,幫助組織領先詐騙者一步(網路安全中的生成式人工智慧是什麼? - Palo Alto Networks )。
安全團隊也在使用生成式人工智慧模擬網路釣魚攻擊,以進行訓練和分析。例如,Ironscales 推出了一款由 GPT 驅動的網路釣魚模擬工具,該工具可自動產生針對組織員工的虛假網路釣魚電子郵件(生成式人工智慧如何用於網路安全?10 個真實範例)。這些人工智慧製作的電子郵件反映了最新的攻擊者策略,讓員工能夠真實地練習識別網路釣魚內容。這種個人化訓練至關重要,因為攻擊者自己也會採用人工智慧來製作更具說服力的誘餌。值得注意的是,雖然生成式人工智慧可以產生非常精緻的網路釣魚訊息(容易被發現的蹩腳英語時代已經一去不復返了),但防禦者發現人工智慧並非不可戰勝。 2024 年,IBM 安全研究人員進行了一項實驗,將人類編寫的網絡釣魚電子郵件與人工智能生成的電子郵件進行比較, “令人驚訝的是,儘管人工智能生成的電子郵件語法正確,但它們仍然很容易被檢測到” (生成式人工智能在網絡安全中的 6 個用例 [+ 示例] )。這表明,人類直覺與人工智慧輔助檢測相結合仍然可以識別人工智慧編寫的騙局中的細微不一致或元數據訊號。
生成式人工智慧還能以其他方式輔助網路釣魚防禦。模型可用於產生自動回覆或篩選器,以測試可疑電子郵件。例如,人工智慧系統可以使用某些查詢回覆電子郵件,以驗證寄件者的合法性,或使用法學碩士 (LLM) 在沙盒中分析電子郵件的連結和附件,然後總結任何惡意意圖。 NVIDIA 的安全平台Morpheus與傳統安全工具相比,它將魚叉式網絡釣魚電子郵件檢測率提高了21% 《網絡安全中生成式人工智能的 6 個用例 [+ 示例] 人工智慧)。 Morpheus 甚至可以分析使用者的通訊模式,以偵測異常行為(例如使用者突然向許多外部位址發送電子郵件),這可能表示一個被盜的帳戶正在發送網路釣魚電子郵件。
在實踐中,各行各業的公司開始信賴人工智慧來過濾電子郵件和網路流量,以防範社會工程攻擊。例如,金融公司使用生成式人工智慧掃描通信,以發現可能導致電信詐欺的冒充行為;而醫療保健提供者則部署人工智慧來保護患者資料免受網路釣魚相關外洩的侵害。透過產生逼真的網路釣魚場景並識別惡意訊息的特徵,生成式人工智慧為網路釣魚防禦策略增添了強大的保護層。關鍵在於:即使攻擊者使用相同的技術來提升攻擊水平,人工智慧也能更快、更準確地偵測和化解網路釣魚攻擊
惡意軟體偵測與威脅分析
現代惡意軟體不斷演變-攻擊者會產生新的變種或混淆程式碼以繞過防毒簽章。生成式人工智慧 (Generative AI) 為偵測惡意軟體和理解其行為提供了新穎的技術。一種方法是使用人工智慧產生惡意軟體的「邪惡雙胞胎」 :安全研究人員可以將已知的惡意軟體樣本輸入生成模型,從而創建該惡意軟體的多個變異變種。透過這樣做,他們可以有效地預測攻擊者可能進行的調整。這些人工智慧產生的變種隨後可用於訓練防毒和入侵偵測系統,因此即使是惡意軟體的修改版本也能在野外被識別(生成式人工智慧在網路安全中的 6 個用例 [+ 範例] )。這種主動策略有助於打破駭客略微修改惡意軟體以逃避偵測,而防禦者每次都必須費力編寫新簽署的循環。正如一個行業播客所指出的,安全專家現在使用生成式人工智慧來“模擬網路流量並生成模仿複雜攻擊的惡意負載”,從而對整個威脅系列而非單一威脅實例進行壓力測試。這種自適應威脅偵測意味著安全工具對原本可能被漏網的多態惡意軟體具有更強的抵禦能力。
除了偵測之外,生成式人工智慧還可以協助進行惡意軟體分析和逆向工程,而這些任務傳統上是威脅分析師的勞動密集任務。大型語言模型可以負責檢查可疑程式碼或腳本,並用簡單易懂的語言解釋程式碼的用途。一個真實的例子是VirusTotal Code Insight ,這是 Google VirusTotal 的一項功能,它利用生成式人工智慧模型(Google 的 Sec-PaLM)產生潛在惡意程式碼的自然語言摘要(生成式人工智慧如何用於網路安全?10 個真實範例)。它本質上是“一種專用於安全編碼的 ChatGPT”,充當人工智慧惡意軟體分析師,全天候工作,幫助人類分析師了解威脅(生成式人工智慧在網路安全中的 6 個用例 [+ 範例] )。安全團隊成員無需費力鑽研不熟悉的腳本或二進位程式碼,而是可以從人工智慧中立即獲得解釋——例如, 「此腳本嘗試從 XYZ 伺服器下載文件,然後修改系統設置,這表明存在惡意軟體行為。」這大大加快了事件回應速度,因為分析師可以比以往更快地對新惡意軟體進行分類和理解。
生成式人工智慧也用於在海量資料集中定位惡意軟體。傳統的防毒引擎會掃描檔案以查找已知簽名,而產生模型可以評估檔案的特徵,甚至根據學習到的模式預測檔案是否為惡意檔案。透過分析數十億個檔案(惡意和良性)的屬性,人工智慧可以在沒有明確簽署的情況下捕獲惡意意圖。例如,生成模型可以將一個可執行檔標記為可疑,因為其行為特徵「看起來」像它在訓練期間看到的勒索軟體的略微變體,即使該二進位檔案是新的。這種基於行為的檢測有助於對抗新型或零時差惡意軟體。據報道,Google的威脅情報人工智慧(Chronicle/Mandiant 的一部分)使用其生成模型來分析潛在的惡意程式碼,並「更有效率、更有效地協助安全專業人員打擊惡意軟體和其他類型的威脅」。 (生成式人工智慧如何用於網路安全?10 個真實世界的例子)。
另一方面,我們必須承認,攻擊者也可以利用生成式人工智慧——自動創建能夠自我調整的惡意軟體。事實上,安全專家警告稱,生成式人工智慧可以幫助網路犯罪分子開發更難檢測的惡意軟體(《網路安全中的生成式人工智慧是什麼? - Palo Alto Networks 》)。人工智慧模型可以被指示重複變形惡意軟體(更改其檔案結構、加密方法等),直到它規避所有已知的防毒檢查。這種對抗性使用日益受到關注(有時被稱為「人工智慧驅動的惡意軟體」或多態惡意軟體即服務)。我們稍後會討論此類風險,但它強調了生成式人工智慧是這場貓捉老鼠遊戲中的工具,防禦者和攻擊者都會使用。
整體而言,生成式人工智慧 (Generative AI) 讓安全團隊能夠像攻擊者一樣思考,從而在內部產生新的威脅和解決方案,從而增強惡意軟體防禦能力。無論是產生合成惡意軟體以提高偵測率,還是使用人工智慧來解釋和控製網路中發現的真實惡意軟體,這些技術都適用於各個行業。銀行可能會使用人工智慧驅動的惡意軟體分析來快速分析電子表格中的可疑宏,而製造公司可能會依靠人工智慧來檢測針對工業控制系統的惡意軟體。透過以生成式人工智慧 (Generative AI) 增強傳統的惡意軟體分析,組織可以比以往更快、更主動地應對惡意軟體活動。
威脅情報和自動化分析
每天,企業都會被大量的威脅情報資料轟炸——從新發現的入侵指標 (IOC) 到新興駭客策略的分析師報告。安全團隊面臨的挑戰是如何篩選這些海量訊息,並從中提取切實可行的洞察。事實證明,生成式人工智慧在自動化威脅情報分析和使用方面。分析師無需手動閱讀數十份報告或資料庫條目,而是可以運用人工智慧以機器速度匯總和分析威脅情報。
一個具體的例子是Google的威脅情報套件,它將生成式人工智慧(Gemini 模型)與Google從 Mandiant 和 VirusTotal 獲得的海量威脅資料結合。該人工智慧提供「在Google龐大的威脅情報庫中進行對話式搜尋」的功能,允許用戶提出有關威脅的自然問題並獲得精煉答案(生成式人工智慧如何用於網路安全?10 個真實範例)。例如,分析師可以問: “我們是否看到任何與威脅組織 X 相關的惡意軟體針對我們的行業?”人工智能將提取相關信息,可能會指出“是的,威脅組織 X 與上個月使用惡意軟體 Y 的網絡釣魚活動有關” ,同時提供該惡意軟體行為的摘要。這大大減少了收集洞察的時間,否則將需要查詢多個工具或閱讀長篇報告。
生成式人工智慧還可以關聯和總結威脅趨勢。它可以梳理數千條安全部落格文章、漏洞新聞和暗網聊天,然後為 CISO 的簡報產生「本週主要網路威脅」的執行摘要。傳統上,這種程度的分析和報告需要大量人力;現在,一個經過精心調整的模型可以在幾秒鐘內起草,人工只需對產出進行改進。像 ZeroFox 這樣的公司開發了FoxGPT ,這是一種生成式人工智慧工具,專門用於“加速跨大型資料集的情報分析和匯總”,包括惡意內容和網路釣魚資料(生成式人工智慧如何用於網路安全?10 個現實世界的例子)。透過自動執行讀取和交叉引用資料的繁重工作,人工智慧使威脅情報團隊能夠專注於決策和回應。
另一個用例是對話式威脅搜尋。想像一下,一位安全分析師與人工智慧助理互動: “顯示過去 48 小時內資料外洩的任何跡象”或“本週攻擊者正在利用的最大新漏洞是什麼?”人工智慧可以解釋查詢,搜尋內部日誌或外部情報來源,並提供明確的答案甚至相關事件列表。這並非牽強附會——現代安全資訊和事件管理 (SIEM) 系統開始融入自然語言查詢。例如,IBM 的 QRadar 安全套件將在 2024 年添加生成式人工智慧功能,讓分析師可以「詢問有關事件的總結攻擊路徑的具體問題」並獲得詳細答案。它還可以自動「解釋和總結高度相關的威脅情報」 生成式人工智慧如何用於網路安全?10 個現實世界的例子)。本質上,生成式人工智慧可以根據需求將大量技術數據轉化為聊天大小的洞察。
這對各個產業都具有重大意義。醫療保健提供者可以利用人工智慧隨時了解針對醫院的最新勒索軟體攻擊,而無需專門指派分析師進行全職研究。零售公司的安全營運中心 (SOC) 可以在向門市 IT 員工報告時快速總結新的 POS 惡意軟體攻擊策略。在政府部門,需要整合來自各個機構的威脅數據,人工智慧可以產生統一的報告,重點是突出關鍵警告。透過自動化威脅情報收集和解讀,生成式人工智慧可以幫助組織更快地應對新興威脅,並降低錯過隱藏在噪音中的關鍵警告的風險。
安全營運中心 (SOC) 優化
安全營運中心 (SOC) 因警報疲勞和大量資料而臭名昭著。典型的 SOC 分析師可能每天需要處理數千個警報和事件,調查潛在事件。生成式人工智慧 (Generative AI) 透過自動化日常工作、提供智慧摘要,甚至協調某些回應,在 SOC 中發揮倍增器的作用。其目標是優化 SOC 工作流程,使人類分析師能夠專注於最關鍵的問題,而 AI 則負責處理其餘事務。
一個主要的應用是將生成式人工智慧用作「分析師的副駕駛」 。前面提到的微軟安全副駕駛就是一個很好的例子:它“旨在協助安全分析師的工作,而不是取代它”,幫助進行事件調查和報告(微軟安全副駕駛是網絡安全的新型 GPT-4 人工智能助手 | The Verge )。在實踐中,這意味著分析師可以輸入原始資料——防火牆日誌、事件時間軸或事件描述——並要求人工智慧進行分析或總結。副駕駛可能會輸出這樣的敘述: “看來在凌晨 2:35,來自 IP X 的可疑登錄在伺服器 Y 上成功,隨後發生了異常的數據傳輸,表明該伺服器可能存在漏洞。”在時間至關重要的時候,這種即時的語境化是無價的。
AI 副駕駛也有助於減輕一級分類的負擔。根據行業數據,一個安全團隊每周可能要花費 15 個小時來整理大約 22,000 條警報和誤報(網路安全中生成式 AI 的 6 個用例 [+ 範例] )。借助生成式 AI,許多此類警報可以自動分類 - AI 可以忽略那些明顯無害的警報(給出理由),並突出顯示真正需要關注的警報,有時甚至會提示優先順序。事實上,生成式 AI 在理解上下文方面的優勢意味著它可以將那些孤立地看起來無害但集合在一起卻表明存在多階段攻擊的警報進行交叉關聯。這減少了由於“警報疲勞”而錯過攻擊的可能性。
SOC 分析師也將自然語言與 AI 結合使用,以加快搜尋和調查速度。例如,SentinelOne 的Purple AI平台將基於 LLM 的介面與即時安全資料相結合,使分析師能夠「用簡單的英語提出複雜的威脅搜尋問題並獲得快速、準確的答案」 (生成式 AI 如何用於網路安全?10 個真實範例)。分析師可以輸入「上個月是否有任何端點與網域 badguy123[.]com 進行過通訊?」 ,Purple AI 將搜尋日誌並做出回應。這使分析師無需編寫資料庫查詢或腳本——AI 會在後台完成這些工作。這也意味著初級分析師可以處理以前需要精通查詢語言的經驗豐富的工程師才能完成的任務,從而透過 AI 協助有效地提升團隊的技能。事實上,分析師報告稱,生成式人工智慧指導「提高了他們的技能和熟練程度」 ,因為初級員工現在可以從人工智慧中獲得按需編碼支援或分析技巧,從而減少對總是向高級團隊成員尋求幫助的依賴(網路安全中生成式人工智慧的 6 個用例 [+ 範例] )。
SOC 的另一項最佳化是自動化事件摘要和文件記錄。處理完事件後,必須有人寫報告,很多人覺得這項任務很繁瑣。生成式 AI 可以取得取證資料(系統日誌、惡意軟體分析、操作時間表)並產生事件報告初稿。 IBM 正在將此功能建置到 QRadar 中,以便只需「點擊」即可為不同的利害關係人(高階主管、IT 團隊等)產生事件摘要(生成式 AI 如何用於網路安全?10 個真實範例)。這不僅節省時間,而且還確保報告中不會遺漏任何內容,因為 AI 可以一致地包含所有相關細節。同樣,對於合規性和審計,AI 可以根據事件資料填寫表格或證據表。
現實世界的結果令人信服。 Swimlane 的 AI 驅動 SOAR(安全編排、自動化和回應)的早期採用者報告了巨大的生產力提升——例如,Global Data Systems 發現他們的 SecOps 團隊管理的案例量大得多;一位主管表示, “AI 驅動的自動化,我現在用 7 名分析師完成的工作可能需要 20 名員工” 生成式 AI 如何用於安全網絡)。換句話說, SOC 中的 AI 可以倍增容量。在各個行業,無論是處理雲端安全警報的科技公司還是監控 OT 系統的製造工廠,SOC 團隊都可以透過採用生成式 AI 助理獲得更快的偵測和回應、更少的漏報事件和更有效率的營運。這是關於更聰明地工作——讓機器處理重複性和數據密集型任務,以便人類可以在最重要的地方運用他們的直覺和專業知識。
漏洞管理和威脅模擬
識別和管理漏洞(即攻擊者可能利用的軟體或系統中的弱點)是網路安全的核心功能。生成式人工智慧 (Generative AI) 透過加速漏洞發現、協助確定修補程式優先級,甚至模擬針對這些漏洞的攻擊來增強漏洞管理,從而提高防範能力。本質上,人工智慧正在幫助組織更快地發現並修復其防禦漏洞,並主動測試防禦措施。
一個重要的應用是使用生成式人工智慧進行自動程式碼審查和漏洞發現。大型程式碼庫(尤其是遺留系統)通常隱藏著被忽視的安全漏洞。生成式人工智慧模型可以接受安全編碼實踐和常見錯誤模式的訓練,然後將其應用於原始程式碼或編譯後的二進位檔案以查找潛在漏洞。例如,NVIDIA 的研究人員開發了一種生成式人工智慧流程,可以分析遺留軟體容器並識別漏洞, 「準確率高達人類專家的 4 倍」。 (網路安全中生成式人工智慧的 6 個用例 [+ 範例] )。該人工智慧本質上了解了不安全程式碼是什麼樣的,並且能夠掃描幾十年前的軟體來標記有風險的函數和函式庫,這大大加快了通常緩慢的手動程式碼審計過程。對於依賴大型舊程式碼庫的金融或政府等行業來說,這種工具可以帶來翻天覆地的變化——人工智慧可以挖掘出工作人員可能需要數月甚至數年才能發現的問題(如果真的能發現的話),從而幫助實現安全現代化。
可以透過處理漏洞掃描結果並確定其優先順序來協助漏洞管理工作流程ExposureAI使用生成式人工智慧,讓分析師以簡單易懂的語言查詢漏洞資料並立即獲得答案(生成式人工智慧如何應用於網路安全?10 個真實案例)。 ExposureAI 可以「以敘述的方式總結完整的攻擊路徑」 ,解釋攻擊者如何將其與其他漏洞串聯起來以破壞系統。它甚至會建議補救措施並回答有關風險的後續問題。這意味著,當一個新的關鍵 CVE(通用漏洞和暴露)發佈時,分析師可以詢問人工智慧: 「我們的伺服器是否有受到此 CVE 的影響?如果我們不修補,最壞的情況會是什麼?」並獲得根據組織自身的掃描資料得出的明確評估。透過將漏洞情境化(例如,這個漏洞暴露在網路上和高價值伺服器上,因此它是首要任務),生成式人工智慧可以幫助團隊在有限的資源下智慧地修補。
除了尋找和管理已知漏洞外,生成式人工智慧 (GAN) 還可用於滲透測試和攻擊模擬,本質上是發現未知漏洞或測試安全控制。生成對抗網路 (GAN) 是一種生成式人工智慧,已被用於創建模擬真實網路流量或用戶行為的合成數據,其中可能包含隱藏的攻擊模式。 2023 年的一項研究建議使用 GAN 產生逼真的零日攻擊流量,以訓練入侵偵測系統(網路安全中生成式人工智慧的 6 個用例 [+ 範例] )。透過向入侵偵測系統 (IDS) 輸入人工智慧設計的攻擊場景(不會在生產網路上使用實際惡意軟體),組織可以訓練其防禦系統識別新型威脅,而無需等待在現實中受到攻擊。同樣,人工智慧可以模擬攻擊者探測系統,例如,在安全環境中自動嘗試各種漏洞技術,看看是否有任何一種會成功。美國國防高級研究計劃局 (DARPA) 看到了其中的潛力:其 2023 年人工智慧網路挑戰賽明確使用生成式人工智慧(例如大型語言模型)來“自動查找並修復開源軟體中的漏洞”,作為競賽的一部分( DARPA 旨在開發作戰人員可以信賴的人工智慧和自主應用程式 > 美國國防部 > 國防部新聞)。這項措施強調,人工智慧不僅是幫助修補已知漏洞;它還能積極發現新的漏洞並提出修復方案,而這項任務傳統上僅限於熟練(且昂貴)的安全研究人員。
生成式人工智慧甚至可以創建智慧蜜罐和數位孿生。新創公司正在開發人工智慧驅動的誘餌系統,以令人信服地模擬真實的伺服器或設備。正如一位執行長所解釋的那樣,生成式人工智慧可以「克隆數位系統來模仿真實系統並引誘駭客」 (網路安全中生成式人工智慧的 6 個用例 [+ 範例] )。這些人工智慧產生的蜜罐的行為類似於真實環境(例如,發送正常遙測資料的假物聯網設備),但其存在的唯一目的是吸引攻擊者。當攻擊者瞄準誘餌時,人工智慧基本上已經誘騙他們透露了他們的方法,然後防禦者可以研究並使用這些方法來強化真實系統。這個由生成式建模支援的概念提供了一種前瞻性的方法,即利用人工智慧增強的欺騙扭轉攻擊者的局面
在各個行業,更快、更智慧的漏洞管理意味著更少的漏洞。例如,在醫療IT領域,人工智慧可以快速發現醫療設備中存在漏洞的過時庫,並在攻擊者利用之前提示韌體修復。在銀行業,人工智慧可以模擬對新應用程式的內部攻擊,以確保客戶資料在任何情況下都安全無虞。因此,生成式人工智慧既是組織安全態勢的顯微鏡,也是壓力測試儀:它可以揭示隱藏的缺陷,並以富有想像的方式對系統施加壓力,以確保系統的彈性。
安全代碼產生和軟體開發
生成式人工智慧的能力不僅限於偵測攻擊,它還能從一開始就建構更安全的系統。在軟體開發領域,人工智慧程式碼產生器(例如 GitHub Copilot、OpenAI Codex 等)可以透過建議程式碼片段甚至整個函數來幫助開發人員更快地編寫程式碼。網路安全角度在於確保這些人工智慧建議的程式碼片段是安全的,並利用人工智慧來改善編碼實踐。
一方面,生成式人工智慧可以充當嵌入安全最佳實踐的編碼助手。開發人員可以提示人工智慧工具「用 Python 產生密碼重置函數」 ,理想情況下,它會傳回不僅可運行而且遵循安全指南(例如,正確的輸入驗證、日誌記錄、錯誤處理而不洩露資訊等)的程式碼。經過大量安全程式碼範例的訓練,這樣的助手可以幫助減少導致漏洞的人為錯誤。例如,如果開發人員忘記清理使用者輸入(為 SQL 注入或類似問題打開大門),人工智慧可以預設包含該輸入或發出警告。一些人工智慧編碼工具現在正在使用以安全為中心的資料進行微調,以服務於此目的——本質上,就是具有安全意識的人工智慧結對程式設計。
然而,生成式人工智慧也有其弊端:如果管理不當,生成式人工智慧也很容易引入漏洞。正如 Sophos 安全專家 Ben Verschaeren 所指出的,使用生成式人工智慧進行編碼「對於簡短、可驗證的程式碼來說沒有問題,但如果將未經檢查的程式碼整合到生產系統中,則存在風險」。風險在於,人工智慧可能會產生邏輯正確但並不安全的程式碼,而非專業人士可能無法察覺。此外,惡意行為者可能會故意影響公共人工智慧模型,方法是向其中植入易受攻擊的程式碼模式(一種資料中毒形式),從而使人工智慧建議不安全的程式碼。大多數開發人員並非安全專家,因此,如果人工智慧建議一個便捷的解決方案,他們可能會盲目使用,而沒有意識到它存在缺陷(生成式人工智慧在網路安全中的 6 個用例 [+ 範例] )。這種擔憂是真實存在的——事實上,現在有一個針對 LLM(大型語言模型)的 OWASP 十大風險列表,概述了使用人工智慧進行編碼的常見此類風險。
為了因應這些問題,專家建議「以生成式人工智慧對抗生成式人工智慧」 。實際上,這意味著使用人工智慧來審查和測試其他人工智慧(或人類)編寫的程式碼。人工智慧可以比人類程式碼審查員更快地掃描新的程式碼提交,並標記潛在的漏洞或邏輯問題。我們已經看到一些新興工具整合到軟體開發生命週期中:程式碼編寫完成(可能藉助人工智慧),然後一個根據安全程式碼原則訓練的生成模型對其進行審查,並產生任何問題的報告(例如,使用了棄用函數、缺少身份驗證檢查等)。前面提到的 NVIDIA 的研究實現了程式碼漏洞偵測速度提高 4 倍,這是利用人工智慧進行安全程式碼分析的一個例子(網路安全中生成式人工智慧的 6 個用例 [+ 範例] )。
此外,生成式人工智慧可以協助建立安全的配置和腳本。例如,如果一家公司需要部署安全的雲端基礎設施,工程師可以要求人工智慧產生配置腳本(基礎設施即程式碼),並嵌入安全控制措施(例如適當的網路分段、最小權限 IAM 角色)。人工智慧已經接受了數千個此類配置的訓練,可以產生一個基準,讓工程師微調。這可以加速系統的安全設置,並減少配置錯誤——雲端安全事件的常見根源。
一些組織也利用生成式人工智慧來維護安全編碼模式知識庫。如果開發人員不確定如何安全地實現某個功能,他們可以查詢從公司過去的專案和安全指南中學習過的內部人工智慧。人工智慧可能會返回符合功能需求和公司安全標準的推薦方法甚至程式碼片段。 Secureframe的問卷自動化,它從公司的政策和過去的解決方案中提取答案,以確保一致和準確的回應(本質上是生成安全文件)(生成式人工智慧如何用於網路安全?10 個現實世界的例子)。這個概念轉化為編碼:一種「記住」你以前如何安全地實現某些事情並指導你再次這樣做的人工智慧。
總而言之,生成式人工智慧正在透過使安全編碼輔助更容易獲得來。開發大量客製化軟體的產業——科技、金融、國防等——將從擁有人工智慧「副駕駛員」中受益,這些副駕駛員不僅可以加快編碼速度,還能充當時刻警惕的安全審查員。如果管理得當,這些人工智慧工具可以減少新漏洞的產生,並幫助開發團隊遵循最佳實踐,即使團隊沒有安全專家參與每個步驟。最終結果是,軟體從第一天起就更加強大,能夠抵禦攻擊。
事件響應支持
當網路安全事件發生時——無論是惡意軟體爆發、資料洩露,還是攻擊導致的系統中斷——時間都至關重要。生成式人工智慧正越來越多地被用於支援事件回應 (IR) 團隊更快地控制和補救事件,並獲取更多資訊。其理念是,人工智慧可以在事件發生期間承擔部分調查和文件工作,甚至建議或自動執行一些回應操作。
AI 在 IR 中的一個關鍵作用是即時事件分析和總結。在事件發生時,回應者可能需要回答諸如“攻擊者是如何進入的?” , “哪些系統受到影響?”和“哪些資料可能被洩露?”。生成式 AI 可以分析受影響系統的日誌、警報和取證數據,並快速提供見解。例如,Microsoft Security Copilot 允許事件回應者輸入各種證據(檔案、URL、事件日誌)並要求提供時間表或摘要( Microsoft Security Copilot 是一款新的 GPT-4 AI 網路安全助理 | The Verge )。 AI 可能會這樣回應: 「這次入侵很可能始於格林威治標準時間 10:53 發送給用戶 JohnDoe 的一封包含惡意軟體 X 的釣魚郵件。惡意軟體執行後會創建一個後門,兩天后該後門會橫向移動到財務伺服器,並在那裡收集資料。」在幾分鐘而不是幾小時內獲得這種連貫的圖像,使哪些團隊能夠做出明智的系統。
生成式人工智慧還可以建議遏制和補救措施。例如,如果某個端點感染了勒索軟體,人工智慧工具可以產生一個腳本或一組指令來隔離該機器、禁用某些帳戶並在防火牆上阻止已知的惡意 IP — — 本質上是一個劇本執行。 Palo Alto Networks 指出,生成式人工智慧能夠「根據事件的性質產生適當的操作或腳本」 ,自動執行初始回應步驟(網路安全中的生成式人工智慧是什麼?- Palo Alto Networks )。在安全團隊不堪重負的情況下(例如數百台設備遭受大範圍攻擊),人工智慧甚至可能在預先批准的條件下直接執行其中一些操作,就像一個不知疲倦的初級響應者。例如,人工智慧代理可以自動重置它認為已洩露的憑證,或隔離表現出與事件設定檔相符的惡意活動的主機。
在事件回應期間,溝通至關重要——無論是團隊內部還是與利害關係人之間。生成式人工智慧可以提供幫助,即時起草事件更新報告或簡報。工程師不必停下故障排除來撰寫電子郵件更新,而是可以要求人工智慧「總結到目前為止此事件中發生的事情,以通知高階主管」。人工智慧在獲取事件資料後,可以產生簡潔的摘要: 「截至下午 3 點,攻擊者已存取 2 個使用者帳戶和 5 台伺服器。受影響的資料包括資料庫 X 中的用戶端記錄。遏制措施:已撤銷受損帳戶的 VPN 存取權並隔離伺服器。下一步:掃描任何持久性機制。」然後,回應者可以撤銷受損帳戶的 VPN 存取權並隔離伺服器。下一步:掃描任何持久性機制。」然後,回應者可以隨時了解相關者
塵埃落定後,通常需要準備詳細的事件報告,並總結經驗教訓。這是人工智慧支援的另一個亮點。它可以審查所有事件數據,並產生一份涵蓋根本原因、時間順序、影響和建議的事件後報告。例如,IBM 正在整合生成式人工智慧,只需按下按鈕「可與利害關係人共享的安全案例和事件的簡單摘要」 生成式人工智慧如何應用於網路安全?10 個真實案例)。透過簡化事後報告,組織可以更快地實施改進,並獲得更完善的合規性文件。
一種創新的前瞻性應用是人工智慧驅動的事件模擬。類似於消防演習,一些公司正在使用生成式人工智慧來演習「假設」事件場景。人工智慧可以模擬勒索軟體在特定網路佈局下的傳播方式,或者內部人員如何竊取數據,然後評估當前響應計劃的有效性。這有助於團隊在實際事件發生之前準備和完善應對方案。這就像擁有一個不斷改進的事件回應顧問,不斷測試你的準備。
在金融或醫療保健等高風險產業,事故造成的停機或資料遺失成本尤其高昂,這些人工智慧驅動的事件回應功能極具吸引力。遭遇網路事件的醫院無法承受長時間的系統中斷——能夠快速協助控制的人工智慧或許真的能挽救生命。同樣,金融機構可以在凌晨 3 點使用人工智慧對疑似詐欺入侵進行初步分類,這樣,當值班人員上線時,大量的基礎工作(註銷受影響的帳戶、阻止交易等)就已經完成了。透過使用生成式人工智慧增強事件回應團隊,組織可以大幅縮短回應時間並提高處理工作的徹底性,最終減輕網路事件造成的損害。
行為分析和異常檢測
許多網路攻擊可以透過發現異常行為來發現——無論是用戶帳戶下載異常量的數據,還是網路設備突然與陌生主機通訊。生成式人工智慧提供先進的行為分析和異常檢測,學習使用者和系統的正常模式,並在出現異常時發出警報。
傳統的異常檢測通常使用統計閾值或針對特定指標(CPU 使用率峰值、非正常時間登入等)的簡單機器學習。而生成式 AI 則可以更進一步,建立更細緻的行為檔案。例如,AI 模型可以收集員工一段時間內的登入資訊、文件存取模式和電子郵件習慣,從而對該使用者的「正常」行為形成多維度的理解。如果該帳戶隨後執行了某些嚴重超出其正常範圍的操作(例如,從新的國家/地區登錄並在午夜訪問大量人力資源文件),AI 不僅會檢測到某個指標的偏差,還會檢測到與用戶檔案不符的整體行為模式。從技術角度來看,生成模型(例如自動編碼器或序列模型)可以模擬「正常」行為,然後產生預期的行為範圍。當實際情況超出該範圍時,就會被標記為異常(網路安全中的生成式 AI 是什麼? - Palo Alto Networks )。
一種實際的應用是網路流量監控。根據 2024 年的一項調查,54% 的美國組織將監控網路流量列為人工智慧在網路安全領域的首要用例(北美:2024 年全球網路安全領域的首要人工智慧用例)。生成式人工智慧可以學習企業網路的正常通訊模式——哪些伺服器通常會相互通信,工作時間和夜間的資料量是多少,等等。如果攻擊者開始從伺服器竊取數據,即使速度很慢以避免被發現,基於人工智慧的系統也可能會注意到「伺服器 A 從未在凌晨 2 點向外部 IP 發送 500MB 數據」並發出警報。由於人工智慧不僅使用靜態規則,而是一種不斷發展的網路行為模型,因此它可以捕捉到靜態規則(例如「如果資料 > X MB 則發出警報」)可能遺漏或錯誤標記的細微異常。這種自適應特性使得人工智慧驅動的異常檢測在銀行交易網路、雲端基礎設施或物聯網設備群等環境中非常強大,在這些環境中定義正常與異常的固定規則極為複雜。
生成式人工智慧還能幫助進行使用者行為分析 (UBA) ,這對於發現內部威脅或受損帳戶至關重要。透過產生每個使用者或實體的基線,人工智慧可以偵測到諸如憑證濫用之類的行為。例如,如果會計部門的鮑勃突然開始查詢客戶資料庫(這是他以前從未做過的事情),那麼針對鮑勃行為的人工智慧模型就會將此標記為異常。這可能不是惡意軟體——可能是鮑伯的憑證被攻擊者竊取和使用,或者鮑伯在進行不該進行的操作。無論哪種情況,安全團隊都會被通知並進行調查。這種由人工智慧驅動的 UBA 系統存在於各種安全產品中,而生成建模技術則透過考慮上下文(也許鮑勃正在參與一個特殊項目等,人工智慧有時可以從其他數據中推斷出這些資訊)來提高其準確性並減少誤報。
在身分和存取管理領域,深度偽造檢測的需求日益增長——生成式人工智慧可以創建合成語音和視頻,從而繞過生物識別安全機制。有趣的是,生成式人工智慧還可以透過分析音訊或影片中人類難以察覺的細微偽影來偵測這些深度偽造。我們看到了埃森哲的一個例子,該公司使用生成式人工智慧模擬了無數的面部表情和狀態,以訓練其生物識別系統區分真實用戶和人工智慧生成的深度偽造。五年來,這種方法幫助埃森哲消除了90%系統的密碼(轉向生物辨識和其他因素),並將攻擊減少了60%(網路安全中生成式人工智慧的6個用例[+範例] )。本質上,他們使用生成式人工智慧來加強生物辨識身份驗證,使其能夠抵禦生成式攻擊(這是人工智慧對抗人工智慧的絕佳例證)。這種行為建模——在本例中是識別真人臉和人工智慧合成臉之間的差異——至關重要,因為我們在身份驗證中越來越依賴人工智慧。
生成式人工智慧驅動的異常檢測可應用於各行各業:在醫療保健領域,監控醫療設備行為以發現駭客攻擊跡象;在金融領域,監控交易系統中是否存在可能表明欺詐或演算法操縱的異常模式;在能源/公用事業領域,觀察控制系統訊號以發現入侵跡象。廣度(審視行為的各個面向)和深度(理解複雜模式),使其成為識別網路事件潛在危險的有力工具。隨著威脅變得更加隱蔽,隱藏在正常運作中,這種準確定義「正常」並在出現異常時發出警報的能力變得至關重要。因此,生成式人工智慧如同一個不知疲倦的哨兵,不斷學習並更新其對「正常」的定義,以跟上環境的變化,並向安全團隊發出需要更仔細檢查的異常警報。
生成式人工智慧在網路安全領域的機會與優勢
生成式人工智慧在網路安全領域的應用,為願意採用這些工具的組織帶來了許多機會和益處。以下,我們總結了生成式人工智慧成為網路安全專案引人注目的補充的關鍵優勢:
-
更快的威脅偵測和回應:生成式人工智慧系統可以即時分析大量數據,識別威脅的速度遠超人工分析。這種速度優勢意味著能夠更早發現攻擊並更快地遏制事件。在實踐中,人工智慧驅動的安全監控可以捕捉人類需要更長時間才能識別的威脅。透過快速回應事件(甚至自主執行初始回應),組織可以顯著減少攻擊者在其網路中的停留時間,從而最大限度地減少損失。
-
提升準確性和威脅覆蓋率:由於生成模型能夠不斷從新數據中學習,因此能夠適應不斷變化的威脅,並捕捉到更細微的惡意活動跡象。與靜態規則相比,這能夠提高偵測準確性(減少誤報和漏報)。例如,學習了網路釣魚電子郵件或惡意軟體行為特徵的人工智慧可以識別出從未見過的變體。這能夠更廣泛地涵蓋威脅類型,包括新型攻擊,從而增強整體安全態勢。安全團隊還可以從人工智慧分析中獲得詳細的洞察(例如,對惡意軟體行為的解釋),從而實現更精準、更有針對性的防禦(網路安全中的生成式人工智慧是什麼? - Palo Alto Networks )。
-
重複性任務的自動化:生成式人工智慧擅長自動化日常的、勞力密集的安全任務——從梳理日誌、編寫報告到編寫事件回應腳本。這種自動化減輕了人類分析師的負擔,使他們能夠專注於高級戰略和複雜的決策(生成式人工智慧在網路安全中的作用是什麼? - Palo Alto Networks )。諸如漏洞掃描、配置審計、用戶活動分析和合規性報告等平凡卻重要的工作,都可以由人工智慧處理(或至少是初步起草)。透過以機器速度處理這些任務,人工智慧不僅提高了效率,還減少了人為錯誤(這是導致資料外洩的重要因素)。
-
主動防禦與模擬:生成式人工智慧使組織能夠從被動安全轉變為主動安全。透過攻擊模擬、合成資料生成和基於場景的訓練等技術,防禦者可以在威脅之前。安全團隊可以在安全的環境中模擬網路攻擊(網路釣魚活動、惡意軟體爆發、DDoS 等),以測試他們的回應能力並彌補任何弱點。這種持續的訓練通常無法僅憑人力完成,但卻能保持防禦系統的敏銳性和最新狀態。這類似於網路「消防演習」——人工智慧可以向您的防禦系統拋出許多假設威脅,以便您進行練習和改進。
-
增強人類專業知識(AI 作為力量倍增器):生成式 AI 集不知疲倦的初級分析師、顧問和助手於一身。它可以為經驗不足的團隊成員提供通常由經驗豐富的專家提供的指導和建議,有效地整個團隊專業知識的民主化網路安全中生成式 AI 的 6 個用例 [+ 範例] )。鑑於網路安全人才短缺,這一點尤其寶貴——AI 可以幫助小型團隊事半功倍。另一方面,經驗豐富的分析師受益於 AI 處理繁瑣的工作並發現不易察覺的見解,然後他們可以驗證這些見解並採取行動。整體而言,安全團隊的效率和能力都大大提高,AI 放大了每個人類成員的影響力(如何將生成式 AI 用於網路安全)。
-
增強決策支援和報告:透過將技術數據轉化為自然語言洞察,生成式人工智慧可以改善溝通和決策。安全領導者可以透過人工智慧產生的摘要更清晰地洞察問題,無需解析原始資料即可做出明智的策略決策。同樣,當人工智慧能夠編寫簡單易懂的安全態勢和事件報告時,跨職能部門(與高階主管、合規官等)的溝通也會得到改善(生成式人工智慧如何應用於網路安全?10 個真實案例)。這不僅可以在領導層建立對安全問題的信心和一致性,還可以透過清楚地闡明風險和人工智慧發現的差距,幫助證明投資和變革的合理性。
綜上所述,這些優勢意味著,在網路安全領域利用生成式人工智慧的組織可以實現更強大的安全態勢,並可能降低營運成本。他們可以應對先前難以應對的威脅,彌補未受監控的漏洞,並透過人工智慧驅動的回饋循環持續改善。最終,生成式人工智慧能夠以與速度、規模和複雜程度相當的防禦手段,提供領先對手的機會。一項調查發現,超過一半的企業和網路領導者預計,透過使用生成式人工智慧,可以更快地檢測威脅並提高準確性( [PDF] 2025 年全球網路安全展望 | 世界經濟論壇)(網路安全中的生成式人工智慧:法學碩士綜合評論…… )——這證明了人們對這些技術優勢的樂觀態度。
在網路安全中使用生成式人工智慧的風險與挑戰
雖然機會龐大,但在網路安全領域應用生成式人工智慧時,請務必警惕風險與挑戰。盲目信任或濫用人工智慧可能會帶來新的漏洞。下文概述了主要的擔憂和陷阱,以及每個陷阱的具體背景:
-
網路犯罪分子的對抗性使用:生成能力既能幫助防禦者,也能幫助攻擊者。威脅行為者已經在使用生成式人工智慧來製作更具說服力的網路釣魚郵件、創建虛假人物和深度偽造影片用於社交工程、開發不斷變化以逃避檢測的多態惡意軟體,甚至自動化某些駭客攻擊行為(《網路安全中的生成式人工智慧是什麼?》 - Palo Alto Networks )。近一半(46%)的網路安全領導者擔心生成式人工智慧會導致更高階的對抗性攻擊(《生成式人工智慧安全:趨勢、威脅和緩解策略》)。這場「人工智慧軍備競賽」意味著,隨著防禦者採用人工智慧,攻擊者也不會落後太多(事實上,他們可能在某些領域領先,使用不受監管的人工智慧工具)。組織必須為更頻繁、更複雜、更難以追蹤的人工智慧增強型威脅做好準備。
-
AI 幻覺與不準確性:生成式 AI 模型可能會產生看似合理但實際上不正確或具有誤導性的——這種現象稱為幻覺。在安全環境中,AI 可能會分析事件並錯誤地認定某個漏洞是事件原因,或產生有缺陷的修復腳本而無法遏制攻擊。如果僅從表面上看,這些錯誤可能非常危險。正如 NTT Data 所警告的那樣, 「生成式 AI 可能會輸出不真實的內容,這種現像被稱為幻覺…目前很難完全消除它們」 (《生成式 AI 的安全風險和對策及其對網路安全的影響 | NTT DATA 集團》 )。過度依賴未經驗證的 AI 可能會導致誤導或虛假的安全感。例如,AI 可能會將關鍵系統誤認為安全,而實際上並非如此,或者相反,透過「偵測到」從未發生過的漏洞來引發恐慌。嚴格驗證人工智慧輸出並讓人類參與關鍵決策對於降低這種風險至關重要。
-
誤報和漏報:與幻覺類似,如果 AI 模型訓練或配置不佳,它可能會將良性活動過度報告為惡意活動(誤報) ,或者更糟的是,錯過真正的威脅(誤報) (生成式 AI 如何用於網絡安全)。過多的誤報會使安全團隊不堪重負並導致警報疲勞(抵消 AI 承諾的效率提升),而漏檢會使組織暴露在風險之中。調整生成模型以達到適當的平衡是一項挑戰。每個環境都是獨一無二的,AI 可能無法立即達到最佳效能。持續學習也是一把雙面刃——如果 AI 從有偏差的回饋或變化的環境中學習,其準確性可能會波動。安全團隊必須監控 AI 效能並調整閾值或向模型提供糾正回饋。在高風險環境中(例如關鍵基礎設施的入侵檢測),在一段時間內將人工智慧建議與現有系統並行運行可能是明智的,以確保它們協調和互補而不是衝突。
-
資料隱私與外洩:生成式人工智慧系統通常需要大量資料進行訓練和運作。如果這些模型基於雲端或未妥善隔離,則存在敏感資訊外洩的風險。使用者可能會無意中將專有資料或個人資料輸入人工智慧服務(例如,要求 ChatGPT 總結機密事件報告),而這些資料可能會成為模型知識的一部分。事實上,最近的一項研究發現, 55% 的生成式人工智慧工具輸入包含敏感資訊或個人身份訊息,這引發了人們對資料外洩的嚴重擔憂(《生成式人工智慧安全:趨勢、威脅與緩解策略》 )。此外,如果人工智慧已經使用內部資料進行訓練,並且以某些方式進行查詢,它可能會將輸出給其他人。組織必須實施嚴格的資料處理策略(例如,使用本地或私人人工智慧實例處理敏感資料),並教育員工不要將秘密資訊貼到公共人工智慧工具中。隱私權法規(GDPR 等)也發揮了作用——未經適當同意或保護而使用個人資料來訓練人工智慧可能會違反法律。
-
模型安全與操控:生成式人工智慧模型本身也可能成為攻擊目標。攻擊者可能會嘗試模型投毒,在訓練或再訓練階段輸入惡意或誤導性數據,使人工智慧學習到錯誤的模式(生成式人工智慧如何應用於網路安全)。例如,攻擊者可能會巧妙地毒害威脅情報數據,使人工智慧無法將攻擊者自己的惡意軟體識別為惡意軟體。另一種策略是即時注入或輸出操控,攻擊者會找到一種方法向人工智慧發出輸入,使其以非預期的方式運作——例如忽略其安全防護或洩露其不應洩露的資訊(例如內部提示或資料)。此外,還存在模型規避:攻擊者精心設計專門用於欺騙人工智慧的輸入。我們在對抗性案例中看到了這種情況——略微擾亂的數據在人類看來是正常的,但人工智慧卻對其進行了錯誤分類。在部署這些工具時,確保 AI 供應鏈的安全(資料完整性、模型存取控制、對抗性穩健性測試)是網路安全的一個新但必要的部分(網路安全中的生成式 AI 是什麼? - Palo Alto Networks )。
-
過度依賴和技能流失:組織可能過度依賴人工智慧,導致人類技能萎縮,這是一種較隱密的風險。如果初級分析師盲目信任人工智慧的輸出,他們可能無法培養在人工智慧不可用或出錯時所需的批判性思維和直覺。需要避免的情況是,安全團隊擁有強大的工具,但卻不知道這些工具故障時該如何操作(就像飛行員過度依賴自動駕駛儀)。定期進行沒有人工智慧輔助的訓練,並培養人工智慧只是助手而非可靠預言家的心態,對於維持人類分析師的敏銳性至關重要。人類必須始終是最終的決策者,尤其是在影響重大的判斷中。
-
道德與合規挑戰:人工智慧在網路安全領域的應用引發了道德問題,並可能引發監管合規問題。例如,如果人工智慧系統因異常情況而錯誤地將員工認定為惡意內部人員,則可能會不公正地損害此人的聲譽或職業生涯。人工智慧的決策可能不透明(「黑盒子」問題),難以向審計師或監管機構解釋採取某些行動的原因。隨著人工智慧生成內容的日益普及,確保透明度和問責制至關重要。監管機構正開始對人工智慧進行審查——例如,歐盟的《人工智慧法案》將對「高風險」人工智慧系統提出要求,而網路安全人工智慧可能就屬於此類。公司需要遵循這些法規,並可能遵守NIST人工智慧風險管理框架等標準,以負責任地使用生成人工智慧(產生人工智慧如何應用於網路安全?10個真實案例)。合規性也延伸到授權:使用開源或第三方模型可能會受到限制某些用途或要求共享改進的條款。
總而言之,生成式人工智慧並非靈丹妙藥——如果實施不當,即使解決了其他問題,也可能帶來新的弱點。 2024 年世界經濟論壇的一項研究強調,約 47% 的組織將攻擊者在生成式人工智慧方面的進步列為首要擔憂,使其成為「生成式人工智慧最令人擔憂的影響」 ( [PDF] 2025 年全球網路安全展望 | 世界經濟論壇)(網路安全中的生成式人工智慧:法學碩士綜合評論……人工智慧)。因此,組織必須採取平衡的方法:充分利用人工智慧的優勢,同時透過治理、測試和人工監督嚴格管理這些風險。接下來,我們將討論如何實際實現這種平衡。
未來展望:生成式人工智慧在網路安全中不斷演變的作用
展望未來,生成式人工智慧有望成為網路安全戰略不可或缺的一部分,同時也將成為網路攻擊者持續利用的工具。這場貓捉老鼠的競爭將加速,人工智慧將參與其中。以下是一些關於生成式人工智慧未來將如何塑造網路安全的前瞻性見解:
-
人工智慧增強型網路防禦成為標配:到2025年及以後,我們預期大多數大中型企業將把人工智慧驅動的工具納入其安全營運。就像防毒軟體和防火牆如今已成為標準配備一樣,人工智慧副駕駛和異常檢測系統可能成為安全架構的基礎組件。這些工具可能會變得更加專業化——例如,針對雲端安全、物聯網設備監控、應用程式程式碼安全性等進行微調的獨特人工智慧模型將協同工作。正如一項預測指出的那樣, “到2025年,生成式人工智慧將成為網路安全不可或缺的一部分,使企業能夠主動防禦複雜且不斷演變的威脅” (生成式人工智慧如何應用於網路安全)。人工智慧將增強即時威脅偵測,自動化許多回應操作,並幫助安全團隊管理遠超手動操作的資料量。
-
持續學習與適應:未來網路領域的生成式人工智慧系統將能夠更好地即時學習,近乎即時地更新其知識庫。這或許能夠帶來真正的自適應防禦——想像一下,一個人工智慧系統在早上得知另一家公司正在遭受新的網路釣魚攻擊,到了下午就已經調整了貴公司的電子郵件過濾器。基於雲端的人工智慧安全服務或許能夠促進這種集體學習,讓一個組織的匿名洞察惠及所有訂閱者(類似於威脅情報共享,但實現了自動化)。然而,這需要謹慎處理,以避免敏感資訊的共享,並防止攻擊者將惡意資料輸入共享模型。
-
人工智慧與網路安全人才的融合:網路安全專業人員的技能組合將持續發展,涵蓋人工智慧和資料科學的精通。正如今天的分析師學習查詢語言和腳本一樣,未來的分析師可能會定期微調人工智慧模型或編寫供人工智慧執行的「劇本」。我們可能會看到諸如「人工智慧安全培訓師」或「網路安全人工智慧工程師」——他們專門根據組織需求調整人工智慧工具,驗證其效能並確保其安全運作。另一方面,網路安全考量將日益影響人工智慧的發展。人工智慧系統將從頭開始構建,並包含安全特性(安全架構、篡改檢測、人工智慧決策的審計日誌等),而可信任人工智慧(公平、可解釋、穩健和安全)將指導其在安全關鍵環境中的部署。
-
更複雜的人工智慧攻擊:不幸的是,威脅情勢也將隨著人工智慧的發展而演變。我們預計人工智慧將更頻繁地用於發現零日漏洞、設計高度精準的魚叉式網路釣魚(例如,人工智慧抓取社交媒體資料以創建精準的誘餌),以及產生逼真的深度偽造語音或視訊以繞過生物特徵認證或實施詐欺。自動化駭客代理可能會出現,它們可以在極少的人為監督下獨立執行多階段攻擊(偵察、漏洞利用、橫向移動等)。這將迫使防禦者也依賴人工智慧——本質上是自動化與自動化的對決。某些攻擊可能以機器速度進行,例如人工智慧機器人會嘗試一千種網路釣魚郵件排列組合,以確定哪種能夠繞過過濾器。網路防禦需要以類似的速度和靈活性運行才能跟上(網路安全中的生成式人工智慧是什麼? - Palo Alto Networks )。
-
安全領域的監管與倫理人工智慧:隨著人工智慧在網路安全功能中的深度嵌入,相關審查將更加嚴格,監管也可能會出台,以確保這些人工智慧系統得到負責任的使用。我們可以期待針對安全領域人工智慧的框架和標準。各國政府可能會制定透明度準則-例如,要求重大安全決策(例如因涉嫌惡意活動而終止員工存取權限)未經人工審核不得由人工智慧單獨做出。人工智慧安全產品也可能獲得認證,以向買家保證其已通過偏見、穩健性和安全性評估。此外,圍繞人工智慧相關的網路威脅的國際合作可能會加強;例如,就處理人工智慧製造的虛假資訊達成協議,或針對某些人工智慧驅動的網路武器製定規範。
-
與更廣泛的人工智慧和IT生態系統的整合:網路安全領域的生成式人工智慧很可能與其他人工智慧系統和IT管理工具整合。例如,管理網路優化的人工智慧可以與安全人工智慧協同工作,確保變更不會留下漏洞。人工智慧驅動的業務分析可能會與安全人工智慧共享數據,以關聯異常情況(例如,銷售額的突然下降與攻擊導致的網站問題)。本質上,人工智慧不會孤立存在——它將成為一個組織運作的更大智慧結構的一部分。這為整體風險管理創造了機會,其中營運數據、威脅數據甚至實體安全數據可以透過人工智慧整合,從而提供組織安全態勢的360度視圖。
從長遠來看,我們希望生成式人工智慧能夠幫助防禦者佔據優勢。透過處理現代IT環境的規模和複雜性,人工智慧可以使網路空間更具防禦性。然而,這是一個漫長的過程,隨著我們不斷改進這些技術並學會適當地信任它們,我們將會經歷成長的陣痛。那些時刻保持知情並投資於負責任的人工智慧安全應用的組織,很可能最有能力應對未來的威脅。
正如Gartner最近的網路安全趨勢報告所指出的, 「生成式人工智慧用例(及風險)的出現正在為轉型帶來壓力」 ( 《網路安全趨勢:轉型中的韌性—Gartner 》)。那些適應者將利用人工智慧作為強大的盟友;那些落後者則可能被人工智慧賦能的對手超越。未來幾年將是定義人工智慧如何重塑網路戰場的關鍵時期。
在網路安全中採用生成式人工智慧的實用要點
對於評估如何在其網路安全策略中利用生成式人工智慧的企業,以下是一些實用的要點和建議,以指導負責任和有效地採用:
-
從教育和培訓入手:確保您的安全團隊(以及更廣泛的IT員工)了解生成式AI的能做什麼和不能做什麼。提供AI驅動安全工具基礎知識的培訓,並更新安全意識計劃,以應對AI帶來的威脅。例如,教導員工如何利用AI產生極具說服力的網路釣魚詐騙和深度偽造電話。同時,培訓員工如何在工作中安全且合法地使用AI工具。資訊充分的使用者不太可能誤操作AI或成為AI增強型攻擊的受害者(生成式AI如何應用於網路安全?10個真實案例)。
-
定義清晰的人工智慧使用政策:像對待任何強大的技術一樣,對生成式人工智慧進行治理。制定政策,明確誰可以使用人工智慧工具、哪些工具獲得批准以及用於何種用途。並納入敏感資料處理指南(例如,不得將機密資料輸入外部人工智慧服務),以防止外洩。例如,您可能只允許安全團隊成員使用內部人工智慧助理進行事件回應,行銷部門可以使用經過審查的人工智慧進行內容處理——其他所有人都受到限制。許多組織現在在其IT政策中明確提及生成式人工智慧,領先的標準機構也鼓勵安全使用政策,而不是徹底禁止(《生成式人工智慧如何應用於網路安全?10個真實案例》)。務必將這些規則及其背後的原則傳達給所有員工。
-
緩解「影子人工智慧」並監控使用情況:與影子IT類似,「影子人工智慧」是指員工在IT不知情的情況下開始使用人工智慧工具或服務(例如,開發人員使用未經授權的人工智慧程式碼助理)。這可能會帶來看不見的風險。採取措施偵測和控制未經批准的人工智慧使用情況。網路監控可以標記與流行人工智慧API的連接,調查或工具審計可以發現員工正在使用哪些工具。提供經批准的替代方案,以免員工受到誘惑而擅自使用(例如,如果人們覺得有用,可以提供官方的ChatGPT Enterprise帳戶)。透過公開人工智慧的使用情況,安全團隊可以評估和管理風險。監控也至關重要——盡可能記錄人工智慧工具的活動和輸出,以便對受人工智慧影響的決策進行審計追蹤(生成式人工智慧如何應用於網路安全?10個真實案例)。
-
利用人工智慧進行防禦-不甘落後:認知到攻擊者會使用人工智慧,你的防禦體係也應該如此。確定一些高影響力領域,在這些領域中,生成式人工智慧可以立即協助你的安全營運(例如警報分類或自動日誌分析),並運行試點專案。利用人工智慧的速度和規模來增強你的防禦能力,以應對快速變化的威脅(生成式人工智慧如何應用於網路安全?10 個真實案例)。即使是簡單的集成,例如使用人工智慧匯總惡意軟體報告或生成威脅搜尋查詢,也可以節省分析師的時間。從小處著手,評估結果並不斷迭代。成功將為更廣泛地採用人工智慧奠定基礎。目標是將人工智慧用作力量倍增器——例如,如果網路釣魚攻擊讓你的幫助台不堪重負,可以部署一個人工智慧電子郵件分類器來主動減少攻擊數量。
-
投資安全且合乎道德的人工智慧實踐:在實施生成式人工智慧時,請遵循安全的開發和部署實踐。對於敏感任務,請使用私有或自架模型來保留對資料的控制。如果使用第三方人工智慧服務,請審查其安全和隱私措施(加密、資料保留策略等)。整合人工智慧風險管理框架(例如 NIST 的人工智慧風險管理框架或 ISO/IEC 指南),系統地解決人工智慧工具中的偏見、可解釋性和穩健性等問題(生成式人工智慧如何應用於網路安全?10 個真實案例)。此外,還要規劃模型更新/修補程式作為維護的一部分——人工智慧模型也可能存在「漏洞」(例如,如果它們開始出現偏差或發現針對模型的新型對抗性攻擊,它們可能需要重新訓練)。將安全性和道德性融入人工智慧的使用中,您可以建立對結果的信任,並確保遵守新興法規。
-
讓人類參與其中:在網路安全領域,使用人工智慧輔助而非完全取代人類判斷。確定需要手動驗證的決策點(例如,人工智慧可能起草事故報告,但分析師在分發前會對其進行審核;或者人工智慧可能建議封鎖使用者帳戶,但人類會批准該作業)。這不僅可以防止人工智慧錯誤被忽略,還能幫助您的團隊向人工智慧學習,反之亦然。鼓勵協作式工作流程:分析師應該能夠自如地質疑人工智慧的輸出並進行健全性檢查。隨著時間的推移,這種對話可以提升人工智慧(透過回饋)和分析師的技能。本質上,設計您的流程時,應使人工智慧和人類的優勢相輔相成——人工智慧負責處理數量和速度問題,人類負責處理模糊性和最終決策。
-
衡量、監控和調整:最後,將您的生成式人工智慧工具視為安全生態系統的活躍組件。持續衡量其效能-它們是否縮短了事件回應時間?是否更早發現威脅?誤報率趨勢如何?徵求團隊的回饋意見:人工智慧的建議是否有用,還是會產生幹擾?使用這些指標來優化模型、更新訓練資料或調整人工智慧的整合方式。網路威脅和業務需求不斷發展,您的人工智慧模型應該定期更新或重新訓練,以保持其有效性。制定模型治理計劃,包括由誰負責維護以及審查頻率。透過積極管理人工智慧的生命週期,您可以確保它始終是一項資產,而不是負擔。
總而言之,生成式人工智慧可以顯著提升網路安全能力,但成功應用需要周詳的規劃和持續的監督。企業如果能夠對員工進行培訓、制定清晰的指導方針,並以平衡、安全的方式整合人工智慧,就能獲得更快、更聰明的威脅管理。這些經驗為我們提供了一個發展路線圖:將人類的專業知識與人工智慧自動化相結合,涵蓋治理的基礎知識,並在人工智慧技術和威脅情況不斷發展變化的過程中保持敏捷性。
「生成式人工智慧如何應用於網路安全?」這個問題——不僅在理論上,而且在日常實踐中——從而在我們日益數位化和人工智慧驅動的世界中加強防禦。 (生成式人工智慧如何應用於網路安全)
您可能想閱讀以下白皮書:
🔗哪些工作是人工智慧無法取代的,哪些工作會被人工智慧取代?
探索全球視野,看看哪些工作可以免受自動化的影響,哪些工作則不然。
🔗人工智慧能預測股市嗎?
深入探討人工智慧預測市場走勢的限制、突破與迷思。
🔗在沒有人工幹預的情況下,生成式人工智慧可以做什麼?
了解人工智慧在哪些方面可以獨立運行,以及哪些方面仍需要手動監督。