網路安全專家利用生成式人工智慧工具分析威脅。.

生成式人工智慧如何在網路安全領域應用?

介紹

生成式人工智慧(Generationative AI)——能夠創造新內容或進行預測的人工智慧系統——正成為網路安全領域的一股變革力量。諸如 OpenAI 的 GPT-4 等工具已展現出分析複雜數據並生成類人文本的能力,從而為防禦網絡威脅開闢了新的途徑。各行各業的網路安全專家和業務決策者都在探索如何利用生成式人工智慧來加強防禦,抵禦不斷演變的攻擊。從金融、醫療保健到零售和政府部門,各行各業的組織都面臨著複雜的網路釣魚攻擊、惡意軟體和其他威脅,而生成式人工智慧或許能夠幫助應對這些威脅。在本白皮書中,我們將探討生成式人工智慧在網路安全領域的應用,重點介紹其在現實世界中的應用、未來的發展前景以及採用時需要考慮的重要因素。

生成式人工智慧與傳統分析型人工智慧的差異在於,它不僅能夠偵測模式,還能產生內容——無論是模擬攻擊以訓練防禦系統,還是為複雜的安全資料產生自然語言解釋。這種雙重能力使其成為一把雙面刃:它提供了強大的新型防禦工具,但攻擊者也可能利用它。以下章節將探討生成式人工智慧在網路安全領域的廣泛應用案例,從自動化網路釣魚偵測到增強事件回應。我們還將討論這些人工智慧創新帶來的益處,以及企業必須應對的風險(例如人工智慧「幻覺」或對抗性濫用)。最後,我們將提供一些實用建議,幫助企業評估生成式人工智慧並將其負責任地整合到網路安全策略中。

網路安全中的生成式人工智慧:概述

網路安全領域的生成式人工智慧指的是能夠產生洞察、建議、程式碼,甚至是合成資料的AI模型——通常是大型語言模型或其他神經網路——以輔助安全任務。與純粹的預測模型不同,生成式人工智慧可以模擬各種場景,並基於其訓練資料產生人類可讀的輸出(例如報告、警報,甚至是惡意程式碼樣本)。這種能力正被用於以比以往更加動態的方式預測、檢測和應對什麼是網路安全領域的生成式人工智慧? - Palo Alto Networks )。例如,生成式模型可以分析海量日誌或威脅情報庫,並產生簡潔的摘要或建議的操作,幾乎就像是安全團隊的AI「助手」。

早期將生成式人工智慧應用於網路防禦已展現出巨大潛力。 2023年,微軟推出了基於GPT-4的安全分析助理Security Copilot 微軟Security Copilot是一款面向網路安全的全新GPT-4人工智慧助理 | The Verge )。分析人員可以使用自然語言向該系統發出指令(例如「總結過去24小時內的所有安全事件」 ),Security Copilot將產生一份有用的敘述性摘要。同樣,Google的威脅情報人工智慧Gemini生成式模型,透過谷歌龐大的威脅情報資料庫實現對話式搜索,快速分析可疑程式碼並總結結果,以幫助惡意軟體獵人(生成式人工智慧如何在網路安全領域應用?10個真實案例)。這些案例顯示了其潛力:生成式人工智慧能夠處理複雜的大規模網路安全數據,並以易於理解的形式呈現分析結果,從而加速決策過程。

同時,生成式人工智慧能夠創造高度逼真的虛假內容,這對於模擬和訓練來說是一大福音(但不幸的是,對於攻擊者進行社會工程攻擊也是如此)。隨著我們深入探討具體應用案例,我們將看到生成式人工智慧合成分析資訊的能力是其眾多網路安全應用的基礎。以下將深入探討關鍵應用案例,涵蓋從網路釣魚預防到安全軟體開發等各個方面,並舉例說明它們在各行業的應用情況。

生成式人工智慧在網路安全領域的關鍵應用

圖:生成式人工智慧在網路安全中的關鍵用例包括安全團隊的人工智慧副駕駛、程式碼漏洞分析、自適應威脅偵測、零時差攻擊模擬、增強生物辨識安全和網路釣魚偵測( 6 個生成式人工智慧在網路安全中的用例 [+ 範例] )。

網路釣魚偵測與預防

網路釣魚仍然是最普遍的網路威脅之一,它誘騙用戶點擊惡意連結或洩漏憑證。生成式人工智慧 (AI) 正被部署用於偵測網路釣魚攻擊並加強用戶培訓,以預防攻擊成功。在防禦方面,AI 模型可以分析電子郵件內容和寄件者行為,從而發現基於規則的過濾器可能遺漏的細微網路釣魚跡象。透過學習大量合法電子郵件和詐欺電子郵件的資料集,生成式模型可以標記語氣、措辭或上下文中的異常情況,這些異常情況表明存在詐騙——即使語法和拼字不再能提供線索。事實上,Palo Alto Networks 的研究人員指出,生成式 AI 可以識別“可能被忽略的網絡釣魚電子郵件的細微跡象”,幫助組織始終領先於詐騙者一步(什麼是網絡安全中的生成式 AI? - Palo Alto Networks )。

安全團隊也在利用生成式人工智慧來模擬網路釣魚攻擊,以進行訓練和分析。例如,Ironscales 推出了一款基於 GPT 的網路釣魚模擬工具,它可以自動產生針對企業員工客製化的假釣魚郵件(《如何將生成式人工智慧應用於網路安全?10 個真實案例》)。這些由人工智慧產生的郵件反映了攻擊者最新的策略,使員工能夠獲得識別釣魚內容的真實練習機會。這種個人化訓練至關重要,因為攻擊者本身也在利用人工智慧來創造更具說服力的誘餌。值得注意的是,雖然生成式人工智慧可以產生非常精良的釣魚郵件(過去那種容易被識破的蹩腳英語已經不復存在),但防禦者發現人工智慧並非無懈可擊。 2024 年,IBM 安全研究人員進行了一項實驗,比較了人工撰寫的釣魚郵件和人工智慧生成的釣魚郵件, 「令人驚訝的是,儘管人工智慧生成的郵件語法正確,但仍然很容易被識別出來」《網路安全中生成式人工智慧的 6 個用例 [+ 範例] 》)。這表明,人類直覺與人工智慧輔助檢測相結合,仍然可以識別人工智慧編寫的詐騙郵件中的細微不一致之處或元資料訊號。

生成式人工智慧還能以其他方式輔助網路釣魚防禦。模型可用於產生自動回覆或篩選器,以測試可疑電子郵件。例如,人工智慧系統可以回覆包含特定查詢的電子郵件,以驗證寄件者的合法性;或使用邏輯層級模型 (LLM) 在沙箱環境中分析電子郵件的連結和附件,然後總結任何惡意意圖。 NVIDIA 的安全平台Morpheus展示了人工智慧在該領域的強大功能——它使用生成式自然語言處理 (NLP) 模型快速分析和分類電子郵件,並且與傳統安全工具相比,21% 參見《網絡安全領域生成式人工智能的 6 個用例及示例》人工智慧)。 Morpheus 甚至可以分析使用者通訊模式,以偵測異常行為(例如使用者突然向大量外部位址發送電子郵件),這可能表示某個帳戶已被盜用並正在發送網路釣魚郵件。

在實務中,各行各業的公司都開始信賴人工智慧(AI)來過濾電子郵件和網路流量,防範社交工程攻擊。例如,金融公司利用生成式人工智慧掃描通訊內容,識別可能導致電信詐騙的冒充行為;而醫療機構則部署人工智慧來保護病患資料免受網路釣魚攻擊。透過產生逼真的網路釣魚場景並識別惡意訊息的特徵,生成式人工智慧為網路釣魚防範策略增添了強大的保障。由此可見,即使攻擊者也在利用同樣的技術不斷提升攻擊手段,人工智慧仍能更快、更準確地幫助偵測和防禦網路釣魚攻擊

惡意軟體偵測與威脅分析

現代惡意軟體不斷演變-攻擊者會產生新的變種或混淆程式碼以繞過防毒特徵碼。生成式人工智慧為偵測惡意軟體和理解其行為提供了新的技術。一種方法是利用人工智慧產生惡意軟體的「邪惡雙胞胎」 :安全研究人員可以將已知的惡意軟體樣本輸入生成模型,從而創建該惡意軟體的多個變異變種。透過這種方式,他們能夠有效地預測攻擊者可能進行的修改。這些人工智慧產生的變種隨後可用於訓練防毒和入侵偵測系統,以便即使是經過修改的惡意軟體版本也能在實際環境中被識別(網路安全領域生成式人工智慧的 6 個用例 [+ 範例] )。這種主動策略有助於打破駭客透過輕微修改惡意軟體來逃避偵測,而防禦者每次都必須匆忙編寫新特徵碼的惡性循環。正如某個行業播客中提到的,安全專家現在使用生成式人工智慧來“模擬網路流量並生成模仿複雜攻擊的惡意載荷”,從而對整個威脅家族而非單一實例進行壓力測試,以檢驗其防禦能力。這種自適應威脅偵測意味著安全工具能夠更好地抵禦原本會漏網的多態惡意軟體。

除了偵測之外,生成式人工智慧還能輔助惡意軟體分析和逆向工程,這些工作傳統上都是威脅分析師耗費大量人力的任務。大型語言模型可以用於檢查可疑程式碼或腳本,並用簡單易懂的語言解釋程式碼的意圖。一個實際的例子是Code Insight功能,它利用生成式人工智慧模型(Google的 Sec-PaLM)產生潛在惡意程式碼的自然語言摘要(《如何在網路安全中使用生成式人工智慧?10 個真實案例》)。它本質上是“一種專門用於安全編碼的 ChatGPT”,充當全天候工作的 AI 惡意軟體分析師,幫助人類分析師理解威脅( 《網路安全中生成式人工智慧的 6 個用例 [+ 範例] 》)。安全團隊成員無需費力研究陌生的腳本或二進位代碼,即可立即從人工智能獲得解釋——例如, “此腳本嘗試從 XYZ 伺服器下載文件,然後修改系統設置,這表明存在惡意軟體行為。”這極大地加快了事件響應速度,因為分析人員可以比以往任何時候都更快地對新型惡意軟體進行分類和理解。

生成式人工智慧也被用於從海量資料集中精準識別惡意軟體。傳統的防毒引擎會掃描檔案以尋找已知的特徵碼,而生成式模型則可以評估檔案的特徵,甚至基於學習到的模式預測其是否惡意。透過分析數十億個檔案(包括惡意檔案和良性檔案)的屬性,人工智慧可以在沒有明確特徵碼的情況下捕捉到惡意意圖。例如,即使二進位檔案是新的,生成式模型也可以將其標記為可疑,因為它的行為特徵「看起來」像是訓練期間遇到的勒索軟體的略微變體。這種基於行為的檢測有助於對抗新型或零時差惡意軟體。據報道,Google的威脅情報人工智慧(隸屬於 Chronicle/Mandiant)使用其生成式模型來分析潛在的惡意程式碼,並「更有效率、更有效地協助安全專業人員對抗惡意軟體和其他類型的威脅」。 (《如何將生成式人工智慧應用於網路安全?10 個真實案例》)

另一方面,我們也必須承認攻擊者同樣可以利用生成式人工智慧來自動創建能夠自我適應的惡意軟體。事實上,安全專家警告稱,生成式人工智慧可以幫助網路犯罪分子開發更難檢測的惡意軟體( 《網路安全中的生成式人工智慧是什麼?》- Palo Alto Networks )。人工智慧模型可以被指示反覆修改惡意軟體(例如改變其檔案結構、加密方法等),直到它能夠繞過所有已知的防毒偵測。這種對抗性用途正日益令人擔憂(有時被稱為「人工智慧驅動的惡意軟體」或「多態惡意軟體即服務」)。我們將在後面討論這些風險,但這凸顯了生成式人工智慧是防禦者和攻擊者在這場貓鼠遊戲中都會用到的工具。

總體而言,生成式人工智慧透過讓安全團隊能夠像攻擊者一樣思考——在內部產生新的威脅和解決方案——從而增強惡意軟體防禦能力。無論是產生合成惡意軟體以提高偵測率,還是利用人工智慧來解釋和遏制網路中發現的真實惡意軟體,這些技術都適用於各個行業。例如,銀行可以使用人工智慧驅動的惡意軟體分析來快速分析電子表格中的可疑宏,而製造業企業則可以依靠人工智慧來檢測針對工業控制系統的惡意軟體。透過將生成式人工智慧與傳統的惡意軟體分析結合,企業可以比以往更快、更主動地應對惡意軟體攻擊。

威脅情報與自動化分析

每天,企業都會被大量的威脅情報數據所淹沒——從新發現的入侵指標 (IOC) 到分析師關於新興駭客策略的報告。安全團隊面臨的挑戰是如何從這些海量資訊中篩選出可操作的洞察。生成式人工智慧在自動化威脅情報分析和利用方面。分析師無需手動閱讀數十份報告或資料庫條目,即可利用人工智慧以機器速度對威脅情報進行總結和背景分析。

一個具體的例子是Google的威脅情報套件,它將生成式人工智慧(Gemini 模型)與Google從 Mandiant 和 VirusTotal 獲得的海量威脅資料結合。該人工智慧提供「在Google龐大的威脅情報庫中進行對話式搜尋」的功能,使用戶能夠提出關於威脅的自然問題並獲得精簡的答案(生成式人工智慧如何在網路安全中應用?10 個真實案例)。例如,分析師可以問: 「我們是否發現任何與威脅組織 X 相關的、針對我們行業的惡意軟體?」人工智慧會提取相關情報,並可能指出「是的,威脅組織 X 上個月使用惡意軟體 Y 發起了一場網路釣魚活動」 ,以及該惡意軟體行為的摘要。這大大縮短了收集資訊所需的時間,否則需要查詢多個工具或閱讀冗長的報告。

生成式人工智慧還可以關聯和總結威脅趨勢。它可以梳理成千上萬篇安全部落格文章、洩漏新聞和暗網討論,然後產生一份「本週主要網路威脅」的概要,供首席資訊安全官 (CISO) 報告。傳統上,這種程度的分析和報告需要耗費大量人力;現在,一個經過精心調校的模型可以在幾秒鐘內產生概要,人工只需對輸出結果進行潤色即可。像 ZeroFox 這樣的公司開發了FoxGPT ,這是一款專門用於「加速分析和總結大型資料集(包括惡意內容和網路釣魚資料)的情報」的生成式人工智慧工具(《如何在網路安全中使用生成式人工智慧?10 個真實案例》)。透過自動化讀取和交叉引用數據的繁重工作,人工智慧使威脅情報團隊能夠專注於決策和回應。

另一個應用場景是對話式威脅狩獵。想像一下,一位安全分析師與人工智慧助理互動: 「請告訴我過去 48 小時內是否有任何資料外洩的跡象」「攻擊者本周正在利用哪些主要的新漏洞?」人工智慧可以解讀查詢,搜尋內部日誌或外部情報來源,並給出清晰的答案,甚至提供相關事件清單。這並非天方夜譚——現代安全資訊與事件管理 (SIEM) 系統正開始整合自然語言查詢功能。例如,IBM 的 QRadar 安全套件計劃在 2024 年添加生成式人工智慧功能,使分析師能夠事件的攻擊路徑概要提出具體問題」 自動「解讀和總結高度相關的威脅情報」 如何在網路安全中使用生成式人工智慧?10 個真實案例》)。本質上,生成式人工智慧能夠按需將海量技術數據轉化為便於交流的洞察資訊。

這在各行各業都具有重大意義。醫療機構可以利用人工智慧隨時掌握針對醫院的最新勒索軟體組織動態,而無需安排分析師進行全職研究。零售公司的安全營運中心 (SOC) 可以在向門市 IT 人員報告時快速總結最新的 POS 機惡意軟體攻擊策略。在政府部門,由於需要整合來自各個機構的威脅數據,人工智慧可以產生統一的報告,突出顯示關鍵警告。透過自動化威脅情報的收集和解讀,生成式人工智慧可以幫助組織更快地應對新出現的威脅,並降低錯過隱藏在大量資訊中的關鍵警告的風險。

安全營運中心 (SOC) 優化

安全營運中心 (SOC) 因警報疲勞和大量資料而臭名昭著。典型的 SOC 分析師每天可能要處理成千上萬個警報和事件,調查潛在的安全事件。生成式人工智慧 (AI) 透過自動化日常工作、提供智慧摘要,甚至協調部分回應,在 SOC 中發揮倍增器的作用。其目標是優化 SOC 工作流程,使分析師能夠專注於最關鍵的問題,而其餘工作則由 AI 副駕駛處理。.

生成式人工智慧的一項重要應用是將其用作「分析師的副駕駛」 。前文提到的微軟安全副駕駛(Security Copilot)是一個很好的例子:它“旨在輔助安全分析師的工作,而非取代他們”,幫助進行事件調查和報告(微軟安全副駕駛是一款面向網絡安全的新型 GPT-4 人工智能助手 | The Verge )。在實踐中,這意味著分析師可以輸入原始資料——例如防火牆日誌、事件時間軸或事件描述——並要求人工智慧進行分析或總結。副駕駛可能會輸出類似這樣的敘述: 「凌晨 2:35,來自 IP 位址 X 的可疑登入成功,隨後出現了異常資料傳輸,表明該伺服器可能遭到入侵。」這種即時上下文資訊在時間緊迫的情況下至關重要。

AI 輔助系統也能幫助減輕一級警報處理的壓力。根據業界數據顯示,一個安全團隊每週可能要花費 15 個小時來處理約 22,000 條警報和誤報( 《網路安全領域生成式 AI 的 6 個應用案例 [+ 範例] 》)。借助生成式 AI,許多此類警報可以自動進行分類——AI 可以忽略那些明顯無害的警報(並給出理由),並突出顯示真正需要關注的警報,有時甚至會建議優先順序。事實上,生成式 AI 在理解上下文方面的優勢意味著它可以將看似無害的警報進行交叉關聯,這些警報組合在一起可能表明存在多階段攻擊。這降低了因「警報疲勞」而漏掉攻擊的可能性。

安全營運中心 (SOC) 分析師也正在利用自然語言和人工智慧來加速威脅搜尋和調查。例如,SentinelOne 的Purple AI平台將基於語言學習模型 (LLM) 的介面與即時安全資料相結合,使分析師能夠「用簡單的英語提出複雜的威脅搜尋問題,並獲得快速準確的答案」 (《如何將生成式人工智慧應用於網路安全?10 個真實案例》)。分析師可以輸入“過去一個月內是否有任何端點與域名 badguy123[.]com 通信?” ,Purple AI 將搜尋日誌並給出答案。這使分析師無需編寫資料庫查詢或腳本——人工智慧會在後台自動完成這些工作。這也意味著初級分析師可以處理以前需要經驗豐富的、精通查詢語言的工程師才能完成的任務,從而有效地透過人工智慧輔助提升團隊技能。事實上,分析師報告稱,生成式人工智慧指導「提高了他們的技能和熟練程度」 ,因為初級員工現在可以從人工智慧獲得按需編碼支援或分析技巧,從而減少了總是向高級團隊成員尋求幫助的依賴(網路安全中生成式人工智慧的 6 個用例[+ 範例] )。

安全營運中心 (SOC) 的另一項最佳化是自動化事件摘要和文件產生。事件處理完畢後,必須有人撰寫報告──這項工作對許多人來說都很繁瑣。生成式人工智慧 (AI) 可以利用取證資料(系統日誌、惡意軟體分析、操作時間軸)產生事件來報告初稿。 IBM 正在將此功能整合到 QRadar 中,只需「點擊」即可為不同的利害關係人(高階主管、IT 團隊等)產生事件摘要(生成式人工智慧如何在網路安全領域應用?10 個真實案例)。這不僅節省了時間,而且由於 AI 可以一致地包含所有相關細節,因此可以確保報告中不會遺漏任何內容。同樣,對於合規性和審計,AI 可以根據事件資料自動填寫表格或證據表。

實際應用效果令人信服。 Swimlane 的 AI 驅動型 SOAR(安全編排、自動化和響應)的早期採用者報告稱,生產力大幅提升——例如,Global Data Systems 的安全運營團隊 (SecOps) 處理的工作量顯著增加;一位主管表示, AI 驅動的自動化,我今天只需 7 位分析師就能完成的工作可能需要 20 位員工才能完成 20 位員工網絡網絡安全領域 AI 如何應用 20 位員工。換句話說,營運中心 (SOC) 中使用 AI 可以倍增處理能力。無論是處理雲端安全警報的科技公司,還是監控 OT 系統的製造工廠,各行各業的 SOC 團隊都可以透過採用生成式 AI 助手,實現更快的檢測和響應速度、更少的漏報事件以及更有效率的營運。關鍵在於更聰明地工作——讓機器處理重複性和資料密集型任務,從而使人類能夠將他們的直覺和專業知識運用到最關鍵的領域。

漏洞管理和威脅模擬

識別和管理漏洞——即攻擊者可能利用的軟體或系統缺陷——是網路安全的核心職能。生成式人工智慧透過加速漏洞發現、輔助確定修補程式優先級,甚至模擬針對這些漏洞的攻擊來增強漏洞管理,從而提高防禦能力。本質上,人工智慧正在幫助組織更快地發現並修復其防禦體系中的漏洞,並在真正的攻擊者到來之前主動

生成式人工智慧的一項重要應用是將其用於自動化程式碼審查和漏洞發現。大型程式碼庫(尤其是遺留系統)通常隱藏著許多不易察覺的安全漏洞。生成式人工智慧模型可以基於安全編碼實踐和常見錯誤模式進行訓練,然後應用於原始程式碼或編譯後的二進位文件,以發現潛在的漏洞。例如,NVIDIA 的研究人員開發了一種生成式人工智慧管線,可分析遺留軟體容器並識別漏洞, 「準確率極高—比人類專家快 4 倍」。《網路安全領域生成式人工智慧的 6 個用例 [+ 範例] 》)。該人工智慧能夠學習不安全程式碼的特徵,並掃描數十年前的軟體,標記出存在風險的函數和函式庫,從而大大加快了通常緩慢的人工程式碼審計過程。對於依賴大型老舊程式碼庫的產業(例如金融或政府部門),這種工具可以帶來顛覆性的變革——人工智慧能夠挖掘出工作人員可能需要數月甚至數年才能發現的問題,從而幫助實現安全現代化。

透過處理漏洞掃描結果並確定優先順序來輔助漏洞管​​理工作流程ExposureAI就利用生成式人工智慧,讓分析師能夠用簡單的語言查詢漏洞資料並立即獲得答案(生成式人工智慧如何在網路安全領域應用?10 個真實案例)。 ExposureAI 可以「以敘述的形式總結完整的攻擊路徑」 ,解釋攻擊者如何將其與其他漏洞結合起來以入侵系統。它甚至會推薦修復措施並回答有關風險的後續問題。這意味著,當一個新的關鍵 CVE(通用漏洞揭露)發佈時,分析師可以向人工智慧詢問: 「我們的伺服器是否受到此 CVE 的影響?如果我們不打補丁,最壞的情況是什麼?」並獲得基於組織自身掃描資料的清晰評估。透過對漏洞進行情境化處理(例如,這個漏洞暴露在互聯網上,並且位於高價值伺服器上,因此它是首要任務),生成式人工智慧可以幫助團隊在資源有限的情況下智慧地進行修補。

除了發現和管理已知漏洞外,生成式人工智慧還能幫助滲透測試和攻擊模擬——本質上是發現未知漏洞或測試安全控制措施。生成對抗網路(GAN)是一種生成式人工智慧,已被用於創建模擬真實網路流量或用戶行為的合成數據,其中可能包含隱藏的攻擊模式。 2023 年的一項研究建議使用 GAN 產生逼真的零日攻擊流量來訓練入侵偵測系統( 《網路安全中生成式人工智慧的 6 個用例 [+ 範例] 》)。透過向入侵偵測系統輸入人工智慧產生的攻擊場景(這些場景不會在生產網路中使用實際惡意軟體),企業可以訓練其防禦系統識別新型威脅,而無需等到實際遭受攻擊。同樣,人工智慧可以模擬攻擊者探測系統——例如,在安全的環境中自動嘗試各種攻擊技術,以查看是否有任何技術能夠成功。美國國防高級研究計劃局 (DARPA) 對此充滿信心:其 2023 年人工智慧網路挑戰賽明確採用生成式人工智慧(例如大型語言模型)來“自動查找並修復開源軟體中的漏洞”,作為一項競賽的一部分( DARPA 旨在開發值得信賴的人工智慧和自主應用 > 美國國防部 > 國防部新聞)。這項措施強調,人工智慧不僅有助於修補已知漏洞,還能積極發現新漏洞並提出修復方案,而這項任務傳統上僅限於技術嫻熟(且成本高昂)的安全研究人員。

生成式人工智慧甚至可以創建智慧蜜罐和數位孿生用於防禦。新創公司正在開發人工智慧驅動的誘餌系統,這些系統能夠逼真地模擬真實的伺服器或設備。正如一位執行長所解釋的那樣,生成式人工智慧可以「複製數位系統來模仿真實系統,並引誘駭客」《網路安全領域生成式人工智慧的6個應用案例[及範例] 》)。這些人工智慧產生的蜜罐的行為與真實環境(例如,發送正常遙測資料的虛假物聯網設備)類似,但其存在的唯一目的是吸引攻擊者。當攻擊者攻擊誘餌時,人工智慧實際上已經誘使他們暴露了攻擊方法,防禦者隨後可以研究這些資訊並用於加強真實系統。這個由生成式建模驅動的概念,提供了一種前瞻性的方法,利用人工智慧增強的欺騙手段來扭轉局勢,對抗攻擊者。

在各行各業,更快、更智慧的漏洞管理意味著更少的安全漏洞。例如,在醫療保健IT領域,人工智慧可以快速發現醫療設備中存在漏洞的過時庫,並在攻擊者利用漏洞之前提示進行韌體修復。在銀行業,人工智慧可以模擬針對新應用程式的內部攻擊,以確保客戶資料在任何情況下都安全無虞。因此,生成式人工智慧既是組織安全態勢的顯微鏡,也是壓力測試儀:它能揭示隱藏的缺陷,並以創意的方式對系統施加壓力,從而確保系統的韌性。.

安全代碼產生和軟體開發

生成式人工智慧的優勢不僅限於偵測攻擊,還能從一開始就建構更安全的系統。在軟體開發中,人工智慧程式碼產生器(例如 GitHub Copilot、OpenAI Codex 等)可以透過建議程式碼片段甚至整個函數來幫助開發人員更快地編寫程式碼。網路安全方面則著重於確保這些人工智慧建議的程式碼片段的安全性,並利用人工智慧來改善編碼實踐。

一方面,生成式人工智慧可以作為編碼助手,嵌入安全最佳實踐。開發者可以向人工智慧工具發出「用Python產生一個密碼重設函數」的,理想情況下,它傳回的程式碼不僅功能完善,而且遵循安全準則(例如,正確的輸入驗證、日誌記錄、不洩漏資訊的錯誤處理等)。這種經過大量安全程式碼範例訓練的助手可以幫助減少人為錯誤,從而降低安全漏洞的風險。例如,如果開發者忘記對使用者輸入進行清理(這可能導致SQL注入或其他類似問題),人工智慧可以預設執行清理操作,或發出警告。一些人工智慧編碼工具目前正在使用安全相關的數據進行微調,以服務於此目的——本質上,就是具有安全意識的人工智慧結對程式設計

然而,凡事皆有兩面性:如果監管不當,生成式人工智慧同樣容易引入安全漏洞。正如 Sophos 安全專家 Ben Verschaeren 指出的那樣,使用生成式人工智慧進行編碼「對於簡短、可驗證的程式碼來說沒問題,但如果未經檢查的程式碼被整合到生產系統中,則風險極大」。風險在於,人工智慧可能會產生邏輯上正確的程式碼,但其中存在的安全漏洞非專業人士可能難以察覺。此外,惡意行為者可以透過向公共人工智慧模型中植入易受攻擊的程式碼模式(一種資料投毒)來故意影響它們,從而使人工智慧建議不安全的程式碼。大多數開發人員並非安全專家,因此,如果人工智慧建議了一個便捷的解決方案,他們可能會盲目使用,而沒有意識到其中存在缺陷(網路安全領域生成式人工智慧的 6 個用例 [+ 範例] )。這種擔憂並非空穴來風——事實上,OWASP 現在已發布一份針對大型語言模型 (LLM) 的十大安全風險列表,其中列出了使用人工智慧進行編碼時常見的此類風險。

為了因應這些問題,專家建議在編碼領域「以生成式人工智慧對抗生成式人工智慧」 審查和測試其他人工智慧(或人類)編寫的程式碼。人工智慧掃描新提交的程式碼速度遠超過人類程式碼審查員,並能標記出潛在的漏洞或邏輯問題。我們已經看到一些工具正在湧現,它們整合到軟體開發生命週期中:程式碼編寫完成(可能藉助人工智慧),然後一個基於安全程式碼原則訓練的生成模型對其進行審查,並產生一份包含所有問題的報告(例如,使用已棄用的函數、缺少身份驗證檢查等)。前面提到的英偉達的研究實現了程式碼漏洞偵測速度提升4倍,這正是利用人工智慧進行安全程式碼分析的一個例子(網路安全領域生成式人工智慧的6個用例[+範例] )。

此外,生成式人工智慧可以輔助建立安全的配置和腳本。例如,如果一家公司需要部署安全的雲端基礎設施,工程師可以請求人工智慧產生設定腳本(基礎設施即程式碼),其中內建了安全控制措施(例如適當的網路分段、最小權限身分和存取管理角色)。人工智慧已經過數千個此類配置的訓練,可以產生一個基準配置,然後由工程師進行微調。這可以加快系統的安全設置,並減少配置錯誤——配置錯誤是雲端安全事件的常見來源。

一些組織也正在利用生成式人工智慧來維護安全編碼模式的知識庫。如果開發人員不確定如何安全地實現某個功能,他們可以查詢公司內部的人工智慧系統,該系統已從公司過去的專案和安全準則中學習。人工智慧系統可能會返回一個推薦的方法,甚至是一個符合功能需求和公司安全標準的程式碼片段。 Secureframe的問卷自動化,它會從公司的政策和以往的解決方案中提取答案,以確保回應的一致性和準確性(本質上是生成安全文件)(生成式人工智慧如何在網路安全中使用?10 個真實案例)。這個概念可以應用在程式設計領域:人工智慧系統「記住」你之前是如何安全地實現某個功能的,並引導你再次以同樣的方式實現。

總而言之,生成式人工智慧正透過讓安全編碼輔助更方便地。那些開發大量客製化軟體的產業——例如科技、金融、國防等——將從人工智慧助理中受益匪淺。這些助手不僅能加快編碼速度,還能隨時保持警惕,進行安全審查。如果管理得當,這些人工智慧工具可以減少新漏洞的引入,並幫助開發團隊遵循最佳實踐,即使團隊並非在每個環節都有安全專家參與。最終,軟體從一開始就能更有效地抵禦攻擊。

事件響應支持

當網路安全事件發生時——無論是惡意軟體爆發、資料外洩還是攻擊導致的系統中斷——時間至關重要。生成式人工智慧正被越來越多地用於支援事件回應 (IR) 團隊,幫助他們更快地控制和修復事件,並掌握更多資訊。其理念是,人工智慧可以分擔事件發生期間的部分調查和文件記錄工作,甚至可以建議或自動執行一些回應措施。

人工智慧在事件回應 (IR) 中的一個關鍵作用是即時事件分析和總結。在事件發生過程中,回應人員可能需要回答諸如「攻擊者是如何入侵的?」「哪些系統受到影響?」以及「哪些資料可能已洩露?」。生成式人工智慧可以分析來自受影響系統的日誌、警報和取證數據,並快速提供洞察。例如,Microsoft Security Copilot 允許事件回應人員輸入各種證據(檔案、URL、事件日誌),並要求產生時間軸或摘要( Microsoft Security Copilot 是一款用於網路安全的新型 GPT-4 人工智慧助理 | The Verge )。人工智慧可能會回覆: 「這次入侵很可能始於格林威治標準時間 10:53 發送給用戶 JohnDoe 的一封包含惡意軟體 X 的網路釣魚郵件。惡意軟體執行後會創建一個後門,兩天后,攻擊者利用該後門橫向移動到財務伺服器並收集資料。」在幾分鐘內而不是幾小時內獲得如此清晰的事件概覽,使哪些團隊做出更好地隔離做出系統的決策,使哪些系統能夠隔離做出如此清晰的事件概覽,使哪些系統能夠隔離)

生成式人工智慧還可以建議遏制和補救措施。例如,如果某個端點感染了勒索軟體,人工智慧工具可以產生一個腳本或一組指令來隔離該機器、禁用某些帳戶並在防火牆上阻止已知的惡意 IP — — 本質上是一個劇本執行。 Palo Alto Networks 指出,生成式人工智慧能夠「根據事件的性質產生適當的操作或腳本」 ,自動執行初始回應步驟(網路安全中的生成式人工智慧是什麼?- Palo Alto Networks )。在安全團隊不堪重負的情況下(例如數百台設備遭受大範圍攻擊),人工智慧甚至可能在預先批准的條件下直接執行其中一些操作,就像一個不知疲倦的初級響應者。例如,人工智慧代理可以自動重置它認為已洩露的憑證,或隔離表現出與事件設定檔相符的惡意活動的主機。

在事件回應過程中,溝通至關重要——無論是在團隊內部還是與利害關係人之間。生成式人工智慧可以即時產生事件更新報告或簡報,。工程師無需中斷故障排除工作來撰寫電子郵件更新,只需詢問人工智慧: 「請總結一下目前為止的事件進展,以便向管理層匯報。」人工智慧在吸收事件資料後,可以產生一份簡潔的摘要: 「截至下午 3 點,攻擊者已存取 2 個使用者帳戶和 5 台伺服器。受影響的資料包括資料庫 X 中的客戶記錄。存取權限,並已隔離伺服器

事件結束後,通常需要撰寫詳細的事件報告並總結經驗教訓。人工智慧在這方面也能發揮重要作用。它可以審查所有事件數據,並產生一份涵蓋根本原因、時間軸、影響和建議的事件後報告。例如,IBM 正在整合生成式人工智慧,只需按一下按鈕「可與利害關係人共享的安全案例和事件的簡要摘要」 如何將生成式人工智慧應用於網路安全?10 個真實案例》)。透過簡化事後報告流程,組織可以更快地實施改進措施,並獲得更完善的合規性文件。

人工智慧驅動的事件模擬是人工智慧的一項創新前瞻性應用。類似於消防演習,一些公司正在利用生成式人工智慧來模擬各種「假設」事件場景。人工智慧可以模擬勒索軟體在特定網路佈局下的傳播方式,或者內部人員如何竊取數據,然後評估當前響應計劃的有效性。這有助於團隊在實際事件發生前準備和完善緊急應變計畫。這就像擁有一個不斷進步的事件回應顧問,持續檢驗你的準備。

在金融或醫療保健等高風險產業,系統當機或資料遺失造成的損失尤其慘重,因此,這些由人工智慧驅動的事件回應能力極具吸引力。例如,醫院一旦遭遇網路攻擊,就無法承受長時間的系統中斷——能夠快速協助控制事態的人工智慧可能真的能挽救生命。同樣,金融機構可以利用人工智慧在凌晨3點對疑似詐欺入侵進行初步分診,這樣,當值班人員上線時,許多前期工作(例如註銷受影響帳戶、阻止交易等)就已經完成。透過利用生成式人工智慧增強事件回應團隊的,企業可以大幅縮短回應時間,提高處理效率,最終最大限度地減少網路事件造成的損失。

行為分析和異常檢測

許多網路攻擊都可以透過偵測偏離「正常」行為的異常情況來發現——無論是用戶帳戶下載異常數量的數據,還是網路設備突然與陌生的主機通訊。生成式人工智慧提供了先進的行為分析和異常檢測,能夠學習使用者和系統的正常模式,並在出現異常情況時發出警報。

傳統的異常檢測通常使用統計閾值或基於特定指標(例如 CPU 使用率峰值、非正常時間登入等)的簡單機器學習。生成式人工智慧 (AI) 則更進一步,能夠創造出更細緻的行為畫像。例如,AI 模型可以長期收集員工的登入記錄、文件存取模式和電子郵件使用習慣,從而對該使用者的「正常」行為形成多維度的理解。如果該帳戶之後出現與其正常行為嚴重不符的情況(例如從國外登入並在午夜存取大量人力資源文件),AI 不僅會偵測到單一指標的偏差,還會偵測到整體行為模式與使用者畫像不符。從技術角度講,生成式模型(例如自編碼器或序列模型)可以模擬「正常」行為的特徵,然後產生一個預期的行為範圍。當實際情況超出該範圍時,就會被標記為異常(什麼是網路安全中的生成式 AI? - Palo Alto Networks )。

網路流量監控就是一個實際應用案例。根據2024年的一項調查,54%的美國企業將網路流量監控列為人工智慧在網路安全領域的首要應用場景(北美:2024年全球網路安全領域人工智慧應用場景排行榜)。生成式人工智慧可以學習企業網路的正常通信模式——例如哪些伺服器之間通常會進行通信,工作時間和夜間的資料流量差異等等。如果攻擊者開始從伺服器竊取數據,即使速度很慢以避免被發現,基於人工智慧的系統也可能注意到「伺服器A從未在凌晨2點向外部IP位址發送過500MB的數據」 ,並發出警報。由於人工智慧並非僅使用靜態規則,而是基於不斷演進的網路行為模型,因此它可以捕捉到靜態規則(例如「資料量大於XMB時發出警報」)可能遺漏或誤判的細微異常。這種自適應特性使得人工智慧驅動的異常檢測在銀行交易網路、雲端基礎設施或物聯網設備叢集等環境中尤為強大,因為在這些環境中,定義正常與異常的固定規則極為複雜。

生成式人工智慧 (AI) 也幫助用戶行為分析 (UBA) ,這對於發現內部威脅或被盜帳戶至關重要。透過為每個使用者或實體產生基線數據,AI 可以檢測到諸如憑證濫用之類的行為。例如,如果會計部門的 Bob 突然開始查詢客戶資料庫(這是他以前從未做過的事情),AI 模型會將 Bob 的行為標記為異常。這可能並非惡意軟體——也可能是 Bob 的憑證被竊取並被攻擊者使用,或者 Bob 在不應該訪問的地方進行了探索。無論哪種情況,安全團隊都會收到預警並展開調查。這種 AI 驅動的 UBA 系統已應用於各種安全產品中,而生成式建模技術透過考慮上下文(例如,Bob 可能正在參與某個特殊項目,AI 有時可以從其他數據推斷出這些資訊)來提高其準確率並減少誤報。

在身分和存取管理領域,深度偽造檢測的需求日益增長——生成式人工智慧可以創建合成語音和視頻,從而欺騙生物識別安全系統。有趣的是,生成式人工智慧還可以透過分析音訊或影片中人類難以察覺的細微瑕疵來幫助偵測這些深度偽造內容。埃森哲就是一個很好的例子,該公司利用生成式人工智慧模擬了無數種面部表情和狀態,以此訓練其生物辨識系統,使其能夠區分真實用戶和人工智慧生成的深度偽造內容。五年多來,這種方法幫助埃森哲在其90%的系統中取消了密碼(轉而採用生物識別和其他因素),並將攻擊減少了60%(網路安全領域生成式人工智慧的6個用例[+範例] )。本質上,他們利用生成式人工智慧增強了生物辨識認證,使其能夠抵禦生成式攻擊(這是人工智慧對抗人工智慧的絕佳例證)。隨著我們在身份驗證中越來越依賴人工智慧,這種行為建模——在本例中是識別真人面孔與人工智慧合成面孔之間的差異——變得至關重要。

由生成式人工智慧驅動的異常檢測技術可應用於各個行業:在醫療保健領域,它可以監控醫療設備的行為,以發現駭客攻擊的跡象;在金融領域,它可以監控交易系統,以發現可能表明欺詐或演算法操縱的異常模式;在能源/公用事業領域,它可以觀察控制系統訊號,以發現入侵跡象。生成式人工智慧兼具廣度(能夠觀察行為的各個面向)深度(能夠理解複雜的模式),使其成為在海量網路安全事件指標中發現蛛絲馬蹟的強大工具。隨著威脅變得更加隱蔽,隱藏在正常運作中,這種能夠精確定義「正常」並在出現偏差時發出警報的能力變得至關重要。因此,生成式人工智慧就像一個不知疲倦的哨兵,不斷學習並更新其對「正常」的定義,以適應環境的變化,並向安全團隊發出值得深入調查的異常警報。

生成式人工智慧在網路安全領域的機會與益處

將生成式人工智慧應用於網路安全領域,能為願意採用這些工具的組織帶來許多機會和益處。以下我們總結了生成式人工智慧成為網路安全專案有力補充的關鍵優勢:

  • 更快的威脅偵測與回應:生成式人工智慧系統能夠即時分析大量數據,並以遠超人工分析的速度識別威脅。這種速度優勢意味著能夠更早發現攻擊並更快地控制事件。實際上,人工智慧驅動的安全監控可以捕捉到人工需要花費更長時間才能關聯的威脅。透過及時回應事件(甚至自主執行初始回應),企業可以大幅縮短攻擊者在其網路中的停留時間,從而最大限度地減少損失。

  • 更高的準確率和威脅覆蓋範圍:由於生成模型能夠持續從新數據中學習,因此可以適應不斷演變的威脅,並捕捉到更細微的惡意活動跡象。與靜態規則相比,這可以提高偵測準確率(減少漏報和誤報)。例如,學習了網路釣魚郵件或惡意軟體行為特徵的人工智慧可以識別出以前從未見過的變種。其結果是對威脅類型的覆蓋範圍更廣,包括新型攻擊,從而增強了整體安全態勢。安全團隊還可以從人工智慧分析中獲得詳細的洞察(例如,對惡意軟體行為的解釋),從而實現更精準、更有針對性的防禦(什麼是網路安全中的生成式人工智慧? - Palo Alto Networks )。

  • 重複性任務自動化:生成式人工智慧擅長自動化執行日常、勞力密集的安全任務,例如梳理日誌、編制報告以及編寫事件回應腳本。這種自動化減輕了人工分析師的負擔,使他們能夠專注於高層戰略和複雜的決策(網路安全領域的生成式人工智慧是什麼? - Palo Alto Networks )。諸如漏洞掃描、配置審計、用戶活動分析和合規性報告等繁瑣但重要的任務都可以由人工智慧處理(或至少可以初步撰寫)。透過以機器速度處理這些任務,人工智慧不僅提高了效率,還減少了人為錯誤(這是導致安全漏洞的重要因素)。

  • 主動防禦與模擬:生成式人工智慧使組織能夠從被動防禦轉向主動防禦。透過攻擊模擬、合成資料產生和基於場景的訓練等技術,防禦者可以在威脅之前。安全團隊可以在安全的環境中模擬網路攻擊(例如網路釣魚、惡意軟體爆發、DDoS 攻擊等),以測試其回應並彌補任何漏洞。這種持續的訓練,僅靠人力往往難以徹底完成,能夠使防禦系統保持敏銳和與時俱進。這類似於網路安全的「消防演習」——人工智慧可以向您的防禦系統拋出大量假設的威脅,以便您進行練習並改進。

  • 增強人類專業知識(人工智慧作為倍增器):生成式人工智慧集不知疲倦的初級分析師、顧問和助手於一身。它可以為經驗不足的團隊成員提供通常只有資深專家才能提供的指導和建議,從而有效地在團隊內部普及專業知識網路安全領域生成式人工智慧的 6 個應用案例 [+ 範例] )。鑑於網路安全領域的人才短缺,這一點尤其重要——人工智慧可以幫助規模較小的團隊以更少的資源完成更多的工作。另一方面,經驗豐富的分析師可以從人工智慧處理繁瑣的工作並挖掘出不易察覺的洞察中受益,然後他們可以驗證這些洞察並採取行動。最終,安全團隊的效率和能力將大幅提升,人工智慧放大了每位成員的影響力(如何在網路安全領域應用生成式人工智慧)。

  • 增強決策支援和報告:透過將技術數據轉化為自然語言洞察,生成式人工智慧能夠改善溝通和決策。安全領導者可以透過人工智慧產生的摘要更清晰地了解問題,無需解析原始資料即可做出明智的策略決策。同樣,當人工智慧產生易於理解的安全態勢和事件報告時,跨職能部門(例如高階主管、合規官等)的溝通也會得到改善(《如何將生成式人工智慧應用於網路安全?10 個真實案例》)。這不僅能夠增強領導階層對安全問題的信心和共識,還能透過清楚闡述風險和人工智慧發現的差距,幫助證明投資和變革的合理性。

綜合來看,這些優勢意味著,在網路安全領域運用生成式人工智慧的組織能夠以更低的營運成本實現更強大的安全態勢。他們可以應對以往難以應對的威脅,彌補以往未被監控的漏洞,並透過人工智慧驅動的回饋循環不斷改進。最終,生成式人工智慧提供了一個先發制人的機會,它能夠以同樣先進的防禦手段應對速度、規模和複雜性。一項調查發現,超過一半的企業和網路安全領導者預計,透過使用生成式人工智慧,可以更快地偵測威脅並提高準確性( [PDF] 《2025年全球網路安全展望》|世界經濟論壇)(《網路安全中的生成式人工智慧:LLM的全面回顧》… )—這充分證明了人們對這些技術優勢的樂觀態度。

在網路安全中使用生成式人工智慧的風險與挑戰

儘管機會龐大,但在網路安全領域應用生成式人工智慧時,必須充分認識到風險和挑戰。盲目信任人工智慧或濫用人工智慧都可能引入新的漏洞。以下我們將概述主要問題和陷阱,並分別闡述其背景:

  • 網路犯罪者的對抗性利用:幫助防禦者的生成能力同樣也能賦能攻擊者。威脅行為者已經開始利用生成式人工智慧來製作更具說服力的網路釣魚郵件,創建虛假身分和深度偽造影片以進行社會工程攻擊,開發不斷變化以逃避檢測的多態性惡意軟體,甚至自動化部分駭客攻擊操作( 《網路安全中的生成式人工智慧是什麼?》- Palo Alto Networks )。近一半(46%)的網路安全領導者擔心生成式人工智慧會導致更高階的對抗性攻擊(《生成式人工智慧安全:趨勢、威脅和緩解策略》)。這場「人工智慧軍備競賽」意味著,隨著防禦者採用人工智慧,攻擊者也不會落後太遠(事實上,在某些領域,他們可能已經領先,因為他們正在使用不受監管的人工智慧工具)。各組織必須做好準備,以應對更頻繁、複雜且難以追蹤的人工智慧增強型威脅。

  • 人工智慧的幻覺與不準確性:生成式人工智慧模型可能會產生看似合理但卻錯誤或具有誤導性的——這種現像被稱為幻覺。在安全領域,人工智慧可能會分析某個事件,並錯誤地得出結論,認為某個漏洞是其根源;或者,它可能會產生一個有缺陷的修復腳本,無法阻止攻擊。如果輕信這些錯誤,可能會造成危險。正如NTT Data所警告的那樣, “生成式人工智慧可能會輸出不真實的內容,這種現像被稱為幻覺……目前很難完全消除幻覺”《生成式人工智慧的安全風險及應對措施及其對網路安全的影響》| NTT DATA集團)。過度依賴未經驗證的人工智慧可能會導致方向錯誤或虛假的安全感。例如,人工智慧可能會錯誤地將一個關鍵系統標記為安全,而實際上並非如此;或者相反,它可能會「偵測到」從未發生過的入侵,從而引發恐慌。對人工智慧輸出進行嚴格驗證,並讓人類參與關鍵決策,對於降低這種風險至關重要。

  • 誤報與漏報:與幻覺類似,如果人工智慧模式訓練或配置不當,可能會將良性活動過度報告為惡意活動(誤報) ,或者更糟的是,漏掉真正的威脅(漏報)如何將生成式人工智慧應用於網路安全)。過多的誤報會讓安全團隊不堪重負,導致警報疲勞(抵消人工智慧承諾的效率提升),而漏報則會使組織面臨風險。調整生成式模型以達到最佳平衡極具挑戰性。每個環境都是獨一無二的,人工智慧可能無法立即發揮最佳效能。持續學習也是一把雙面刃——如果人工智慧從有偏差的回饋或不斷變化的環境中學習,其準確性可能會波動。安全團隊必須監控人工智慧的效能,並調整閾值或向模型提供糾正性回饋。在高風險環境中(例如關鍵基礎設施的入侵偵測),將 AI 建議與現有系統並行運作一段時間可能是明智之舉,以確保它們協調一致、相互補充,而不是相互衝突。

  • 資料隱私與外洩:生成式人工智慧系統通常需要大量資料進行訓練和運作。如果這些模型基於雲端或未進行妥善的資料隔離,則存在敏感資訊外洩的風險。使用者可能無意中將專有資料或個人資料輸入到人工智慧服務中(例如,讓 ChatGPT 總結一份機密事件報告),而這些資料可能會成為模型知識的一部分。事實上,最近的一項研究發現, 55% 的生成式人工智慧工具輸入資料包含敏感資訊或個人身份訊息,這引發了人們對資料外洩的嚴重擔憂( 《生成式人工智慧安全:趨勢、威脅與緩解策略》)。此外,如果人工智慧系統使用內部資料進行訓練,並以特定方式進行查詢,則可能會將輸出給其他人。因此,企業必須實施嚴格的資料處理策略(例如,使用本地部署或私人人工智慧實例處理敏感資訊),並對員工進行培訓,避免將機密資訊貼到公共人工智慧工具中。隱私權法規(G​​DPR 等)也發揮作用——未經適當同意或保護而使用個人資料來訓練人工智慧可能會違反法律。

  • 模型安全與操控:生成式人工智慧模型本身也可能成為攻擊目標。攻擊者可能會嘗試模型投毒,在訓練或重新訓練階段輸入惡意或誤導性數據,導致人工智慧學習錯誤的模式(生成式人工智慧在網路安全中的應用)。例如,攻擊者可能會巧妙地污染威脅情報數據,使人工智慧無法識別攻擊者本身的惡意軟體。另一種策略是提示注入或輸出操控,攻擊者會找到方法向人工智慧發送輸入,使其行為偏離預期——例如忽略安全防護機製或洩露不應洩露的資訊(如內部提示或資料)。此外,還存在模型規避:攻擊者會精心建構輸入,專門用於欺騙人工智慧。我們在對抗性範例中可以看到這種情況——略微擾動的數據,人類會將其視為正常數據,但人工智慧會錯誤分類。確保 AI 供應鏈安全(資料完整性、模型存取控制、對抗穩健性測試)是部署這些工具時網路安全的一個新但必要的組成部分(什麼是網路安全中的生成式 AI? - Palo Alto Networks )。

  • 過度依賴與技能退化:組織過度依賴人工智慧,導致人類技能退化,這是一種較隱性的風險。如果初級分析師盲目信任人工智慧的輸出結果,他們可能無法培養出在人工智慧不可用或出錯時所需的批判性思維和直覺。一個需要避免的情況是,安全團隊擁有強大的工具,卻不知道在這些工具失效時該如何應對(類似於飛行員過度依賴自動駕駛系統)。定期進行不依賴人工智慧的訓練,並培養人工智慧是輔助工具而非萬能預言家的理念,對於維持人類分析師的敏銳至關重要。人類必須始終是最終的決策者,尤其是在需要做出重大決策時。

  • 倫理與合規挑戰:人工智慧在網路安全領域的應用引發了倫理問題,並可能觸發監管合規問題。例如,如果人工智慧系統因異常情況而錯誤地將員工認定為惡意內部人員,則可能對該員工的聲譽或職業生涯造成不公正的損害。人工智慧的決策過程可能不透明(「黑箱」問題),難以向審計人員或監管機構解釋某些操作的原因。隨著人工智慧生成的內容日益普及,確保透明度和維護問責制至關重要。監管機構已開始對人工智慧進行審查——例如,歐盟的《人工智慧法案》將對「高風險」人工智慧系統提出要求,而網路安全人工智慧可能就屬於這一類。企業需要了解這些法規,並可能需要遵守諸如美國國家標準與技術研究院(NIST)人工智慧風險管理框架之類的標準,才能負責任地使用生成式人工智慧(《如何在網路安全中使用生成式人工智慧?10個真實案例》)。合規性也延伸到授權方面:使用開源或第三方模型可能存在限制某些用途或要求共享改善成果的條款。

總而言之,生成式人工智慧並非萬靈藥——如果實施不當,它在解決某些問題的同時,也可能引入新的漏洞。世界經濟論壇2024年的一項研究指出,約47%的組織將攻擊者利用生成式人工智慧取得的進展視為首要擔憂,這使其成為「生成式人工智慧最令人擔憂的影響」[PDF] 《2025年全球網路安全展望》| 世界經濟論壇)( 《網路安全中的生成式人工智慧:LLM》的全面回顧 人工智慧:LLM )。因此,各組織必須採取平衡的方法:既要利用人工智慧的優勢,又要透過治理、測試和人工監督來嚴格管理這些風險。接下來,我們將探討如何實際達到這種平衡。

未來展望:生成式人工智慧在網路安全領域不斷演變的角色

展望未來,生成式人工智慧有望成為網路安全戰略不可或缺的一部分,同時也將成為網路攻擊者持續利用的工具。這場貓鼠遊戲將會加速,人工智慧將成為攻防雙方的限制因素。以下是對生成式人工智慧未來幾年可能如何影響網路安全的一些前瞻性見解:

  • 人工智慧增強型網路防禦將成為標準:到2025年及以後,我們可以預期大多數中大型組織都將把人工智慧驅動的工具融入其安全運作中。正如如今防毒軟體和防火牆已成為標準配置一樣,人工智慧輔助駕駛和異常檢測系統也可能成為安全架構的基礎元件。這些工具可能會變得更加專業化——例如,針對雲端安全、物聯網設備監控、應用程式程式碼安全性等進行微調的不同人工智慧模型,所有這些模型都將協同工作。正如一項預測所指出的, 「到2025年,生成式人工智慧將成為網路安全不可或缺的一部分,使組織能夠主動防禦複雜且不斷演變的威脅」 (《如何將生成式人工智慧應用於網路安全》)。人工智慧將增強即時威脅偵測能力,自動化許多回應操作,並幫助安全團隊管理比手動操作多得多的資料量。

  • 持續學習與適應:未來網路安全領域的生成式人工智慧系統將能夠更好地即時學習,並近乎即時地更新其知識庫。這有望實現真正意義上的自適應防禦——試想一下,人工智慧系統早上了解到另一家公司遭遇了新的網路釣魚攻擊,下午就能自動調整貴公司的電子郵件過濾器以應對。基於雲端的人工智慧安全服務或許能夠促進這種集體學習,使來自一個組織的匿名洞察能夠惠及所有訂閱用戶(類似於威脅情報共享,但更加自動化)。然而,這需要謹慎處理,以避免共享敏感訊息,並防止攻擊者將惡意資料輸入共享模型。

  • 人工智慧與網路安全人才的融合:網路安全專業人員的技能組合將持續演進,精通人工智慧和資料科學。正如今天的分析師學習查詢語言和腳本編寫一樣,未來的分析師可能需要定期微調人工智慧模型或編寫人工智慧執行的「劇本」。我們可能會看到諸如「人工智慧安全培訓師」「網路安全人工智慧工程師」——他們專注於根據組織的需求調整人工智慧工具,驗證其效能,並確保其安全運作。另一方面,網路安全因素將日益影響人工智慧的開發。人工智慧系統將從一開始就融入安全功能(安全架構、篡改檢測、人工智慧決策審計日誌等),而可信賴人工智慧(公平、可解釋、穩健和安全)將指導其在安全關鍵環境中的部署。

  • 更複雜的AI驅動攻擊:不幸的是,威脅情勢也會隨著AI的發展而演變。我們預計AI將更頻繁地用於發現零日漏洞、精心策劃高針對性的魚叉式網絡釣魚(例如,AI抓取社交媒體信息以創建完美定制的誘餌),以及生成以假亂真的深度偽造語音或視頻,從而繞過生物識別認證或實施欺詐。自動化駭客代理可能會出現,它們能夠在極少人工幹預的情況下獨立執行多階段攻擊(偵察、利用、橫向移動等)。這將迫使防禦者也依賴AI——本質上是自動化與自動化之間。某些攻擊可能以機器速度進行,例如AI機器人嘗試上千種網路釣魚郵件組合,以找出能夠繞過過濾器的方案。網路防禦也需要以類似的速度和靈活性運行才能跟上形勢(什麼是網路安全中的生成式AI? - Palo Alto Networks )。

  • 安全領域的監管與倫理人工智慧:隨著人工智慧在網路安全領域深度整合,相關部門將加強審查,並可能出台監管措施,以確保人工智慧系統得到負責任的使用。我們可以預見,未來將出現專門針對安全領域人工智慧的框架和標準。各國政府可能會制定透明度準則,例如,要求重大安全決策(如因涉嫌惡意活動而終止員工存取權限)必須經過人工審核,且不得僅由人工智慧做出。此外,人工智慧安全產品也可能獲得認證,以確保購買者了解人工智慧產品已通過偏見性、穩健性和安全性評估。同時,圍繞人工智慧相關網路威脅的國際合作也可能日益加強;例如,就如何處理人工智慧產生的虛假資訊達成協議,或製定針對某些人工智慧驅動的網路武器的規範。

  • 與更廣泛的人工智慧和IT生態系統整合:網路安全領域的生成式人工智慧很可能與其他人工智慧系統和IT管理工具整合。例如,管理網路優化的AI可以與安全AI協同工作,確保變更不會造成安全漏洞。 AI驅動的商業分析可以與安全AI共享數據,以關聯異常情況(例如銷售額突然下降可能與攻擊導致的網站問題有關)。本質上,AI不會孤立存在,而是會成為組織運作更廣泛智慧體系的一部分。這為整體風險管理開闢了機遇,AI可以將營運數據、威脅數據甚至實體安全數據結合起來,從而提供組織安全態勢的360度全方位視圖。

從長遠來看,人們希望生成式人工智慧能夠幫助扭轉局勢,使防禦者佔據優勢。透過處理現代IT環境的規模和複雜性,人工智慧可以增強網路空間的防禦能力。然而,這是一個循序漸進的過程,在我們完善這些技術並學會適當地信任它們的過程中,必然會經歷一些陣痛。那些持續關注並負責任地投資於人工智慧安全應用的組織,很可能最有能力應對未來的威脅。

正如Gartner近期發布的網路安全趨勢報告指出, 「生成式人工智慧應用案例(及其風險)的出現,正推動著產業轉型」網路安全趨勢:轉型賦能韌性 - Gartner )。那些能夠適應並利用人工智慧的企業,將把人工智慧作為強大的盟友;而那些落後的企業,則可能發現自己被擁有人工智慧的對手遠遠甩在身後。未來幾年將是定義人工智慧如何重塑網路戰場格局的關鍵時期。

在網路安全領域採用生成式人工智慧的實用經驗

對於正在評估如何在網路安全策略中利用生成式人工智慧的企業而言,以下是一些實用的要點和建議,可指導其負責任且有效地採用該技術:

  1. 首先要重視教育和培訓:確保您的安全團隊(以及更廣泛的 IT 人員)了解生成式人工智慧的功能和限制。提供人工智慧驅動的安全工具基礎知識培訓,並更新安全意識培訓計劃,使其涵蓋人工智慧帶來的威脅。例如,教導員工人工智慧如何產生極具迷惑性的網路釣魚詐騙和深度偽造電話。同時,訓練員工如何在工作中安全、合法地使用人工智慧工具。充分了解人工智慧的使用者不太可能誤用人工智慧或成為人工智慧攻擊的受害者(《如何將生成式人工智慧應用於網路安全?10 個真實案例》)。

  2. 制定清晰的AI使用政策:像對待任何強大的技術一樣對待生成式AI-需要控制。制定政策,明確規定哪些人可以使用AI工具、哪些工具授權、哪些用途。納入敏感資料處理指南(例如,禁止將機密資料輸入外部AI服務),以防止資料外洩。例如,您可以僅允許安全團隊成員使用內部AI助理進行事件回應,而行銷部門可以使用經過審核的AI進行內容創作—其他人員則受到限制。許多組織現在都在其IT政策中明確提及生成式AI,而領先的標準機構也鼓勵制定安全的使用政策,而不是徹底禁止(《如何在網路安全中使用生成式AI?10個真實案例》)。務必將這些規則及其背後的原則傳達給所有員工。

  3. 緩解「影子人工智慧」風險並監控使用:與影子IT類似,「影子人工智慧」是指員工在IT部門不知情的情況下使用人工智慧工具或服務(例如,開發人員使用未經授權的人工智慧程式碼助理)。這可能會帶來未知的風險。應採取措施檢測和控制未經授權的人工智慧使用。網路監控可以標記與常用人工智慧API的連接,調查或工具審計可以揭示員工正在使用的工具。提供經批准的替代方案,以免好心的員工被誘惑擅自使用(例如,如果員工覺得ChatGPT Enterprise官方帳號有用,可以提供)。透過公開人工智慧的使用情況,安全團隊可以評估和管理風險。監控也至關重要——盡可能詳細地記錄人工智慧工具的活動和輸出,以便追蹤人工智慧影響的決策(生成式人工智慧如何在網路安全中應用?10個真實案例)。

  4. 有效利用人工智慧進行防禦—切勿落後:要認識到攻擊者會使用人工智慧,因此您的防禦也必須如此。確定幾個關鍵領域,在這些領域,生成式人工智慧可以立即協助您的安全營運(例如警報分類或自動化日誌分析),並進行試點專案。利用人工智慧的速度和規模來增強您的防禦能力,以應對快速變化的威脅(生成式人工智慧如何在網路安全中使用?10 個真實案例)。即使是簡單的集成,例如使用人工智慧來匯總惡意軟體報告或生成威脅狩獵查詢,也能為分析師節省數小時的時間。從小規模開始,評估結果並不斷迭代。成功案例將為更廣泛地採用人工智慧奠定基礎。目標是將人工智慧用作倍增器——例如,如果網路釣魚攻擊使您的幫助台不堪重負,請部署人工智慧電子郵件分類器來主動減少攻擊數量。

  5. 投資於安全且符合倫理的人工智慧實踐:在實施生成式人工智慧時,請遵循安全的開發和部署實踐。對於敏感任務,請使用私有或自託管模型,以確保對資料的控制權。如果使用第三方人工智慧服務,請審查其安全和隱私措施(加密、資料保留策略等)。將人工智慧風險管理框架(例如 NIST 的人工智慧風險管理框架或 ISO/IEC 指南)納入您的人工智慧工具,以系統化解決偏差、可解釋性和穩健性等問題(如何將生成式人工智慧應用於網路安全?10 個真實案例)。此外,請將模型更新/修補程式納入維護計劃——人工智慧模型也可能存在「漏洞」(例如,如果模型開始偏離預期或發現針對模型的新型對抗性攻擊,則可能需要重新訓練)。透過將安全性和倫理融入您的人工智慧使用中,您可以建立對結果的信任,並確保符合新興法規。

  6. 讓人類參與決策:在網路安全領域,人工智慧應輔助而非完全取代人類的判斷。明確哪些決策點需要人工驗證(例如,人工智慧可以起草事件報告,但分析師需要在發布前進行審核;或者人工智慧可以建議封鎖使用者帳戶,但需要手動批准)。這不僅可以防止人工智慧的錯誤未經核查,還能幫助團隊從人工智慧中學習,反之亦然。鼓勵協作式工作流程:分析師應該能夠質疑人工智慧的輸出結果並進行合理性檢查。隨著時間的推移,這種對話可以提升人工智慧(透過回饋)和分析師的技能。本質上,流程的設計應使人工智慧和人類的優勢相互補充——人工智慧負責處理大量數據並提高處理速度,而人類則負責處理模糊性和做出最終決策。

  7. 衡量、監控和調整:最後,將您的生成式 AI 工具視為安全生態系統中不可或缺的組成部分。持續衡量它們的表現-它們是否縮短了事件回應時間?是否能更早發現威脅?誤報率的趨勢如何?向團隊徵求回饋:AI 的建議是否有效,還是只是在製造噪音?利用這些指標來改進模型、更新訓練資料或調整 AI 的整合方式。網路威脅和業務需求不斷演變,您的 AI 模型應定期更新或重新訓練,以保持其有效性。制定模型治理計劃,包括誰負責維護模型以及審查頻率。透過積極管理 AI 的生命週期,您可以確保它始終是資產,而不是負擔。

總之,生成式人工智慧可以顯著提升網路安全能力,但成功應用需要周詳的規劃和持續的監督。企業若能對員工進行培訓,制定清晰的指導方針,並以平衡、安全的方式整合人工智慧,就能從更快、更聰明的威脅管理中獲益。這些要點構成了一條路線圖:將人類專業知識與人工智慧自動化相結合,涵蓋治理基礎,並隨著人工智慧技術和威脅情勢的不斷演變保持敏捷性。.

「如何將生成式人工智慧應用於網路安全?」這個問題——不僅在理論上,而且在日常實踐中——從而在我們日益數位化和人工智慧驅動的世界中加強防禦。 (如何將生成式人工智慧應用於網路安全

您可能還想閱讀以下白皮書:

🔗人工智慧無法取代哪些工作?人工智慧又將取代哪些工作?
探討全球範圍內哪些崗位不會受到自動化的影響,哪些職位則不然。

🔗人工智慧能預測股市嗎?
深入了解人工智慧預測市場走勢能力的限制、突破點和迷思。

🔗生成式人工智慧無需人工幹預可以完成哪些工作?
了解人工智慧可以在哪些方面獨立運行,以及在哪些方面仍需要手動監督。

返回博客