Facebook Google Plus Twitter LinkedIn YouTube RSS Menu Search Resource - BlogResource - WebinarResource - ReportResource - Eventicons_066 icons_067icons_068icons_069icons_070
8 分鐘快讀 2026 年 5 月 4 日

適用於 AI 的安全性:弭平 AI 曝險缺口的策略架構

保護 AI 網路安全的 AI 五步驟策略框架

隨著 AI 導入加速,資安長面臨雙重挑戰:既要推動創新,又要降低攻擊破綻急遽擴張的風險。 當企業競相追求 AI 帶來的生產力效益時,Tenable 保護 AI 的五步架構提供系統化方法,協助降低 AI 安全風險。 

關鍵提要

  1. 掌握五步架構,協助保護整個企業的 AI 使用安全,並降低 AI 工具衍生的安全風險。
     
  2. 保護企業 AI 應用需要多管齊下:強大的 AI 探索能力、保護 AI 工作負載與 AI 基礎架構的機制、提示層級的能見度、將 AI 安全風險與其他曝險一併分析的能力,以及確保符合貴企業 AI 可接受使用政策的技術控制措施。 
     
  3. 了解為何現有安全控制措施在面對 AI 防禦時可能捉襟見肘。

 

當 AI 顛覆企業營運時,像我這樣的安全領導者正努力尋找最有效方法,以管理其衍生的安全風險。

真正的挑戰在於,AI 如今已無縫嵌入企業各個角落:員工生產力工具、SaaS 平台、開發人員程式庫、雲端服務、API 與 Web 應用程式。 其結果是?安全團隊面臨日益擴大的 AI 曝險缺口:這是龐大且幾乎難以察覺的攻擊破綻,傳統安全工具根本無法有效監控。 

更棘手的是,往往無法將 AI 風險孤立於單一資產。 相反地,它是由一系列互連元素 (例如應用程式、基礎架構、身分與資料) 交織而成,最終匯聚成曝險。 舉例來說:

假設員工使用經核准的 AI 聊天機器人解決技術支援問題,該機器人依賴 Amazon Bedrock 代理,而這些代理擁有較高特權,可存取企業資源規劃與客戶資源管理工具等敏感內部系統。 若攻擊者透過該員工筆記型電腦上未修補的弱點取得對代理的存取權,就能利用該代理竊取敏感資料;原本看似安全地使用核准 AI 工具,瞬間淪為衝擊極大的曝險。

在當今 AI 輔助的工作環境中,保護資料變得異常困難,因為與 AI 資產的每次互動 (例如每個提示、檔案上傳、產生的回應、整合與設定) 都可能將智慧財產權、客戶資訊與機密計畫置於險境。

那麼,當企業不斷擴張 AI 應用時,該如何駕馭肆意生長、充滿挑戰的新型攻擊破綻? 以下為實施的策略架構,無論 AI 在何處現蹤並為企業帶來風險,皆能有效監管、發現並保護。 

策略架構: 保護企業 AI 的五大步驟

1. 建立 AI 監管委員會、架構與可接受使用原則

保護 AI 的第一步,是向員工清楚確立可接受的使用規範。 制定 AI 可接受使用原則,以便:

  • 提供已核准與未經核准的 AI 工具清單;
  • 定義合適與不當的業務使用案例;
  • 說明可與 LLM 分享及不可分享的資料類型;
  • 制定資料處理規範;
  • 符合著作權法規定;且
  • 明列違反原則的後果。

根據貴企業的 AI 可接受使用政策,可實施控制措施以強制執行並監控合規情況。

2. 探索整個攻擊破綻中的 AI

當我與其他資安長交流 AI 安全時,他們紛紛表示,探索與偵測 AI 是最大的挑戰之一。 我完全能體會:AI 簡直無所不在,且往往極難現蹤;部分原因是 AI 蹤跡早已跨越那些清晰可見的集中式管理系統。 

身為安全主管,我們必須考量:

  • AI 資產、代理、外掛程式、瀏覽器擴充功能與工作負載,無論它們是...
    • 於雲端或內部部署執行
    • 供內部或外部存取
    • 已核准或未經核准
  • 遭遺忘的 AI 測試部署
  • 嵌入於端點與應用程式中的 AI 工具
  • 所有 AI 軟體、程式庫、模型與服務
  • 於端點及雲端應用程式中對外暴露的 AI 服務、大型語言模型 (LLM) API 與 AI 聊天機器人。

現有資料遺失防護 (DLP) 、雲端存取安全代理 (CASB) 與雲端安全態勢管理 (CSPM) 解決方案,能為探索 AI 資產提供良好起點。 然而,由於 AI 不確定性的本質,顛覆傳統以規則為基礎的防護,全面探索仍需仰賴專門探索工具。 這同時需要獨特偵測能力,以識別嵌入式 AI 工具與程式庫,並洞悉 AI 系統如何相互牽動而衍生曝險。

掌握企業 AI 使用情況的持續且完整視野後,就能精準掌握需要保護的工作負載與基礎架構,進而評估企業整體 AI 曝險,並據此排定特定修復行動的優先順序。

3. 保護 AI 工作負載與代理

由於 AI 工作負載緊密互連,且經常存在嚴重錯誤設定或權限過高問題,此步驟旨在主動保護 AI 運作基礎架構,並在攻擊者利用漏洞前強化 AI 工作負載。 舉例來說,若企業內開發人員正在雲端建構支援 AI 的應用程式,就必須確保該雲端基礎架構安全。 

有效的防護必須具備以下能力:

  • 識別雲端 AI 工作負載中的錯誤設定與高風險設定。
  • 偵測可能導致模型、代理、資料或 API 遭未經授權存取的弱點。
  • 由於 AI 極度仰賴非人類身分,因此應實施基於身分的曝險降低措施。
  • 偵測 AI 工作流程所使用、特權過高的服務帳戶、角色與機器身分,並嚴格落實最低特權存取
  • 洞悉來自 AI 資產與工作負載的潛在攻擊路徑,這些路徑可能衝擊業務關鍵系統或導致敏感資料外洩。
  • 將不穩定或遭入侵的 AI 代理迅速隔離至受控環境,藉此將潛在資料外洩衝擊降至最低。

我將在後續規劃的部落格文章中,深入探討保護 AI 工作負載與代理這項特定主題。 同時,可透過對 AI 堆疊執行深度風險分析,了解身分缺陷與基礎架構缺陷如何交織成關鍵曝險。 憑藉這些洞察,可為安全團隊提供具體可行的教戰守則以強化環境,確保服務在安全、具韌性且經驗證的架構上運作。

4. 評估 AI 使用情況與互動

此步驟旨在了解員工與生成式 AI 工具及自主式代理的互動方式,確保員工未違反企業的 AI 可接受使用政策。 掌握資料如何流經所有 AI 應用程式並找出曝險源頭,至關重要。 

這需要深入至以下精細層級的能見度:

  • 誰在使用 AI
  • 出於何種目的
  • 高風險行為與濫用源頭為何
  • 員工透過提示、上傳或自動化行動分享了哪些資料
  • 企圖越獄核准的 AI 工具並提供惡意提示

掌握員工 AI 使用情況的提示層級能見度,讓安全團隊能偵測違規行為並鞏固安全 AI 行為。 這也讓安全團隊能識別員工或代理透過提示、上傳與自動化互動,向 AI 工具分享的任何敏感資料 (包含智慧財產權與 PII),這些資料可能因意外洩漏而形成曝險。 同時,這能讓安全團隊及早偵測並應對全新 AI 專屬威脅與濫用行為,例如企圖操縱 AI 系統的提示插入與其他惡意指令。

無論是發現連結至 Microsoft Copilot 代理的惡意工具,還是員工將 AI 濫用於非設計預期的不當情境 (例如內部招募決策),皆須迅速應變以消除曝險,並落實安全使用規範。

5. 結合其他曝險背景資訊分析 AI 安全風險

為了降低 AI 安全風險,僅孤立偵測 AI 軟體中未修補的弱點、AI 系統的脆弱設定以及特權過高的代理,已遠遠不夠。 畢竟,AI 正全面融入所有應用程式、資料與業務流程之中。

降低 AI 安全風險需要統一且自動化的方法,蒐集具備豐富背景資訊的 AI 安全資料,並將其與公開暴露的 S3 儲存貯體、存在弱點的筆記型電腦或擁有管理員權限的孤立帳戶等其他曝險資料關聯分析。 在 Tenable,我們將此方法稱為曝險管理,且觀察到業界正迅速跟上這股趨勢。 曝險管理能主動察覺環境中安全弱點如何結合成曝險:通往企業最敏感系統與資料的高風險攻擊路徑。 

曝險管理更透過精確背景資訊 (包含特定 AI 引擎、使用者與工作階段) 呈現風險,進而實現高精準度問題管理與快速應變。 關鍵在於了解安全風險的有害組合如何交織出業務曝險。 Amazon Bedrock 中等嚴重程度的錯誤設定,可能連結至不安全的 LLM,進而為代理提供過度佈建的權限存取。 曝險管理必須建立在對整個環境與攻擊破綻的全盤洞悉之上。

保護 AI 創新的未來

AI 在企業內的迅速整合,交織出複雜且互連的攻擊破綻,傳統安全控制措施根本無力應對。 為了弭平 AI 曝險缺口,安全領導者必須摒棄被動、以工具為中心的方法,轉向主動且統一的策略。

透過實施這套五步架構,將能打造出與 AI 技術與時俱進的韌性安全態勢。 歸根究柢,有效的曝險管理並非為了拖慢創新步伐,而是提供必要防護網,確保企業能安全且自信地擁抱 AI 強大動能。

作者

深入瞭解