隨著生成式人工智能技術的演進,具備自主執行能力的代理式人工智能(Agentic AI)正成為企業與開發者矚目的焦點,但其伴隨的網絡安全威脅亦急遽升溫。香港網絡安全事故協調中心(HKCERT)針對近期爆紅的開源 AI 代理平台 OpenClaw 發出安全警示,指出此類具備本機操作、第三方功能插件安裝及外部服務整合能力的平台,其風險面已遠遠超出一般的對話式 AI 工具。HKCERT 早前發表的網絡安全展望報告中,已將代理式 AI 列為需高度關注的核心風險領域,呼籲機構在引入相關技術時必須審慎評估潛在的供應鏈與權限管理危機。
OpenClaw 平台之所以備受歡迎,在於其高度的整合性與擴充能力。該平台採用可自行架設的架構,能作為多頻道閘道無縫串接 WhatsApp、Telegram、Discord 等即時通訊軟體。然而,它並非單純的聊天機器人,而是一個能部署於本地端或伺服器的高級 AI 代理。該系統擁有持續性記憶,具備檔案讀寫、多媒體處理能力,甚至能直接控制瀏覽器並存取底層系統資源。
這種深度的系統控制權限,使其迅速成為惡意攻擊者的覬覦目標。安全報告顯示,已有駭客利用偽造的 GitHub 程式碼庫及搜尋引擎結果,針對尋找 OpenClaw Windows 安裝程式的使用者,散播旨在竊取機密資訊的惡意軟體。此外,該平台過往亦曾暴露高風險漏洞,允許惡意網站直接挾持開發者的 AI 代理程式。儘管相關漏洞已被官方修復,但此類事件充分暴露了部署高權限 AI 代理工具時,若缺乏嚴密安全監管所面臨的巨大風險。
除了平台核心的漏洞挑戰,OpenClaw 開放的「技能(Skills)」生態系也成為供應鏈攻擊的新破口。官方設立的開源技能註冊庫 ClawHub 允許任何人發布擴充腳本,雖然加速了平台功能的迭代,卻也無可避免地引入了第三方元件的風險。HKCERT 強調,內建的病毒掃描機制並非萬無一失,帶有惡意程式碼的輔助檔案極易繞過基礎檢測。
為應對這些新興威脅,HKCERT 提出了一系列針對性的防禦策略。使用者必須絕對依賴官方渠道獲取安裝檔案以杜絕偽造來源,並保持系統更新以修補已知漏洞。在擴充功能時,用戶切勿因插件的下載量高或說明頁面看似專業便輕易安裝第三方腳本。更重要的是,當 AI 代理要求執行如下載外部工具、輸入終端機指令或索取系統密碼等高風險操作時,操作者必須進行嚴格的二次驗證。企業在評估引入 OpenClaw 等技術時,必須將其視為可操作本機資源的高權限平台,將版本管理、腳本審核與端點防護納入整體的資訊管治框架中,方能在享受 AI 自動化便利的同時,守住企業的資訊安全防線。
