一個AI智能體在幫你處理郵件,一封看似正常的郵件里,卻用一張圖片的偽裝暗藏指令。AI在讀取圖片時被悄然感染,之后它發給其他AI或人類的所有信息里,都可能攜帶上這個病毒,導致更大范圍的感染和信息泄露。
這不是科幻電影,而是正在發生的現實——錯誤與攻擊,正在從“人為傳播”跨越到“智能體之間的自我擴散”,攻擊模式正在從以人為中心的傳播,轉向以AI為載體的自主傳播。
因為已經有研究人員成功創造出第一代AI蠕蟲(Morris II),實現了AI之間的傳染。

這種攻擊不再是傳統意義上攻破服務器、盜取數據,而是通過語言、圖片等媒介,污染和操縱AI的“思維”,讓它從一個高效的助手,變成一個可以被遠程操控的提線木偶。
這正是大模型時代最獨特、也最危險的挑戰。
當AI接入企業的千萬個工作流,打破了過去封閉系統的安全邊界時,它的“天真”就成了最致命的弱點。

一個代碼漏洞可能讓系統宕機,但一個思維漏洞,則可能讓一個無所不知的AI,變成傳播虛假信息、輸出偏見仇恨、甚至泄露核心機密的工具。
傳統的安全法則在這里已然失靈。
傳統藍軍習慣于尋找代碼上的傷口,用規則和簽名去封堵;而如今,攻擊可能只是一段精心設計的對話,利用的是模型的共情能力、邏輯缺陷或規則悖論。
因此,站在AI時代下,我們必須重新定義藍軍。
