雖然人工智慧 (AI) 大型語言模型能提升使用者與應用程式的互動體驗,但它們也會給您的數位資產帶來風險。
像 OpenAI 的 ChatGPT、Google 的 Bard 和 Meta 的 LlaMA 之類的大型語言模型,能加快對大量文字資料的處理速度,並且經過訓練以學會如何持續改進其輸出內容。但由於 AI 的使用呈爆炸式增長,這些 LLM 模型也成為網路罪犯的主要目標。例如,Darktrace 研究人員發現,從 2023 年 1 月到 2 月,新型社交工程攻擊增加了 135%,這與 ChatGPT 的廣泛採用相吻合。
想要利用 AI 的企業正在快速將該技術融入其內部營運及面向客戶的服務中。然而,由於 AI 的採用速度加快,若安全通訊協定未進行升級,應用程式可能會易受攻擊。
大型語言模型就像應用程式供應鏈中的任何其他元件一樣。它們會受到網路攻擊,這些攻擊可能會利用您的 IT 基礎架構來入侵和操縱敏感性資料。
這並不令人意外,因為接受使用者輸入的應用程式長期以來一直容易受到 SQL 資料隱碼攻擊以及使用者產生內容中的惡意連結之類的攻擊。由於 AI 接受命令和查詢等使用者輸入,因此取得存取權限的攻擊者隨後可以操縱該模型。
針對 AI 大型語言模型的攻擊有多種形式,並以多種方式帶來風險,例如:
插入提示的不可見文字可以誘使模型產生網路釣魚電子郵件、擷取暴 露敏感性資訊的訓練資料,或使用後門程式嵌入惡意程式碼。
操縱模型產生誤導性輸出可能會導致其他使用者得出錯誤的結論。
複製模型的檔案系統可能會導致智慧財產權被竊取,進而被出售給競爭對手,導致經濟損失或削弱市場優勢。
使用自然語言導致更容易誤導使用者並利用模型。
可以將故意製作的資訊放入使用者所查看的文件中,這可能導致攻擊者接管使用者工作階段。
提示插入透過直接插入(覆寫系統提示)或間接插入(操縱使用者輸入)來操控模型。
不安全的輸出處理會使後端 Web 系統暴露於惡意程式碼面前,這些惡意程式碼被插入到前端應用程式中,目的是欺騙終端使用者點擊該程式碼。