本指南提供重要資訊,協助開發人員使用生成式 AI (GenAI) 建構 Android 應用程式。整合生成式 AI 會帶來獨特的挑戰,不只是標準軟體開發作業。
我們會持續更新本指南,因應不斷演變的新興 AI 風險。請參閱這項內容,瞭解在應用程式中整合生成式 AI 功能的重大風險,並掌握有效的風險緩解策略。
提示注入
攻擊者會編寫惡意輸入內容 (提示),誘騙模型規避安全和保障政策,或執行非預期的動作。如果攻擊得逞,模型可能會洩漏私密資料、生成有害內容或執行非預期動作,進而損害使用者信任感。瞭解如何防範提示詞注入式攻擊。
揭露私密資訊
生成式 AI 模型有洩漏機密資訊的重大風險,可能洩漏各種資料,影響 LLM 和應用程式環境。如果模型將這類機密資料輸出給其他使用者、機器學習即服務 (MLaaS) 提供者不安全地儲存提示,或是惡意行為者利用系統揭露內部邏輯,就可能發生外洩情形。後果十分嚴重,從智慧財產權侵害和法規處罰 (例如 GDPR、CCPA) 到完全失去使用者信任和系統遭入侵,都可能發生。瞭解如何降低揭露私密資訊的風險。
過度代理
將 LLM 代理程式與函式或工具整合以執行動作,可能會造成安全風險。惡意提示可能會濫用函式呼叫,導致資料意外遺失。開發人員有責任實作安全措施 (例如使用者同意聲明、驗證、存取權控管),防止有害的 AI 動作。瞭解如何降低過高的代理商風險。
摘要
保護 GenAI 系統需要多面向的做法,除了沿用傳統的網路安全做法,還必須因應 AI 模型帶來的獨特挑戰,例如開發生命週期,以及與使用者和系統的互動。這項全面性工作包括主動測試、持續監控、健全的治理機制,以及遵守不斷演進的監管架構。如要實際運用這些原則,不妨使用SAIF 風險自我評估等業界工具,進一步瞭解並降低風險。