このガイドでは、生成 AI(GenAI)を使用して Android アプリケーションを構築するデベロッパーにとって重要な情報を提供します。生成 AI の統合には、標準のソフトウェア開発を超える独自の課題があります。
このガイドは、新たな AI リスクや進化する AI リスクを反映するために継続的に更新されます。このコンテンツでは、生成 AI 機能をアプリに統合する際に伴う重大なリスクと、効果的な軽減策について説明します。
プロンプト インジェクション
攻撃者は、モデルをだましてセキュリティ ポリシーや安全ポリシーをバイパスさせたり、意図しないアクションを実行させたりするために、悪意のある入力(プロンプト)を作成します。攻撃が成功すると、モデルが機密データを公開したり、有害なコンテンツを生成したり、意図しないアクションを実行したりして、ユーザーの信頼を損なう可能性があります。プロンプト インジェクション攻撃を軽減する方法について学習する。
機密情報の開示
生成 AI モデルは、機密情報の漏洩という重大なリスクをもたらします。LLM とそのアプリケーション コンテキストの両方に影響する広範囲のデータが漏洩する可能性があります。モデルがこの機密データを他のユーザーに出力した場合、Machine Learning as a Service(MLaaS)プロバイダがプロンプトを安全に保存していない場合、悪意のあるユーザーがシステムを悪用して内部ロジックを明らかにした場合などに、漏洩が発生する可能性があります。知的財産権の侵害や規制上の罰則(GDPR、CCPA など)から、ユーザーの信頼の完全な喪失やシステムの侵害まで、深刻な結果を招く可能性があります。機密情報の漏洩リスクを軽減する方法を確認する。
過剰な代理店
LLM エージェントを関数やツールと統合してアクションを実行すると、セキュリティ リスクが生じる可能性があります。関数呼び出しを悪用する悪意のあるプロンプトは、意図しないデータ損失につながる可能性があります。デベロッパーは、有害な AI アクションを防ぐための保護対策(ユーザーの同意、検証、アクセス制御など)を実装する責任を負います。代理店の過度なリスクを軽減する方法を確認する。
概要
GenAI システムのセキュリティを確保するには、従来のサイバーセキュリティ対策を拡張して、AI モデルがもたらす固有の課題(開発ライフサイクル、ユーザーやシステムとのやり取りなど)に対処する多面的なアプローチが必要です。この包括的な取り組みには、プロアクティブなテスト、継続的なモニタリング、堅牢なガバナンス、進化する規制フレームワークの遵守が含まれます。これらの原則を実践するうえで有効なのは、SAIF リスク自己評価などの業界ツールを使用して、リスクをより深く理解し、軽減することです。