این راهنما اطلاعات حیاتی را برای توسعهدهندگانی که برنامههای اندروید را با استفاده از هوش مصنوعی مولد (GenAI) میسازند، فراهم میکند. ادغام GenAI چالشهای منحصر به فردی را ایجاد میکند که فراتر از توسعه نرمافزار استاندارد است.
این راهنما به طور مداوم بهروزرسانی میشود تا خطرات جدید و در حال تکامل هوش مصنوعی را منعکس کند. از این محتوا برای درک خطرات قابل توجه مرتبط با ادغام قابلیتهای GenAI در برنامههای خود و کشف استراتژیهای مؤثر برای کاهش خطرات استفاده کنید.
تزریق سریع
یک مهاجم ورودیهای مخرب (دستورالعملها) را برای فریب مدل جهت دور زدن سیاستهای امنیتی و ایمنی یا انجام اقدامات ناخواسته ایجاد میکند. یک حمله موفقیتآمیز میتواند باعث شود مدل دادههای حساس را فاش کند، محتوای مضر تولید کند یا اقدامات ناخواستهای را انجام دهد و به اعتماد کاربر آسیب برساند. یاد بگیرید که چگونه حملات تزریق سریع را کاهش دهید.
افشای اطلاعات حساس
مدلهای هوش مصنوعی مولد، خطر قابل توجهی از افشای اطلاعات حساس را ایجاد میکنند و به طور بالقوه طیف وسیعی از دادهها را که هم LLM و هم زمینه کاربرد آن را تحت تأثیر قرار میدهند، نشت میدهند. نشت دادهها میتواند زمانی رخ دهد که مدل این دادههای محرمانه را به سایر کاربران ارسال کند، زمانی که ارائه دهندگان یادگیری ماشین به عنوان سرویس (MLaaS) به طور ناامن دستورات را ذخیره میکنند، یا زمانی که بازیگران مخرب از سیستم برای افشای منطق داخلی سوءاستفاده میکنند. عواقب آن شدید است، از نقض مالکیت معنوی و مجازاتهای نظارتی (به عنوان مثال، GDPR ، CCPA ) گرفته تا از دست دادن کامل اعتماد کاربر و به خطر افتادن سیستم. بیاموزید که چگونه خطر افشای اطلاعات حساس را کاهش دهید .
عاملیت بیش از حد
ادغام عاملهای LLM با توابع یا ابزارهایی برای انجام اقدامات میتواند خطرات امنیتی ایجاد کند. پیامهای مخرب که از فراخوانی تابع سوءاستفاده میکنند، میتوانند منجر به از دست رفتن ناخواسته دادهها شوند. توسعهدهندگان مسئول اجرای اقدامات حفاظتی (مانند رضایت کاربر، اعتبارسنجی، کنترلهای دسترسی) برای جلوگیری از اقدامات مضر هوش مصنوعی هستند. بیاموزید که چگونه ریسک بیش از حد عامل را کاهش دهید .
خلاصه
ایمنسازی سیستمهای GenAI نیازمند رویکردی چندوجهی است که شیوههای سنتی امنیت سایبری را برای پرداختن به چالشهای منحصر به فرد ناشی از مدلهای هوش مصنوعی، مانند چرخه عمر توسعه و تعامل با کاربران و سیستمها، گسترش دهد. این تلاش جامع شامل آزمایش پیشگیرانه، نظارت مستمر، حاکمیت قوی و پایبندی به چارچوبهای نظارتی در حال تحول است. یک راه عالی برای عملی کردن این اصول، استفاده از ابزارهای صنعتی مانند خودارزیابی ریسک SAIF برای درک بهتر و کاهش خطرات است.