شرکت گوگل در نظر دارد تا بهسرعت چارچوبی را برای ایمنسازی هوش مصنوعی مولد طراحی کند.
شرکت گوگل در نظر دارد تا بهسرعت چارچوبی را برای ایمنسازی هوش مصنوعی مولد طراحی کند.
به گزارش افتانا به نقل از اینفوسکیوریتی، هوش مصنوعی مولد به سرعت در حال پیشرفت است، اما راههای خلاقانهای که مردم برای استفاده مخرب از آن پیدا میکنند نیز روز به روز تغییر میکند. بسیاری از دولتها در تلاش هستند تا برنامههای کنترلکننده خود را برای کاهش خطر سوءاستفاده از هوش مصنوعی تسریع کنند.
در همین حال، برخی از توسعهدهندگان هوش مصنوعی مولد به دنبال این هستند که چگونه میتوانند به امنیت مدلها و خدمات خود کمک کنند. گوگل، مالک چتبات مولد هوش مصنوعی Bard و شرکت مادر آزمایشگاه تحقیقاتی هوش مصنوعی DeepMind، چارچوب هوش مصنوعی امن (SAIF) خود را در 8 ژوئن 2023 رونمایی کرد.
رویال هانسن، معاون مهندسی حریم خصوصی، ایمنی و امنیت گوگل و فیل ونبلز، مدیر ارشد Google Cloud در اعلام کردند SAIF یک چارچوب مفهومی جسورانه و معتبر برای کمک به امنیت مشترک فناوری هوش مصنوعی باشد.
این تلاش مبتنی بر تجربه گوگل در توسعه مدلهای امنیت سایبری، مانند چارچوب مشارکتی سطوح زنجیره تأمین برای مصنوعات نرمافزاری (SLSA) و BeyondCorp، معماری اعتماد صفر آن است که توسط بسیاری از سازمانها استفاده میشود.
SAIF به طور خاص «اولین گام» است که برای کمک به کاهش خطرات خاص سیستمهای هوش مصنوعی مانند سرقت مدل، مسمومیت دادههای آموزشی، ورودیهای مخرب از طریق تزریق سریع و استخراج اطلاعات محرمانه در دادههای آموزشی طراحی شده است.
SAIF حول شش اصل مرکزی بنا شده است:
1) گسترش پایههای امنیتی قوی در اکوسیستم هوش مصنوعی، از جمله استفاده از حفاظت از زیرساختهای پیشفرض (مانند تکنیکهای کاهش تزریق SQL)
2) گسترش تشخیص و پاسخ برای وارد کردن هوش مصنوعی به دنیای تهدید یک سازمان: نظارت بر ورودیها و خروجیهای سیستمهای هوش مصنوعی مولد برای شناسایی ناهنجاریها و استفاده از هوش تهدید برای پیشبینی حملات
3) خودکار کردن دفاع به منظور همگام شدن با تهدیدات موجود و جدید
4) هماهنگ کردن کنترلهای سطح پلتفرم برای اطمینان از امنیت پایدار در سراسر سازمان، از Vertex AI و Security AI Workbench متعلق به گوگل و Perspective API، یک API منبع باز و رایگان که توسط تیمهای فناوری Jigsaw و Counter Abuse Google ایجاد شده و از یادگیری ماشینی برای شناسایی استفاده میکند
5) تطبیق کنترلها برای تنظیم کاهشها و ایجاد حلقههای بازخورد سریعتر برای استقرار هوش مصنوعی، از جمله تکنیکهایی مانند یادگیری تقویتی بر اساس حوادث و بازخورد کاربر، بهروزرسانی مجموعه دادههای آموزشی، مدلهای تنظیم دقیق برای پاسخ استراتژیک به حملات و تمرین تیم قرمز
6) زمینهسازی ریسکهای سیستم هوش مصنوعی در فرآیندهای کسبوکار اطراف با انجام ارزیابیهای ریسک سرتاسر مرتبط با نحوه استقرار هوش مصنوعی توسط سازمانها
ونبلز و هانسن همچنین تصریح کردند که به زودی چندین ابزار منبع باز برای کمک به اجرای عناصر SAIF برای امنیت هوش مصنوعی منتشر خواهد شد.
آنها همچنین متعهد شدند که برنامههای شکار اشکالات گوگل را برای پاداش و تشویق به تحقیقات پیرامون ایمنی و امنیت هوش مصنوعی گسترش دهند.
در نهایت، آنها گفتند که گوگل متعهد به کمک به توسعه استانداردهای بینالمللی در زمینه امنیت هوش مصنوعی، مانند چارچوب مدیریت ریسک هوش مصنوعی و چارچوب امنیت سایبری مؤسسه ملی استانداردها و فناوری ایالات متحده (NIST) و همچنین سیستم مدیریت هوش مصنوعی ISO/IEC 42001 و استانداردهای سیستم مدیریت امنیت ISO/IEC 27001 است.