هزاران هکر قرار ست مدلهای هوش مصنوعی گوگل، OpenAI و دیگر شرکتها را در DEFCON 31 مورد آزمایش قرار دهند.
به گزارش افتانا به نقل از پیسی مگ، تعدادی از ابزارهای
هوش مصنوعی اکنون به صورت عمومی در دسترس هستند، از بارد گوگل و هوش مصنوعی بینگ گرفته تا ابزاری که این روزها غوغا کرده است: ChatGPT، اما این مدلهای هوش مصنوعی واقعاً چه کاری میتوانند انجام دهند؟
ما به زودی متوجه خواهیم شد زیرا هکرها بزرگترین نامهای هوش مصنوعی را در رویداد Defcon 31 آزمایش میکنند.
کنوانسیون هکرها از شرکت کنندگان در گردهمایی امسال دعوت میکند تا اشکالات را در مدلهای زبان بزرگ ساخته شده توسط Anthropic،
گوگل، Hugging Face، انویدیا، OpenAI و Stability پیدا کنند.
DEFCON 31 برای 10 تا 13 آگوست در لاس وگاس آمریکا برنامهریزی شده است. تلاش هوش مصنوعی توسط دهکده هوش مصنوعی و با مشارکت Humane Intelligence، SeedAI و پایگاه داده آسیبپذیری هوش مصنوعی سازماندهی می شود. دفتر علم، فناوری و سیاست
کاخ سفید و همچنین مدیریت مهندسی و علوم کامپیوتر و اطلاعات بنیاد ملی علوم و انجمن هوش مصنوعی کنگره نیز در این امر دخیل هستند.
به گفته سازماندهندگان DEFCON ، این اولین بار است که کسی بیش از چند صد متخصص را برای ارزیابی این مدلها دعوت میکند. هر چه تعداد افرادی که بدانند چگونه با این مدلها و محدودیتهای آنها بهتر کار کنند بیشتر باشد، بهتر است. این فرصتی برای جوامع جدید برای یادگیری مهارتهای هوش مصنوعی با بررسی ویژگیها و محدودیتهای آن است.
سازماندهندگان دهکده هوش مصنوعی قرار است لپتاپ، دسترسی به هر مدل هوش مصنوعی و جایزهای را برای افرادی که بتوانند تعداد بیشتری از این مدلها را آزمایش کنند، اعطا کنند. برگزارکنندگان میگویند: ما سیستم نقطهای به سبک فتح پرچم (CTF) را برای ترویج آزمایش طیف گستردهای از آسیبها ارائه خواهیم کرد. فردی که بیشترین امتیاز را کسب کند، برنده یک پردازنده گرافیکی پیشرفته انویدیا خواهد شد.
شرکتکنندگان شامل محققان متخصص و همچنین دانشجویان از مؤسسات و جوامع نادیده گرفته شده خواهند بود. انتظار میرود همه به سوگند بقراط هکرها پایبند باشند.
کاخ سفید میگوید با مشارکت با یک نهاد غیردولتی از کارشناسان مستقل و بیطرف میخواهد تا تعیین کنند آیا این مدلها معیارهای مندرج در منشور حقوق هوش مصنوعی را برآورده میکنند. دفتر علم، فناوری و سیاست منشور حقوق را نوشت و بر ابتکار DEFCON نظارت دارد.
کاخ سفید میگوید: این تمرین مستقل اطلاعات مهمی در مورد تأثیرهای این مدلها در اختیار محققان و عموم قرار میدهد و شرکتها و توسعهدهندگان هوش مصنوعی را قادر میسازد تا برای رفع مشکلات موجود در این مدلها اقداماتی را انجام دهند.
منشور حقوق پنج اصل را مشخص می کند که دولت میگوید: باید طراحی، استفاده و استقرار سیستمهای خودکار را برای محافظت از مردم آمریکا در عصر هوش مصنوعی هدایت کند. این منشور ادعا میکند که همه افراد در مورد هوش مصنوعی از حقوق زیر برخوردار هستند:
1- شما باید از سیستمهای ناامن یا ناکارآمد محافظت کنید.
2- شما نباید با تبعیض الگوریتمها مواجه شوید و سیستمها باید به روشی عادلانه استفاده و طراحی شوند.
3- شما باید از طریق حفاظتهای داخلی در برابر شیوههای دادههای سوءاستفادهکننده در امان باشید و باید در مورد نحوه استفاده از دادههای مربوط به خود اختیار داشته باشید.
4- باید بدانید که یک سیستم خودکار در حال استفاده است و بدانید که چگونه و چرا به نتایجی که بر شما تأثیر میگذارد، کمک میکند.
5- شما باید بتوانید در صورت لزوم، انصراف دهید و به فردی دسترسی داشته باشید که بتواند به سرعت مشکلاتی را که با آن مواجه میشوید، بررسی و برطرف کند.
رویداد DEFCON به دنبال تسریع در کشف مسائلی است که این اصول را نقض میکنند. سازماندهندگان DEFCON میگویند که معمولاً شرکتهایی مانند گوگل و OpenAI فناوری خود را پشت درهای بسته یا از طریق برنامههای باگ بانتی خود آزمایش میکنند که باعث ایجاد مشکلاتی میشود که متخصصان امنیتی و عموم باید با آن مقابله کنند.
کاخ سفید نیز اعلام کرد که بنیاد ملی علوم، 140 میلیون دلار برای ایجاد هفت موسسه تحقیقاتی ملی هوش مصنوعی اختصاص داده است، در حالی که دفتر مدیریت و بودجه، پیشنویس سیاست استفاده از سیستمهای هوش مصنوعی توسط دولت را برای اظهار نظر عمومی در تابستان منتشر خواهد کرد.
کامالا هریس، معاون رئیس جمهور آمریکا همچنین با مدیران عامل آلفابت، آنتروپیک، مایکروسافت و OpenAI دیدار کرد تا در مورد توسعه سیستمهای هوش مصنوعی مسئولانه، قابل اعتماد و اخلاقی صحبت کند.
منبع:
PCMag