چهارشنبه ۵ دی ۱۴۰۳ , 25 Dec 2024
جالب است ۰
هزاران هکر قرار است مدل‌های هوش مصنوعی گوگل، OpenAI و دیگر شرکت‌ها را در DEFCON 31 مورد آزمایش قرار دهند.
هزاران هکر قرار ست مدل‌های هوش مصنوعی گوگل، OpenAI و دیگر شرکت‌ها را در DEFCON 31 مورد آزمایش قرار دهند.
 
به گزارش افتانا به نقل از پی‌سی مگ، تعدادی از ابزارهای هوش مصنوعی اکنون به صورت عمومی در دسترس هستند، از بارد گوگل و هوش مصنوعی بینگ گرفته تا ابزاری که این روزها غوغا کرده است: ChatGPT، اما این مدل‌های هوش مصنوعی واقعاً چه کاری می‌توانند انجام دهند؟
 
ما به زودی متوجه خواهیم شد زیرا هکرها بزرگ‌ترین نام‌های هوش مصنوعی را در رویداد Defcon 31 آزمایش می‌کنند.
 
کنوانسیون هکرها از شرکت کنندگان در گردهمایی امسال دعوت می‌کند تا اشکالات را در مدل‌های زبان بزرگ ساخته شده توسط Anthropic، گوگل، Hugging Face، انویدیا، OpenAI و Stability پیدا کنند.
 
DEFCON 31 برای 10 تا 13 آگوست در لاس وگاس آمریکا برنامه‌ریزی شده است. تلاش هوش مصنوعی توسط دهکده هوش مصنوعی و با مشارکت Humane Intelligence، SeedAI  و پایگاه داده آسیب‌پذیری هوش مصنوعی سازماندهی می شود. دفتر علم، فناوری و سیاست کاخ سفید و همچنین مدیریت مهندسی و علوم کامپیوتر و اطلاعات بنیاد ملی علوم و انجمن هوش مصنوعی کنگره نیز در این امر دخیل هستند.
 
به گفته سازمان‌دهندگان DEFCON ، این اولین بار است که کسی بیش از چند صد متخصص را برای ارزیابی این مدل‌ها دعوت می‌کند. هر چه تعداد افرادی که بدانند چگونه با این مدل‌ها و محدودیت‌های آن‌ها بهتر کار کنند بیشتر باشد، بهتر است. این فرصتی برای جوامع جدید برای یادگیری مهارت‌های هوش مصنوعی با بررسی ویژگی‌ها و محدودیت‌های آن است.
 
سازمان‌دهندگان دهکده هوش مصنوعی قرار است لپتاپ، دسترسی به هر مدل هوش مصنوعی و جایزه‌ای را برای افرادی که بتوانند تعداد بیشتری از این مدل‌ها را آزمایش کنند، اعطا کنند. برگزارکنندگان می‌گویند: ما سیستم نقطه‌ای به سبک فتح پرچم (CTF) را برای ترویج آزمایش طیف گسترده‌ای از آسیب‌ها ارائه خواهیم کرد. فردی که بیشترین امتیاز را کسب کند، برنده یک پردازنده گرافیکی پیشرفته انویدیا خواهد شد.
 
شرکت‌کنندگان شامل محققان متخصص و همچنین دانشجویان از مؤسسات و جوامع نادیده گرفته شده خواهند بود. انتظار می‌رود همه به سوگند بقراط هکرها پایبند باشند.
 
کاخ سفید می‌گوید با مشارکت با یک نهاد غیردولتی از کارشناسان مستقل و بی‌طرف می‌خواهد تا تعیین کنند آیا این مدل‌ها معیارهای مندرج در منشور حقوق هوش مصنوعی را برآورده می‌کنند. دفتر علم، فناوری و سیاست منشور حقوق را نوشت و بر ابتکار DEFCON نظارت دارد.
 
کاخ سفید می‌گوید: این تمرین مستقل اطلاعات مهمی در مورد تأثیرهای این مدل‌ها در اختیار محققان و عموم قرار می‌دهد و شرکت‌ها و توسعه‌دهندگان هوش مصنوعی را قادر می‌سازد تا برای رفع مشکلات موجود در این مدل‌ها اقداماتی را انجام دهند.
 
منشور حقوق پنج اصل را مشخص می کند که دولت می‌گوید: باید طراحی، استفاده و استقرار سیستم‌های خودکار را برای محافظت از مردم آمریکا در عصر هوش مصنوعی هدایت کند. این منشور ادعا می‌کند که همه افراد در مورد هوش مصنوعی از حقوق زیر برخوردار هستند:
 
1- شما باید از سیستم‌های ناامن یا ناکارآمد محافظت کنید.
 
2- شما نباید با تبعیض الگوریتم‌ها مواجه شوید و سیستم‌ها باید به روشی عادلانه استفاده و طراحی شوند.
 
3- شما باید از طریق حفاظت‌های داخلی در برابر شیوه‌های داده‌های سوءاستفاده‌کننده در امان باشید و باید در مورد نحوه استفاده از داده‌های مربوط به خود اختیار داشته باشید.
 
4- باید بدانید که یک سیستم خودکار در حال استفاده است و بدانید که چگونه و چرا به نتایجی که بر شما تأثیر می‌گذارد، کمک می‌کند.
 
5- شما باید بتوانید در صورت لزوم، انصراف دهید و به فردی دسترسی داشته باشید که بتواند به سرعت مشکلاتی را که با آن مواجه می‌شوید، بررسی و برطرف کند.
 
رویداد DEFCON به دنبال تسریع در کشف مسائلی است که این اصول را نقض می‌کنند. سازمان‌دهندگان DEFCON می‌گویند که معمولاً شرکت‌هایی مانند گوگل و OpenAI فناوری خود را پشت درهای بسته یا از طریق برنامه‌های باگ بانتی خود آزمایش می‌کنند که باعث ایجاد مشکلاتی می‎شود که متخصصان امنیتی و عموم باید با آن مقابله کنند.
 
کاخ سفید نیز اعلام کرد که بنیاد ملی علوم، 140 میلیون دلار برای ایجاد هفت موسسه تحقیقاتی ملی هوش مصنوعی اختصاص داده است، در حالی که دفتر مدیریت و بودجه، پیش‌نویس سیاست استفاده از سیستم‌های هوش مصنوعی توسط دولت را برای اظهار نظر عمومی در تابستان منتشر خواهد کرد.
 
کامالا هریس، معاون رئیس جمهور آمریکا همچنین با مدیران عامل آلفابت، آنتروپیک، مایکروسافت و OpenAI دیدار کرد تا در مورد توسعه سیستم‌های هوش مصنوعی مسئولانه، قابل اعتماد و اخلاقی صحبت کند.
 
منبع: PCMag
کد مطلب : 20771
https://aftana.ir/vdcgqu9x.ak9zu4prra.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی