اختصاصی افتانا: شرکت پشتیبان ChatGPT اقداماتی را برای رفع نگرانیهای مربوط به حریم خصوصی دادهها پیشنهاد خواهد کرد که باعث ممنوعیت موقت چتبات هوش مصنوعی در ایتالیا شد.
به گزارش افتانا به نقل از سکیوریتی ویک، مقام حفاظت از دادههای ایتالیا، معروف به Garante، هفته گذشته چتبات محبوب OpenAI مستقر در سانفرانسیسکو را مسدود کرد و به آن دستور داد تا به طور موقت پردازش اطلاعات شخصی کاربران ایتالیایی را در حالی که در حال بررسی نقض احتمالی قوانین حفظ حریم خصوصی دادههای
اتحادیه اروپا است، متوقف کند.
کارشناسان گفتند که این اولین مورد از این قبیل است که یک دموکراسی ممنوعیت سراسری را بر یک پلتفرم اصلی هوش مصنوعی اعمال میکند.
در یک تماس ویدیویی اواخر روز چهارشنبه بین کمیسیونهای سازمان دیدهبان و مدیران OpenAI از جمله مدیرعامل شرکت سام آلتمن، این شرکت قول داد اقداماتی را برای رفع نگرانیها انجام دهد. این راه حلها به تفصیل بیان نشده است.
ناظر ایتالیایی اعلام کرد که نمیخواهد مانع توسعه
هوش مصنوعی شود، اما به OpenAI بر اهمیت پیروی از قوانین سختگیرانه حریم خصوصی اتحادیه اروپا تأکید کرد.
رگولاتورها این ممنوعیت را پس از افشای پیامها و اطلاعات پرداخت برخی از کاربران در اختیار دیگران قرار دادند. آنها همچنین این سوال را مطرح کردند که آیا مبنای قانونی برای OpenAI برای جمع آوری مقادیر انبوهی از دادههای مورد استفاده برای آموزش الگوریتمهای
ChatGPT وجود دارد یا خیر و این نگرانی را مطرح کردند که سیستم گاهی اوقات اطلاعات نادرستی در مورد افراد ایجاد کند.
بهاصطلاح فناوری هوش مصنوعی مولد مانند ChatGPT روی مجموعهای از دادهها، از جمله کتابهای دیجیتال و نوشتههای آنلاین، آموزش داده شده و قادر به تولید متنی است که سبکهای نوشتاری انسان را تقلید میکند.
این سیستمها سر و صدایی در دنیای فناوری و فراتر از آن ایجاد کردهاند، اما همچنین باعث ایجاد ترس در بین مقامات، قانونگذاران و حتی دانشمندان کامپیوتر و رهبران صنعت فناوری درباره خطرات اخلاقی و اجتماعی احتمالی شدهاند.
پس از اقدام ایتالیا، سایر تنظیمکنندهها در اروپا و جاهای دیگر توجه بیشتری را به خود جلب کردهاند.
کمیسیون حفاظت از دادههای ایرلند گفت: در حال پیگیری با رگولاتور ایتالیایی برای درک مبنای اقدام آنها است و ما با تمام مقامات حفاظت از داده اتحادیه اروپا در رابطه با این موضوع هماهنگ خواهیم کرد.
رگولاتور حریم خصوصی دادههای فرانسه، CNIL پس از دریافت دو شکایت درباره ChatGPT گفت که در حال بررسی است. کمیسر حریم خصوصی کانادا نیز پس از دریافت شکایتی درباره مشکوک شدن به جمعآوری، استفاده و افشای اطلاعات شخصی بدون رضایت، تحقیقاتی را در مورد OpenAI آغاز کرده است.
در یک پست وبلاگی در این هفته، دفتر کمیسری اطلاعات بریتانیا هشدار داد که سازمانهایی که در حال توسعه یا استفاده از هوش مصنوعی مولد هستند باید از همان ابتدا تعهدات حفاظت از دادههای خود را در نظر بگیرند و سیستمهایی را با حفاظت از دادهها به عنوان پیشفرض طراحی کنند.
این دفتر گفت: این مسئله اختیاری نیست - اگر دادههای شخصی را پردازش میکنید، این قانون است.
در پاسخی آشکار به نگرانیها، OpenAI یک پست وبلاگی را روز چهارشنبه منتشر کرد که در آن رویکرد خود به ایمنی هوش مصنوعی را تشریح کرد. این شرکت اعلام کرد که در صورت امکان، اطلاعات شخصی را از دادههای آموزشی حذف میکند، مدلهای خود را برای رد درخواستهای اطلاعات شخصی افراد خصوصی تنظیم میکند و بر اساس درخواستهای حذف اطلاعات شخصی از سیستمهای خود عمل میکند.
منبع:
Security Week