چهارشنبه ۵ دی ۱۴۰۳ , 25 Dec 2024
جالب است ۰
تحقیقات نشان داده است که هنوز هم بسیاری از داده‌های حساس در چت‌بات ChatGPT آپلود می‌شوند و در معرض خطر قرار می‌گیرند.
تحقیقات نشان داده است که هنوز هم بسیاری از داده‌های حساس در چت‌بات ChatGPT آپلود می‌شوند و در معرض خطر قرار می‌گیرند.
 
به گزارش افتانا به نقل از تک‌رادار، داده‌های جدید شرکت نرم‌افزاری Netskope حاکی از آن است که بسیاری از کارمندان با وجود آگاهی از خطر آشکار نشت یا نقض داده‌ها، اطلاعات حساس شرکت‌های خود را با چت‌بات‌های هوش مصنوعی مانند ChatGPT به اشتراک می‌گذارند.
 
این تحقیق روی حدود ۱.۷ میلیون کاربر در ۷۰ سازمان جهانی انجام شده است و در نتیجه این تحقیقات مشخص شد که به‌طور متوسط ماهانه ۱۵۸ مورد کد منبع به ازای هر ۱۰ هزار کاربر در ChatGPT ارسال می‌شود که این مسئله را به مهم‌ترین آسیب‌پذیری یک شرکت نسبت به سایر انواع داده‌های حساس تبدیل می‌کند.
 
این در حالی است که موارد ارسال داده‌های تنظیم شده و مالکیت معنوی در ChatGPT نسبت به اشتراک داده‌های حساس در این چت‌بات هوش مصنوعی کم‌تر هستند. این مسئله ثابت می‌کند که بسیاری از توسعه‌دهندگان متوجه آسیب‌هایی که می‌تواند توسط کد منبع فاش شده ایجاد شود، نیستند.
 
در کنار خطراتی که می‌تواند شرکت‌های استفاده‌کننده از هوش مصنوعی را تهدید کند، Netskope همچنین از افزایش علاقه به هوش مصنوعی خبر داد. ارقام منتشر شده در تحقیقات این شرکت حاکی از رشد ۲۲.۵ درصدی استفاده از اپلیکیشن GenAI در دو ماه گذشته است و همچنین، شرکت‌های بزرگ با بیش از ۱۰ هزار کاربر روزانه به‌طور متوسط از پنج برنامه هوش مصنوعی استفاده می‌کنند.
 
ChatGPT در هوش مصنوعی حرف اول را می‌زند و هشت برابر تعداد کاربران فعال روزانه نسبت به سایر برنامه‌های GenAI، کاربر دارد. با میانگین شش درخواست در روز، هر کاربر این پتانسیل را دارد که آسیب قابل توجهی به کارفرمای خود وارد کند.
 
سه برنامه برتر هوش مصنوعی مولد مورد استفاده سازمان‌ها در سراسر جهان علاوه بر ChatGPT (۸۴ درصد) عبارتند از Grammarly (۹.۹ درصد) و Bard (۴.۵ درصد) که خود ChatGPT رشد سالم ۷.۱ درصدی در هفته را در مقایسه با ۱.۶ درصدی در هفته تجربه می کند.
 
بسیاری استدلال خواهند کرد که می‌توان از آپلود کد منبع یا سایر اطلاعات حساس اجتناب کرد، اما مدیر تحقیقات تهدیدات Netskope، ری کانزانس، می گوید که این امر حتمی است. در عوض، Canzanese مسئولیت اجرای کنترل‌های پیرامون هوش مصنوعی را بر عهده سازمان‌ها می‌گذارد.
 
جیمز رابینسون، معاون مدیر امنیت اطلاعات Netskope، افزود: سازمان‌ها باید بر توسعه آگاهی نیروی کار و سیاست‌های داده تمرکز کنند تا نیازهای کارکنانی را که از محصولات هوش مصنوعی استفاده می‌کنند، برآورده کنند.
 
این شرکت به مدیران و تیم‌های فناوری اطلاعات پیشنهاد می‌کند دسترسی به برنامه‌های غیرضروری یا برنامه‌هایی را که خطر نامتناسبی دارند مسدود کنند، آموزش‌های مکرر کاربران را ارائه دهد و از فناوری‌های مدرن پیشگیری از از دست دادن داده‌ها استفاده کند.
 
منبع: Techradar
کد مطلب : 21175
https://aftana.ir/vdcftyd0.w6dyeagiiw.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی