تحقیقات نشان داده است که هنوز هم بسیاری از دادههای حساس در چتبات ChatGPT آپلود میشوند و در معرض خطر قرار میگیرند.
تحقیقات نشان داده است که هنوز هم بسیاری از دادههای حساس در چتبات ChatGPT آپلود میشوند و در معرض خطر قرار میگیرند.
به گزارش افتانا به نقل از تکرادار، دادههای جدید شرکت نرمافزاری Netskope حاکی از آن است که بسیاری از کارمندان با وجود آگاهی از خطر آشکار نشت یا نقض دادهها، اطلاعات حساس شرکتهای خود را با چتباتهای هوش مصنوعی مانند ChatGPT به اشتراک میگذارند.
این تحقیق روی حدود ۱.۷ میلیون کاربر در ۷۰ سازمان جهانی انجام شده است و در نتیجه این تحقیقات مشخص شد که بهطور متوسط ماهانه ۱۵۸ مورد کد منبع به ازای هر ۱۰ هزار کاربر در ChatGPT ارسال میشود که این مسئله را به مهمترین آسیبپذیری یک شرکت نسبت به سایر انواع دادههای حساس تبدیل میکند.
این در حالی است که موارد ارسال دادههای تنظیم شده و مالکیت معنوی در ChatGPT نسبت به اشتراک دادههای حساس در این چتبات هوش مصنوعی کمتر هستند. این مسئله ثابت میکند که بسیاری از توسعهدهندگان متوجه آسیبهایی که میتواند توسط کد منبع فاش شده ایجاد شود، نیستند.
در کنار خطراتی که میتواند شرکتهای استفادهکننده از هوش مصنوعی را تهدید کند، Netskope همچنین از افزایش علاقه به هوش مصنوعی خبر داد. ارقام منتشر شده در تحقیقات این شرکت حاکی از رشد ۲۲.۵ درصدی استفاده از اپلیکیشن GenAI در دو ماه گذشته است و همچنین، شرکتهای بزرگ با بیش از ۱۰ هزار کاربر روزانه بهطور متوسط از پنج برنامه هوش مصنوعی استفاده میکنند.
ChatGPT در هوش مصنوعی حرف اول را میزند و هشت برابر تعداد کاربران فعال روزانه نسبت به سایر برنامههای GenAI، کاربر دارد. با میانگین شش درخواست در روز، هر کاربر این پتانسیل را دارد که آسیب قابل توجهی به کارفرمای خود وارد کند.
سه برنامه برتر هوش مصنوعی مولد مورد استفاده سازمانها در سراسر جهان علاوه بر ChatGPT (۸۴ درصد) عبارتند از Grammarly (۹.۹ درصد) و Bard (۴.۵ درصد) که خود ChatGPT رشد سالم ۷.۱ درصدی در هفته را در مقایسه با ۱.۶ درصدی در هفته تجربه می کند.
بسیاری استدلال خواهند کرد که میتوان از آپلود کد منبع یا سایر اطلاعات حساس اجتناب کرد، اما مدیر تحقیقات تهدیدات Netskope، ری کانزانس، می گوید که این امر حتمی است. در عوض، Canzanese مسئولیت اجرای کنترلهای پیرامون هوش مصنوعی را بر عهده سازمانها میگذارد.
جیمز رابینسون، معاون مدیر امنیت اطلاعات Netskope، افزود: سازمانها باید بر توسعه آگاهی نیروی کار و سیاستهای داده تمرکز کنند تا نیازهای کارکنانی را که از محصولات هوش مصنوعی استفاده میکنند، برآورده کنند.
این شرکت به مدیران و تیمهای فناوری اطلاعات پیشنهاد میکند دسترسی به برنامههای غیرضروری یا برنامههایی را که خطر نامتناسبی دارند مسدود کنند، آموزشهای مکرر کاربران را ارائه دهد و از فناوریهای مدرن پیشگیری از از دست دادن دادهها استفاده کند.