چهارشنبه ۵ دی ۱۴۰۳ , 25 Dec 2024
جالب است ۰
اطلاعات ورود به حساب کاربری بیش از صدهزار کاربر هوش مصنوعی مولد ChatGPT در وب تاریک فروخته شده است.
اطلاعات ورود به حساب کاربری بیش از صدهزار کاربر هوش مصنوعی مولد ChatGPT در وب تاریک فروخته شده است.
 
به گزارش افتانا به نقل از هکر نیوز، بیش از ۱۰۱ هزار و ۱۰۰ اعتبار حساب کاربری ChatGPT شرکت OpenAI به خطر افتاده بین ژوئن ۲۰۲۲ تا می ۲۰۲۳، در بازارهای غیرقانونی وب تاریک به فروش گذاشته شده‌اند که در این میان ۱۲ هزار و ۶۳۲ حساب کاربری مربوط به کاربران هندی بوده است.
 
Group-IB در گزارشی که با هکر نیوز به اشتراک گذاشته شده است، گفت: اعتبارنامه‌ها در لاگ‌های دزدیده شده که برای فروش در بخش غیرقانونی جرایم سایبری در دسترس قرار گرفته بودند، کشف شد.
 
بر اساس این گزارش، بیشترین اطلاعات فاش‌شده در سال گذشته به منطقه آسیا-اقیانوسیه مربوط می‌شود و حدود ۴۰ درصد از تمام آن‌ها را تشکیل می‌دهد. در این گزارش، کشور هند رتبه اول را به خود اختصاص داده و ایالات‌متحده با نزدیک به ۳ هزار مورد، جایگاه ششم بیشترین اطلاعات فاش‌شده را داشته است. فرانسه نیز پس از ایالات‌متحده در جایگاه هفتم است و قطب اصلی اروپا از نظر اطلاعات فاش‌شده محسوب می‌شود.
 
 
دیگر کشورهایی که تعداد حساب‌های کاربری سرقت‌شده در آن‌ها زیاد بود، پاکستان، برزیل، ویتنام، مصر، مراکش، اندونزی و بنگلادش بودند.
 
حساب‌های ChatGPT را می‌توان مستقیماً از طریق وب‌سایت OpenAI ایجاد کرد و همچین از حساب‌های گوگل، مایکروسافت یا اپل نیز می‌توان برای ورود و استفاده از خدمات این سرویس استفاده کرد. هرچند در این تحقیق روش‌های ثبت‌نام کاربران مورد بررسی قرار نگرفته است، اما به‌نظر دیمیتری شستاکوف، رئیس اطلاعات تهدید Group-IB، عمدتاً حساب‌هایی فاش شده‌اند که از «روش احراز هویت مستقیم» استفاده می‌کنند.
 
تجزیه و تحلیل بیشتر نشان می‌دهد که اکثر لاگ‌های حاوی حساب‌های کاربری ChatGPT توسط سه بدافزار سارق اطلاعات به نام‌های Raccoon (۷۸۳۴۸ مورد) و پس از آن Vidar (۱۲۹۸۴ مورد) و RedLine (۶۷۷۳ مورد) نقض شده‌اند.
 
 
با این حال، مسئولان شرکت OpenAI اعلام کرده‌اند که این شرکت در این حادثه سایبری مقصر نیست و همچنین اظهار داشتند: لاگ‌های شناسایی‌شده حاوی اطلاعات ورود به سیستم ذخیره‌شده ChatGPT، ضعف زیرساخت این چت‌بات را نشان نمی‌دهد.
 
Group-IB در گزارش خود همچنین با اشاره به این موضوع که کارمندان زیادی از ChatGPT برای کارهای خود استفاده می‌کنند، هشدار داد که در این شرایط، اطلاعات محرمانه شرکت‌ها ممکن است فاش شود؛ زیرا سؤالات کاربر و تاریخچه چت آن‌ها به‌طور پیش‌فرض ذخیره می‌شود. سپس هکرها می‌توانند از این اطلاعات برای حمله به شرکت‌ها یا کارمندان آن‌ها سوءاستفاده کنند.
 
منبع: The Hacker News
کد مطلب : 21030
https://aftana.ir/vdcfxxd0.w6dymagiiw.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی