پنجشنبه ۶ دی ۱۴۰۳ , 26 Dec 2024
جالب است ۰
یک شرکت تحلیلی و سرمایه‌گذاری ادعا کرده است که استفاده از ابزار هوش مصنوعی مانند ChatGPT می‌تواند اسرار شرکت‌ها را به خطر بیندازد.
یک شرکت تحلیلی و سرمایه‌گذاری ادعا کرده است که استفاده از ابزار هوش مصنوعی مانند ChatGPT می‌تواند اسرار شرکت‌ها را به خطر بیندازد.
 
به گزارش افتانا، استفاده گسترده از هوش مصنوعی می‌تواند فواید زیادی به همراه داشته باشد، اما چندان بدون ضرر هم نیست و یک شرکت سرمایه‌گذاری ادعا می‌کند که شرکت‌هایی که از ابزارهای هوش مصنوعی مولد مثل ChatGPT استفاده می‌کنند، احتمالاً اطلاعات محرمانه مشتریان و اسرار تجاری خود را در معرض خطر قرار می‌دهند.
 
شرکت سرمایه‌گذاری Team8 ادعا کرده است که استفاده از چت‌بات‌های هوش مصنوعی می‌تواند شرکت‌ها را مستعد افشای اطلاعات و شکایت‌های قضایی کند. تحلیلگران باور دارند که این چت‌بات‌ها می‌توانند توسط هکرها برای دستیابی به اطلاعات حساس شرکتی یا انجام عملیات علیه یک کسب‌وکار استفاده شوند.
 
ابزارهای هوش مصنوعی با اطلاعات موجود در اینترنت تعلیم داده شده‌اند، اما حالا با رواج این ابزارها در میان مردم، اگر اطلاعات محرمانه دولتی یا شرکت‌های خصوصی به آن‌ها داده شود، حذف این اطلاعات از حافظه چت‌بات‌ها کار سختی خواهد بود.
 
تحلیلگران این شرکت سرمایه‌گذاری می‌گویند: استفاده تجاری از هوش مصنوعی زایا با ارائه مستقیم داده یا از طریق API می‌تواند به دستیابی و پردازش اطلاعات حساس، مالکیت‌های فکری، کد منبع، اسرار تجاری و دیگر داده‌ها منجر شود.
 
این شرکت باور دارد که ریسک این مسئله بالاست، اما اگر تدابیر ایمنی مناسبی را در نظر بگیریم، می‌تواند این ریسک را کنترل کرد.
 
البته Team8 متذکر شده است که مدل‌های زبانی بزرگ درحال‌حاضر نمی‌توانند در لحظه اطلاعات خود را به‌روز کنند و به همین خاطر اطلاعات یک کاربر را در پاسخ کاربر بعدی ارائه نمی‌کنند. اما شرکت‌ها می‌توانند از ورودی‌های کاربر در آموزش نسخه‌های بعدی ابزارهای هوش مصنوعی استفاده کنند.
 
در این گزارش از سه ریسک دیگر سخن به میان آمده است؛ برای مثال، در سمت کاربر، اگر اپلیکیشن‌های شخص ثالث از API یک هوش مصنوعی زایا استفاده کنند، چنانچه این API به خطر بیفتد، امکان دسترسی به ایمیل و مرورگر وب کاربران وجود خواهد داشت.
 
از طرف دیگر، این ریسک وجود دارد که هوش مصنوعی تبعیض را گسترش دهد، به اعتبار شرکت‌ها آسیب بزند یا آن‌ها را با مشکلات کپی‌رایت روبه‌رو کند.
کد مطلب : 20698
https://aftana.ir/vdcevp8w.jh87oi9bbj.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی