زومیت: هوش مصنوعی با وجود مزیتهای هیجانانگیز فراوان، میتواند از سوی کلاهبرداران نیز مورد سوءاستفاده قرار بگیرد.
به گزارش افتانا، یک زوج کانادایی ۷۰ ساله اخیراً از طرف نوهی خود تماسی تلفنی دریافت کردند که به آنها گفت در زندان است و به پول وثیقه نیاز دارد. آنها ۳۰۰۰ دلار از حساب بانکی خود برداشت کردند و قصد داشتند همین مقدار پول را از حساب دیگر خود دریافت کنند اما مدیر بانک هشدار داد که تماس مذکور درواقع کلاهبرداری است؛ زیرا قبلاً یکی دیگر از مشتریان آنها تماسی مشابه را دریافت کرده بود که بعداً مشخص شد آن تماس نیز جعلی بوده است.
زوج دیگری تماسی از یک وکیل دریافت کردند که به آنها اعلام کرد پسرشان یک دیپلمات آمریکایی را در تصادف رانندگی کشته است و اکنون در زندان بهسر میبرد و برای تأمین هزینههای قانونی به پول احتیاج دارد. این وکیل حتی پسر زوج مذکور را پشت تلفن آورد تا به آنها بگوید دوستشان دارد و از آنها بابت پولی که پرداخت میکنند قدردانی میکند.
این زوج میگویند صدای پخششده شباهت بسیار زیادی به صدای پسر آنها داشت و بههمیندلیل باور کردند که واقعاً با او صحبت کردهاند. آنها مبلغ ۱۵۴۴۹ دلار را از طریق شبکه بیتکوین برای شخص کلاهبردار ارسال کردند و موفق به پس گرفتن آن نشدند.
کلاهبرداری از طریق جعل صدای دیگران، موضوع جدیدی نیست. دادههای کمیسیون تجارت فدرال آمریکا نشان میدهد از هر ۳۶ هزار گزارش مربوط به کلاهبرداری در سال گذشته که وانمود کردهاند دوست یا خانواده افراد هستند، بیش از ۵۱۰۰ مورد آنها جعلی بودهاند.
تِکاسپات مینویسد، فرایند جعل صدا قبلاً بسیار پیچیدهای بود و برای انجام این کار به جمعآوری چندین ساعت صدای شخص موردنیاز نیاز داشتید و البته همیشه کیفیت بالایی هم ارائه نمیداد. اکنون با روی کار آمدن ابزارهای هوش مصنوعی، فرایند شبیهسازی صدای دیگران بسیار آسان است و کلاهبرداران فقط به کلیپ بسیار کوچکی از صحبت کردن آنها نیاز دارند و این مورد نیز در اغلب موارد در حسابهای کاربری رسانههای اجتماعی افراد موجود است.
ابزار Vall-E
مایکروسافت که ماه ژانویه معرفی شد بر پایه فناوری دیگری موسوم به EnCodec کار میکند. این ابزار با تجزیهوتحلیل سه ثانیه از صدای افراد و استفاده از آن برای آموزش مدلهای هوش مصنوعی، میتواند صدای آنها را با کیفیت بالا شبیهسازی کند. این فناوری حتی لحن، تن صدا و احساس گوینده را نیز تقلید میکند. با مراجعه به صفحه گیتها این پروژه میتوانید قدرت آن را در تقلید صدای دیگران مشاهده کنید.
ElevenLabs نیز ابزار صوتی مبتنیبر هوش مصنوعی دیگری بهنام VoiceLab ارائه داده است که امکان شبیهسازی صدای افراد را با روشی آسان فراهم میکند. البته سوءاستفادههای فراوان از این برنامه باعث شد قابلیت شبیهسازی صدا از نسخه رایگان آن حذف شود.