اجلاس ایمنی هوش مصنوعی ۲۰۲۳ برای اولینبار برگزار شد تا شروع تلاشی گسترده برای جلوگیری از نابودی بشر بهدست هوش مصنوعی باشد.
به گزارش افتانا، هوش مصنوعی و مدلهای مبتنیبر آن مدتهاست که بین ما هستند؛ اما با رونمایی از چتبات ChatGPT و پس از آن، دیگر مولدهای هوش مصنوعی مثل میدجرنی و Dall-E، همه چیز تغییر کرد. کمکم شگفتزدگی و لذت پرسیدن سوالهای فراوان از چتباتها، جای خود را به ترس و دلهره داد. مردم به این فکر افتادند که اگر روزی هوش مصنوعی جایگاه شغلیشان را بهخطر بیندازد چه باید بکنند و دولتها به رباتهایی فکر میکردند که از کنترل انسان خارج شدهاند و با درکی فراانسانی در پی تیشه زدن به ریشه بشریت هستند.
فیلمهای علمیتخیلی درنهایت کار خودشان را کردند، مقالههای فراوانی در این مورد نوشته شد و نظریههای مختلفی بیان شد تا جاییکه در آخرین صحبتهای ایلان ماسک و بسیاری دیگر ازجمله جفری هینتون معروفبه پدرخواندهی هوش مصنوعی، AI فناوری تهدیدآمیزی برای بشر تلقی گردید.
به دنبال تمام هراسها و اضطرابها، بالاخره بریتانیا برای قانونمند کردن توسعهی هوش مصنوعی قدم برداشت. نخستوزیر بریتانیا، ریشی سوناک، اولین اجلاس ایمنی هوش مصنوعی را با حضور ۲۸ کشور دنیا برگزار کرد. اجلاس جهانی ایمنی هوش مصنوعی، طی دو جلسه در روزهای اول و دوم نوامبر ۲۰۲۳ (دهم و یازدهم آبان) حدود ۱۵۰ نماینده از سراسر جهان از جمله رهبران دولت و وزیران، رهبران صنعت، دانشگاه و جامعه مدنی و بزرگان این حوزه را گرد هم آورد تا دربارهی آیندهی هوش مصنوعی صحبت کنند.
سوناک در سخنرانی ۲۶ اکتبر، چارچوب بحث اجلاس سران را مطرح کرده بود. طی این سخنرانی، او از مزیتها و خطرات احتمالی هوش مصنوعی صحبت کرد و به مردمش اطمینان خاطر داد که از آنها محافظت خواهد کرد. تأسیس اولین مؤسسه ایمنی هوش مصنوعی جهان در بریتانیا یکی از برنامههای سوناک بود. بهگفتهی او، این مؤسسه باعث ارتقای دانش جهان در مورد ایمنی هوش مصنوعی خواهد شد و انواع جدید هوش مصنوعی را بهدقت بررسی، ارزیابی و آزمایش خواهد کرد.
برنامه بعدی سوناک، میزبانی اولین اجلاس جهانی ایمنی هوش مصنوعی با دعوت از برجستهترین نمایندگان جهان، شرکتهای پیشرو هوش مصنوعی و کشورهای پیشرفته در استفاده از آن بود. درکمال تعجب و حتی مخالفت بسیاری از سران، چین نیز به این اجلاس دعوت شد؛ زیرا سوناک و تیمش عقیده دارند بهمنظور دستیابی به یک استراتژی جدی برای هوش مصنوعی، باید تمام قدرتهای پیشرو هوش مصنوعی جهان با هم همکاری داشته باشند.
یکی از حرکات نمادین بریتانیا، برگزاری اجلاس در پارک بلچلی بود. بلچلی نقطهای است که سالها پیش آلن تورینگ، پدر علوم کامپیوتر و هوش مصنوعی، در آنجا موفق به شکستن رمز انیگما شد. اولین گامها به سمت هوش مصنوعی در این نقطه برداشته شد و حالا تصمیمات مهم دربارهی روشهای ایمن کردن هوش مصنوعی در همینجا گرفته شد.
علت برگزاری اجلاس ایمنی هوش مصنوعی چه بود
در پی دسترسی بیشتر به تراشههای بهتر و قدرت محاسباتی بالاتر، هوش مصنوعی با سرعت بیسابقهای در حال توسعه است. به گفته سوناک، جهان در نقطهی عطف انقلاب تکنولوژیکی نسلی قرار دارد و اگر خواهان بهرهبری از مزایای هوش مصنوعی هستیم، باید خطرات آن را برطرف کنیم.
هدف اصلی اجلاس، شروع گفتوگوی جهانی دربارهی مدلهای «هوش مصنوعی پیشتاز» (Frontier AI) بود. این اصطلاح به مدلهای هوش مصنوعی همهمنظورهی بسیار توانمند اشاره دارد که میتوانند طیف گستردهای از وظایف را انجام دهند و با قابلیتهای موجود در پیشرفتهترین مدلهای امروزی مطابقت کنند یا حتی از آن فراتر روند. قابلیتهای سیستمهای هوش مصنوعی قدرتمند فرصتها و البته خطرات بیسابقهای را بههمراه خواهد داشت.
جلسه ۱ نوامبر امکان گفتوگوی آزادی را فراهم کرد که در آن انواع خطرات ناشی از هوش مصنوعی پیشتاز و نقش بازیگران مختلف در پاسخ به آنها و همچنین فرصتهای قابل توجه هوش مصنوعی در حوزههای مختلف مورد توجه قرار گرفت. در ۲ نوامبر، بحثها بیشتر بر روی تأثیرات هوش مصنوعی، گزینههایی برای همکاری مؤثر و چگونگی پیشبرد مأموریت ایمنی جهانی هوش مصنوعی متمرکز شد.
در ابتدای نشست، ویدیویی درمورد پیشرفت هوش مصنوعی پخش شد، سپس جملهای روی پرده نقش بست: «از تاریخ یاد گرفتهایم وقتی با هم هستیم، دنیا جای امنتری است». سپس جمله محو شد و کلمهی «با هم» روی پرده ماند.
میشل دونلان، وزیر امور خارجهی علم و نوآوری و فناوری بریتانیا، روی صحنه رفت تا سخنرانی خود را شروع کند. به گفتهی او، ازآنجاکه مسئلهی امنیت هوش مصنوعی، مسئلهای جهانی است، برای حل آن نیز باید در سطح جهانی هماهنگ بود. اما هر کشوری به مقررات خاص خود نیاز دارد، زیرا ارزشهای موردتأکید هر کشور متفاوت است؛ بااینحال همه میتوانند بر روی برخی از اصول اساسی ایمنی به توافق برسند.
سخنرانی دونلان با طرح سوالها و پیشنهاد راهحل پایان یافت. نسل آینده چگونه ما را قضاوت خواهد کرد؟ ما باید مراقب نسل آینده باشیم و اطمینان حاصل کنیم که آنها به جنبهی مثبت فناوری جدید دسترسی خواهند داشت.
نگرانیهای مورد بحث در نشست بلچلی
سران نشست بر روی یک موضوع توافق داشتند؛ اینکه هوش مصنوعی پیشتاز باید برای اهداف عالی و به سمت خیر هدایت شود. دراینبین، تصمیمگیری مسئولان باید بهگونهای باشد که جنبههای مثبت هوش مصنوعی قربانی جنبههای منفی احتمالی نشود.
تولید و انتشار اطلاعات نادرست و سوگیریهای هوش مصنوعی یکی از اولیهترین نگرانیهای افراد حاضر در نشست بود. توانایی چتباتها در تولید متن، صدا، تصاویر و ویدیوهایی که شباهت زیادی به واقعیت دارند، از نگرانیهای غیرقابل انکار دولتها از آیندهی فناوری است. بسیاری معتقدند که اطلاعات نادرست تولیدشده توسط هوش مصنوعی میتواند بر انتخابات پیشروی ایالات متحده و هند و انتخابات اندونزی، مکزیک و بریتانیا در سال آینده تأثیر بگذارد.
اما بهغیر از این موضوع، خطر بزرگتری نیز وجود دارد. اگر سلاحی تا این اندازه قدرتمند به دست افراد ناشایست بیفتد، ممکن است مسیر هوش مصنوعی به سمت شر عوض شود. سوءاستفاده از هوش مصنوعی پیشتاز برای جنگ، حملات سایبری گسترده، سلاحهای زیستی فرمولهشده، کلاهبرداریهای عظیم و مواردی از این دست از اتفاقات نابخشودنی و هولناکی هستند که از الان باید به فکر جلوگیری از آنها بود.
این احتمال نیز که هوش مصنوعی ممکن است به دلیل اختلال در عملکرد یا دستیابی به ابرهوش که از ادراک انسانی فراتر است، به انسان آسیب برساند، در نشست مطرح شد. در روز دوم نشست، ایلان ماسک در مورد چنین احتمالی با سوناک گفتوگو کرد. از آنجا که پیشرفت تکنولوژی بسیار سرعت یافته است، خودمختارشدن هوش مصنوعی دور از ذهن نیست و باید زودتر چارهای برای خطرات احتمالی اندیشید.
ایلان ماسک درگفتوگو با ریشی سوناک، فناوری نوپای هوش مصنوعی را به «غول چراغ جادو» تشبیه کرد: «داستان هوش مصنوعی شبیه به داستان غول چراغ جادو است. وقتی یک غول جادویی وجود دارد که میتواند همهی آرزوها را برآورده کند، معمولاً داستان به جای خوبی ختم نمیشود. مراقب باش چه چیزی آرزو میکنی.»
وقتی هم از ماسک در مورد تأثیر هوش مصنوعی بر بازار کار پرسیده شد، آن را «مخربترین نیروی تاریخ» خواند و گفت که این فناوری هوشمندتر از باهوشترین انسانها خواهد بود: «زمانی فرامیرسد که به هیچ شغلی نیاز نیست. اگر میخواهید شغلی برای رضایت شخصی داشته باشید، میتوانید کار کنید، اما هوش مصنوعی قادر به انجام همهی کارها خواهد بود.»
موضوع مورد بحث دیگر این بود که آیا مدلهای پیشرفتهی هوش مصنوعی مجاز به متنباز بودن هستند یا خیر. برخی از شرکتها مانند متا و استارتاپهایی چون Hugging Face و Mistral و Stability AI در حال ساخت سیستمهای هوش مصنوعی متنباز هستند؛ یعنی جزئیات فنی مدلهای آنها بهصورت عمومی منتشر میشود تا همه بتوانند از آن استفاده کنند. کار آنها در تضاد با رویکرد رقبایی مانند OpenAI و گوگل است که به اصطلاح جعبه سیاهی ایجاد میکنند که در آن دادهها و کدهای مورد استفاده برای ساخت مدلهای هوش مصنوعی دردسترس اشخاص ثالث قرار نمیگیرد.
مدافعان مدلهای متنبسته میگویند که این مدلها بهتر میتوانند مقررات سختگیرانه را رعایت کنند و اشخاص و منابعی را که به آنها دسترسی دارند، کنترل کنند تا به دست افراد نادرست نیفتند. اما برخی دیگر استدلال میکنند که مدلهای متنباز به گروههای دانشگاهی و کشورهایی که منابع کمتری دارند کمک میکند تا سیستمهای هوش مصنوعی خود را توسعه دهند.
برخی از کارشناسان هشدار دادهاند که مدلهای متنباز ممکن است توسط تروریستها برای تولید سلاحهای شیمیایی یا حتی ایجاد یک ابرهوش خارج از کنترل انسان استفاده شوند.
تصمیمگیری در این مورد سخت است، زیرا مدلهای متنباز گرچه ممکن است خطرات خاصی را برای ایمنی ایجاد کنند، اما همچنین قادرند نوآوری و شفافیت را با توجه به تکنیکهای ایمنی ارتقا دهند.
در نشست بلچلی چه گذشت؟
نشست بلچلی نقطهای برای شروع مباحث حول امینت هوش مصنوعی در بالاترین سطح ممکن است. هر هیئتی در نشست، ادعای برتری در اعمال مقررات هوش مصنوعی را داشت؛ از دیپلماتهای اروپایی که چهار سال پیش فرایند نظارتی را آغاز کردهاند گرفته تا آمریکاییهایی که دربارهی قدرت مؤسسه ایمنی جدید هوش مصنوعی خود صحبت میکردند.
درواقع پیش از برگزاری اجلاس، کاخ سفید قدرت خود را برای تنظیم دستور کار هوش مصنوعی آشکار کرد. بر اساس فرمان اجرایی صادرشده جو بایدن، رئیسجمهور آمریکا، شرکتهای فناوری موظف شدند نتایج آزمایش سیستمهای هوش مصنوعی قدرتمند را قبل از انتشار عمومی به دولت ارائه دهند و نحوه تضمین ایمنی ابزارهای خود را به اشتراک بگذارند.
این فرمان اجرایی که بر آسیبهای جاری مانند حریم خصوصی، امنیت، تبعیض و اطلاعات نادرست تمرکز دارد، بیش از ۲۵ سازمان دولتی را در بر میگیرد. این جامعترین تلاش تا به امروز برای تنظیم مقررات بزرگترین شرکتهای هوش مصنوعی در جهان است.
کامالا هریس، معاون بایدن، در روز اول اجلاس در لندن دربارهی هوش مصنوعی سخنرانی کرد و از تأسیس مؤسسهی ایمنی هوش مصنوعی خبر داد که مشابه با چیزی بود که سوناک در سخنرانی ۲۶ اکتبر گفته بود. او بر اقداماتی که دولت بایدن برای پاسخگویی شرکتهای فناوری انجام داده است، تأکید کرد. هریس در روز دوم اجلاس گفت که اقدام جسورانهی ایالات متحده باید برای سایر کشورها الهامبخش و آموزنده باشد.
در بین کشورهای جهان، آمریکا بیشترین تسلط را بر تحقیق و توسعهی هوش مصنوعی دارد. براساس گزارش وضعیت هوش مصنوعی در سال ۲۰۲۳، ایالات متحده در سه سال گذشته بیش از ۷۰ درصد از مقالات تحقیقاتی هوش مصنوعی را تولید کرده است. در این گزارش، چین و بریتانیا در رتبهی دوم و سوم قرار دارند.
شرکتها و دانشگاههای مستقر در ایالات متحده به رهبری گوگل، متا و مایکروسافت، ۹ مؤسسه از ۱۰ مؤسسه تحقیقاتی برتر را تشکیل میدهند. تنها استثنا DeepMind لندن است که گوگل آن را در سال ۲۰۱۴ خریداری کرد. در سال ۲۰۲۲، این سه شرکت تقریباً ۶۰۰ میلیارد دلار درآمد ایجاد کردند. ارزش بازار آنها در مجموع ۵ تریلیون دلار است که بیش از دو برابر ارزش ۱۰۰ شرکت برتر فهرستشده در فهرست بریتانیا (۲٫۴ تریلیون دلار) است.
شرکتهای مذکور در حال حاضر فقط به کدهای اخلاقی خودشان پایبندند و با محدودیتهای کمی برای چگونگی توسعهی هوش مصنوعی مواجه هستند. اما ریشی سوناک، نخست وزیر بریتانیا، گفت که مؤسسات ایمنی بینالمللی مدلهای پیشتاز را آزمایش خواهند کرد و ایالات متحده تأیید کرد که با ایجاد مؤسسه ایمنی خود از نمونهی بریتانیا الگوبرداری میکند.
هریس که رهبری تدوین سیاست هوش مصنوعی دولت آمریکا را بر عهده داشته است، در سخنرانی در سفارت ایالات متحده در لندن، توضیح داد که واشنگتن بازرسیهای سرزدهی بیشتری از شرکتهای بزرگ تدارک خواهد دید. او گفت که تاریخ نشان داده است در غیاب مقررات و نظارت قوی دولت، برخی از شرکتهای فناوری سود را بر رفاه مشتریان خود، ایمنی جوامعشان و ثبات دموکراسیهای دولت ترجیح میدهند.
با وجود تنشهای ژئوپلیتیکی معاون وزیر علوم و فناوری چین، وو ژائوهوی، در این مراسم سخنرانی کرد. ایالات متحده به دلیل نگرانی های امنیت ملی در تلاش است تا پیشرفت هوش مصنوعی چین را محدود کند. محدود کردن فروش تراشههای هوش مصنوعی پیشرفته به چین از جمله اقدامات دیگر آمریکا علیه چین است.
بریتانیا چین را به این اجلاس دعوت کرد، زیرا چین در زمینهی هوش مصنوعی پیشرو است و کنار گذاشتن این کشور عقلانی نیست. وو در سخنرانی خود گفت چین مایل است گفتوگو و ارتباطات را در زمینهی ایمنی هوش مصنوعی با همه طرفها تقویت کند. او اعلام کرد که با سایر سران در مورد ارزشهای مشترک «دموکراسی» و «آزادی» و مبارزه با استفادههای مخرب هوش مصنوعی اتفاق نظر دارد.
به گفته نمایندهای حاضر در نشست، یکی از دلایلی که چین را در ایجاد موضع مشترک در مورد حکمرانی جهانی هوش مصنوعی بسیار انعطافپذیر کرده، این است که «خوب بازی کردن» و «مسئولیتپذیری» ممکن است در آینده به تقویت گفتوگوها در مورد کاهش موانع تجاری تحمیلشده توسط ایالات متحده به چین، کمک کند.
دستاوردهای نشست ایمنی هوش مصنوعی
بریتانیا با مؤسسه ایمنی هوش مصنوعی ایالات متحده و با سنگاپور برای همکاری در آزمایش ایمنی هوش مصنوعی موافقت کرد. شرکتهای پیشرو هوش مصنوعی موافقت کردند که به این دولتها اجازه دهند تا آخرین مدلهایشان را قبل از عرضه به کسبوکارها و مصرفکنندگان، از نظر امنیت ملی و خطرات دیگر آزمایش کنند.
درنهایت شرکتهایی از جمله OpenAI، گوگل دیپمایند، Anthropic، متا، مایکروسافت و آمازون نشست دو روزه را با امضای رهنمود کلی که البته قانون لازمالاجرا نیست، خاتمه دادند. دولتهایی شامل استرالیا، کانادا، اتحادیه اروپا، فرانسه، آلمان، ایتالیا، ژاپن و کره جنوبی نیز سند موسوم به «اعلامیه بلچلی» را امضا کردند؛ چین هم در بین امضاکنندگان بود.
همچنین هیئتی بینالمللی متشکل از کارشناسان تشکیل شد تا گزارش سالانهای را درباره خطرات هوش مصنوعی، از جمله سوگیری، اطلاعات غلط و خطرات شدیدتری که بشریت را مورد تهدید قرار میدهند، مانند کمک به توسعه سلاحهای شیمیایی، ارائه دهند. یوشوا بنجیو، از پدران هوش مصنوعی و استاد علوم کامپیوتر در دانشگاه مونترال، رهبری «گزارش خطرات هوش مصنوعی» که بین ۲۰ کشور مورد توافق قرار گرفته است را به عهده خواهد داشت.
تعهدات گستردهی ۲۸ کشور برای همکاری با یکدیگر برای مقابله با خطرات ناشی از هوش مصنوعی پیشرفته و همچنین جذب چهرههای برجسته فناوری مثل ایلان ماسک و سم آلتمن، مدیرعامل OpenAI باعث شد بسیاری اجلاس هوش مصنوعی سوناک را موفقیتآمیز تلقی کنند. البته یکی دیگر از دستاوردهای دیپلماتیک سوناک، قرار دادن آمریکا و چین در یک جبهه علیه خطرات هوش مصنوعی است.
فرانسه و کره میزبان نشستهای بعدی ایمنی هوش مصنوعی سال آینده هستند. درحالیکه رویداد بلچلی بر روی همسویی حول آنچه باید انجام شود، متمرکز شده بود، رویداد بعدی بر روی اقداماتی مانند مقررات مشخص و پیشنهادات تحقیقاتی برای چگونگی ارزیابی مدلهای هوش مصنوعی، تمرکز خواهد داشت.
از نظر برخی از مقامات صنعت فناوری، تمرکز این اجلاس بسیار محدود بوده است. آنها میگویند که با محدود نگه داشتن اجلاس به مدلهای هوش مصنوعی پیشتاز، فرصت تشویق مشارکت اعضای جامعه فناوریِ فراتر از هوش مصنوعی پیشتاز از بین میرود.
ساچین دوگال، مدیرعامل استارتاپ هوش مصنوعی Builder.ai میگوید: «با تمرکز بر شرکتهایی که در حال حاضر مشغول ساخت مدلهای پیشتاز و توسعه آنها هستند، انگار میگوییم که هیچکس دیگری نمیتواند نسل بعدی مدلهای پیشتاز را بسازد.»
برخی از تمرکز اجلاس بر «تهدیدهای وجودی» پیرامون هوش مصنوعی ناامید شدهاند و فکر میکنند که دولتها باید به خطرات فوریتر مانند پتانسیل فناوری دیپ فیک برای دستکاری در انتخابات رسیدگی کنند.
واکنشهای متفاوت به نشست ایمنی هوش مصنوعی
در نهایت، میزبان مراسم ایمنی AI از نتیجهی اجلاس خوشحال و به آینده امیدوار بود. او بر این باور است که دستاوردهای اجلاس برگزارشده توازن را به نفع بشریت تغییر خواهد داد.
اما مهم است به یاد داشته باشیم که پایبندی به اعلامیهی بلچلی الزامآور نیست و امضای کشورهای شرکتکننده در این مرحله بیشتر حالتی نمادین دارد. کشورها میتوانند در سایهی امضای اعلامیه برای جلوگیری از خطرات، به اهدافی که فقط خودشان از آن خبر دارند، برسند و وانمود کنند که کماکان پیرو اهداف نشست بلچلی هستند.
ازطرفی دیگر، توسعهی هوش مصنوعی در مسیر خیر و برای اهداف تعالی، چیزی است که ما آرزو داریم دولتها به آن پایبند باشند. دولتها میتوانند در پشت صحنهی تست مدلهای هوش مصنوعی پیشتاز، خطرات آنها را بهنفع خودشان مخفی کنند؛ مثلاً از هوش مصنوعی برای قدرتطلبی و جنگافروزی استفاده کنند.
ورای درهای بستهی ساختمانی که اولین اجلاس ایمنی هوش مصنوعی در آن برگزار میشد، مردمی نشسته بودند که با دلهره به آنچه پیش خواهد آمد، فکر میکردند. آنها به خبرنگاران گفتند که دولتها چندان به فکر مردم نیستند و نتیجهی این اجلاس درنهایت تأثیری در بهبود زندگی آنها نخواهد داشت.
اگر دغدغه این نشست خطراتی است که دولتها نگران مواجههی بشریت با آن هستند، آیا میتوان گفت اکنون بشریت در بهترین حالت خود قرار دارد؟ وقتی ایلان ماسک داشت از خطرات هوش مصنوعی میگفت، در همان حال داشت برای عرضهی هوش مصنوعی خودش «گراک» برنامهریزی میکرد. اگر او و افرادی چون او نگران از دست رفتن «معنی زندگی» در پی برآورده شدن تمام خواستههای بشر توسط هوش مصنوعی هستند، آیا یعنی آنها معنای زندگی را یافتهاند؟