گروهی از مدیران و مهندسان و پژوهشگران ارشد هوش مصنوعی اعتقاد دارند که این فناوری خطری جدی برای نسل بشر محسوب میشود و ممکن است عامل انقراض ما باشد. بیانیه این افراد متنی ۲۲ کلمهای است. دلیل کوتاهبودن بیانیه این است که تاحدممکن تعداد بیشتری از افراد آن را امضا کنند.
در متن بیانیه میخوانیم:
کاهش خطر انقراض ناشی از هوش مصنوعی باید درکنار سایر خطرهای اجتماعی نظیر همهگیری و جنگ هستهای، اولویتی جهانی باشد.
بیانیه مذکور را یکی از سازمانهای غیرانتفاعی آمریکایی به نام مرکز ایمنی هوش مصنوعی منتشر کرده است و افراد سرشناسی نظیر مدیرعامل گوگل دیپمایند و مدیرعامل OpenAI (شرکت خالق ChatGPT) آن را امضا کردهاند.
همچنین، دو نفر از سه پژوهشگر هوش مصنوعی برنده جایزهی تورینگ در سال ۲۰۱۸ بیانیه یادشده را امضا کردهاند. از جایزه تورینگ بهعنوان جایزه نوبل حوزه کامپیوتر یاد میشود. یان لیکان، سومین پژوهشگر برنده جایزهی تورینگ و دانشمند ارشد هوش مصنوعی شرکت متا، فعلاً بیانیه را امضا نکرده است.
بیانیه ۲۲ کلمهای جدیدترین نمونه از مجادله بر سر ایمنی هوش مصنوعی است. مدتی قبل نامهای سرگشاده که به امضای افراد سرشناسی نظیر ایلان ماسک رسید، خواستار توقف ۶ ماهه توسعه هوش مصنوعی پیشرفته شد. شماری از متخصصان گفتند آن نامه برخی از خطرهای هوش مصنوعی را بیشازحد بزرگ جلوه داده است. عدهای دیگر با کلیات موضوع موافق بودند؛ اما با راهکار ارائهشده موافقت نکردند.
براساس گزارش ورج، کوتاهبودن بیانیه ۲۲ کلمهای جدید باعث میشود که تعداد بیشتری از متخصصان با آن همراه شوند. در این بیانیه، راهکار مشخصی برای مقابله با هوش مصنوعی ارائه نشده است. مدیر مرکز ایمنی هوش مصنوعی میگوید افرادی که نگران خطرهای این فناوری هستند، میتوانند ازطریق بیانیه جدید دیدگاه خود را آشکار کنند.
مخالفان هوش مصنوعی میگویند سیستمهای مبتنیبر این فناوری ممکن است بهیکباره شروع به سرپیچی از دستورهای انسان کنند و برای نابودی ما قدم بردارند. عدهای دیگر میگویند چنین آیندهای غیرمحتمل است؛ چون هوش مصنوعی درحالحاضر نمیتواند حتی کارهای سادهای نظیر راندن خودرو را انجام دهد و هنوز فاصله زیادی تا دوران خودروهای کاملاً خودران داریم.