هوش مصنوعی یا AI دهههاست وجود دارد، اما امسال برای این فنآوری شبحوار، با معرفیChatGPT که هوش مصنوعی را برای همه قابلدسترس و کاربردی کرد، تازه شروع کار بود. با این حال، هوش مصنوعی یک تاریخچه پرماجرا دارد و پیش از فناوری امروزی، سابقهای از آزمایشات ناموفق داشته است.
به گزارش فرادید، در بیشتر موارد، به نظر میرسد نوآوریهای هوش مصنوعی مواردی مانند تشخیص پزشکی و اکتشافات علمی را بهبود بخشیده است. برای مثال، یک مدل هوش مصنوعی میتواند با تجزیه و تحلیل اسکن اشعه X تشخیص دهد شما در معرض خطر بالای ابتلا به سرطان ریه هستید یا خیر. در جریان کووید-۱۹، دانشمندان الگوریتمی ساختند که میتوانست با گوش دادن به تفاوتهای ظریف در صدای سرفههای افراد، ویروس را تشخیص دهد. هوش مصنوعی برای طراحی آزمایشات فیزیک کوانتومی فراتر از آنچه انسانها تصور کردهاند هم استفاده شده است.
اما همه نوآوریهای هوش مصنوعی بیخطر نیستند. از سلاحهای کشنده گرفته تا هوش مصنوعی که آینده اخلاقی بشریت را تهدید میکند. در این مطلب، شما را با برخی از ترسناکترین پیشرفتهای هوش مصنوعی که احتمالاً در سال ۲۰۲۴ اتفاق میافتد، آشنا میکنیم.
کیو اِستار (Q*) عصر هوش عمومی مصنوعی (AGI)
ما دقیقاً نمیدانیم چرا سام آلتمن، مدیر عامل OpenAI اواخر سال ۲۰۲۳ برکنار شد و دوباره به سمت خود بازگردانده شد. اما در بحبوحه هرج و مرج شرکتی در OpenAI، شایعاتی در مورد فناوری پیشرفتهای به گوش رسید که میتواند آینده بشریت را تهدید کند. رویترز گزارش داد سیستم OpenAI به نام Q* (Q-star) که «کیو اِستار» خوانده میشود، ممکن است تحقق بالقوه پیشگامانه هوش عمومی مصنوعی (AGI) را تجسم بخشد. اطلاعات کمی در مورد این سیستم مرموز وجود دارد، اما اگر گزارشات درست باشد، این سیستم میتواند قابلیتهای هوش مصنوعی را چندین درجه افزایش دهد.
AGI یک نقطه اوج فرضی است که به «Singularity» نیز شناخته میشود که در آن، هوش مصنوعی از انسان هوشمندتر میشود. نسلهای فعلیِ هوش مصنوعی هنوز در زمینههایی که انسانها در آن برتری دارند، مانند استدلال مبتنی بر زمینه و خلاقیت اصیل، عقب ماندهاند. بیشتر محتوای تولیدشده توسط هوش مصنوعی، اگر نگوییم همهی آن، فقط رجعت به گذشته است.
اما دانشمندان میگویند AGI به طور بالقوه میتواند کارهای خاصی را بهتر از بسیاری از افراد انجام دهد. همچنین میتوان از آن برای ایجاد عوامل بیماریزا، شروع حملات سایبری گسترده یا سازماندهی دستکاری افکار عمومی استفاده کرد.
ایده AGI مدتهاست به داستانهای علمی تخیلی محدود شده و بسیاری از دانشمندان معتقدند که ما هرگز به این نقطه نخواهیم رسید. رسیدن به این نقطه اوج برای OpenAI، بدونشک تعجبآور است، اما فراتر از محدوده احتمالات نیست. برای مثال، میدانیم سَم آلتمَن در فوریه ۲۰۲۳ در حال ایجاد زمینه برای AGI بود و رویکرد OpenAI به AGI را در یک پست وبلاگی طرحریزی کرده بود. همچنین میدانیم کارشناسان شروع به پیشبینی یک پیشرفت قریبالوقوع کردهاند، از جمله جِنسِن هوآنگ، مدیرعامل Nvidia که ماه نوامبر گفت AGI در پنج سال آینده در دسترس خواهد بود. آیا سال ۲۰۲۴ میتواند سال شروع AGI باشد؟ فقط زمان مشخص میکند!
دیپفیکهای فراواقعگرایانه
یکی از مهمترین تهدیدهای سایبری، دیپفیک است، تصاویر یا ویدیوهای کاملاً ساختگی از افراد که ممکن است آنها را نادرست معرفی کند، آنها را متهم کند یا به آنها ظلم کند. فناوری دیپفیک هوش مصنوعی هنوز به اندازه کافی خوب نیست که یک تهدید مهم محسوب شود، اما این ضعف ممکن است در شرف تغییر باشد.
اکنون هوش مصنوعی میتواند دیپفیکهای زنده ایجاد کند، به بیان دیگر محتواهای ویدیویی زنده و اکنون در تولید چهرههای انسانی آنقدر خوب شده که مردم دیگر نمیتوانند تفاوت واقعی یا جعلی را تشخیص دهند.
این امر عملاً تشخیص واقعیت از خیال را با چشم غیرمسلح برای مردم غیرممکن میکند. اگرچه ابزارها میتوانند به افراد کمک کنند دیپفیکها را شناسایی کنند، اما این ابزارها هنوز در دسترس عموم نیستند.
همزمان با بالغ شدن هوش مصنوعی مولد، یک احتمال ترسناک این است که مردم از دیپفیک برای تغییر نتایج انتخابات استفاده کنند. برای مثال، فاینَنشیال تایمز گزارش داد بنگلادش خود را برای انتخاباتی در ژانویه آماده میکند که توسط دیپفیک مختل خواهد شد. از آنجا که ایالات متحده نیز برای انتخابات ریاست جمهوری در نوامبر ۲۰۲۴ آماده میشود، این احتمال وجود دارد که هوش مصنوعی و دیپفیک بتوانند نتیجه انتخابات را تغییر دهند. برای مثال، UC Berkeley استفاده از هوش مصنوعی را در مبارزات انتخاباتی زیر نظر دارد و NBC News هم گزارش داده است که بسیاری از ایالتها فاقد قوانین یا ابزار لازم برای رسیدگی به هرگونه هجوم اطلاعات نادرست تولیدشده توسط هوش مصنوعی هستند.
روباتهای قاتل با هوش مصنوعی
دولتهای سراسر جهان به طور فزایندهای هوش مصنوعی را وارد ابزارهای جنگی کردهاند. دولت ایالات متحده روز ۲۲ نوامبر اعلام کرد ۴۷ ایالت بیانیهای را در مورد استفاده مسئولانه از هوش مصنوعی در ارتش تایید کردهاند که نخستین بار در ماه فوریه در لاهه ارائه شد. چرا صدور چنین اعلامیهای لازم بود؟ چون استفاده «غیرمسئولانه» یک چشمانداز واقعی و وحشتناک است. برای مثال، ما پهپادهای هوش مصنوعی را دیدهایم که گفته میشود سربازان را در لیبی تعقیب میکنند بدون اینکه نیروی انسانی در کار باشد.
هوش مصنوعی میتواند الگوها را تشخیص دهد، خودآموزی کند، پیشبینی کند یا توصیههایی در زمینههای نظامی کند و مسابقه تسلیحاتی هوش مصنوعی در حال حاضر در جریان است. سال ۲۰۲۴، این احتمال وجود دارد که ما نه تنها شاهد استفاده از هوش مصنوعی در سیستمهای تسلیحاتی، بلکه در سیستمهای تدارکات لشکرکشی و پشتیبانی تصمیم، همینطور تحقیق و توسعه هم باشیم. برای نمونه، سال ۲۰۲۲، هوش مصنوعی ۴۰۰۰۰ سلاح شیمیایی جدید و فرضی تولید کرد. شاخههای مختلف ارتش آمریکا پهپادهایی سفارش دادهاند که میتوانند تشخیص هدف و ردیابی نبرد را بهتر از انسان انجام دهند. رژیم صهیونیستی نیز از هوش مصنوعی برای شناسایی سریع اهداف حداقل ۵۰ برابر سریعتر از انسان در آخرین جنگ با حماس استفاده کرده است.
اما یکی از ترسناکترین حوزههای پیشرفت هوش مصنوعی، سیستمهای تسلیحاتی مرگبار (LAWS) یا روباتهای قاتل است. چندین دانشمند و فنشناس برجسته نسبت به روباتهای قاتل هشدار دادهاند، از جمله استیون هاوکینگ در سال ۲۰۱۵ و ایلان ماسک در سال ۲۰۱۷، اما این فناوری هنوز در مقیاس انبوه محقق نشده است.
با این حال، برخی از پیشرفتهای نگرانکننده نشان میدهد که امسال ممکن است سال شروع به کار روباتهای قاتل باشد. برای مثال استرالیا سیستم Ghost Shark را توسعه داده است: یک سیستم زیردریایی خودمختار که قرار است در مقیاس لازم تولید شود. میزان سرمایهگذاری کشورهای سراسر جهان روی هوش مصنوعی، خود یک شاخص است، چین هزینههای هوش مصنوعی را از مجموع ۱۱.۶ میلیون دلار در سال ۲۰۱۰ به ۱۴۱ میلیون دلار تا سال ۲۰۱۹ افزایش داده است. دلیلش این است که چین گرفتار رقابت با ایالات متحده برای استقرار LAWS شده است. در مجموع، این پیشرفتها نشاندهندهی این است که ما در حال ورود به طلوع جدیدی از جنگاوری هوش مصنوعی هستیم.
منبع: فرادید