چرا بیش‌تر ربات‌ها سفید هستند؟

مشکلات تعصب نژادی و جنسیتی در الگوریتم‌های هوش مصنوعی و داده‌های مورد استفاده آن برای آموزش مدل‌های بزرگ مانند ChatGPT توجه محققان زیادی را به خود جلب کرده است. این امر باعث ایجاد سرفصل‌هایی شده است که توسط محققان در دست بررسی است. ولی این داستان فقط به اینجا ختم نمی‌شود موارد این چنینی نیز در ربات‌های اجتماعی راه یافته است. ممکن است بپرسید که ربات اجتماعی چیست؟ ربات‌های اجتماعی دارای بدن فیزیکی هستند که از نمونه‌های غیر تهدید کننده انسان الگو برداری شده و هدف آن‌ها تعامل و کمک به مردم است.

زیر شاخه صنعت رباتیک به نام ربات‌های کمکی شناخته می‌شوند. ماجا ماتاریج یکی از پیشگامان این صنعت می‌گوید: ما در این زمینه هدف والایی داریم. آن‌ هم ساخت ماشین‌هایی است که بتوانند به بهترین شکل به مردم جامعه خدمت کنند. این ربات‌ها در حال حاضر در راه کمک به افراد دارای طیف اوتیسم، کودکان با نیازهای ویژه و بیماران سکته مغزی که نیاز به توانبخشی فیزیکی دارند، استفاده می شود.

این ماشین‌های هوشمند از نظر ظاهری شبیه انسان‌ها نیستند و همچنین نمی‌توانند احساسات واقعی یک انسان نسبت به هم نوع خود را تقلید کنند. که به نظر پروفسور جامعه شناسی مارک پیترسون نه تنها این امر باعث بهتر شدن اوضاع جامعه نمی‌شود بلکه آن را بدتر می‌کند. پیترسون معتقد است که نرخ تشخیص اوتیسم در کودکان رنگین پوست بیشتر از کودکان سفید پوست است. در نهایت یک ربات سفید رنگ قرار است از آن‌ها نگه داری کند. همین سخن باعث ایجاد طیف وسیعی از اعتراضات علیه نژادپرستی مانند: هشتگ معروف و پربازدید توییتر #چرا ربات سفید؟ شد.

چرا ربات سفید؟

با توجه به این‌که بیشتر کودکان رنگین پوست در معرض خطر ابتلا به اوتیسم هستند چرا باید ربات کاسپار برای مراقبت از آن‌ها طراحی شود. ربات کاسپار پوست لاستیکی سفید رنگی را دارد و این در حالی است که به راحتی می‌توان ربات‌های رنگین پوست طراحی کرد. استفن کیو ( اخلاق دان فناوری ) و کانتا دیهال ( محقق ارتباطات علمی ) در کتاب The Whiteness of AI تعصبات نژادی در هوش مصنوعی و صنعت رباتیک را مورد بحث قرار می‌دهند و به شدت آن‌ها را محکوم می‌کنند. پروفسور مارک پیترسون در نشست انجمن جامعه شناسی آمریکا در سال 2023 این عمل را فقر خیالی مهندسی نامید.

جامعه چگونه ربات‌ها را می‌بیند؟

در کتاب کلاسیک ( انسان شناسی ) لوسی ساچمن در مورد تعامل انسان و ماشین با سرفصل رباتیک صحبت‌هایی شده است. ساچمن این چنین عناوین را تخیل فرهنگی نامیده است و آن را در قالب ظاهر ربات‌ها مورد نقد قرار می‌دهد. حال تخیل فرهنگی چیست؟ تخیل فرهنگی چیزی است که از طریق بازنمایی از متون، تصاویر و فیلم‌ها به اشتراک گذاشته می‌شود و به طور جمعی نگرش‌ها و ادراک انسان‌ها را شکل می‌دهد.

این تخیل فرهنگی را می‌توان با نگرانی‌های علمی‌تر در مورد این‌که سازندگان ربات‌ها به اجزای بدن ربات چگونه نگاه می‌کنند در تضاد است. جنیفر‌ ری در مطالعات علمی فمینیستی خود به همراه آتانا سوسکی که منتقد فرضیات جنسیتی و نژادی هستند می‌گویند: سازندگان در تلاش هستند تا مردم را به سمت طراحی ربات‌های خدماتی سوق دهند و کارهای پیش پا افتاده را به عنوان زن برای آن‌ها انجام دهد. این سخن به عبارت ساده‌تر یعنی ( زن موجود ضعیفی است و فقط توان انجام کارهای پیش پا افتاده را دارد) همین امر سبب شده است تا توجه منتقدان زیادی را به خود جلب کند و با سرسختی کامل با تعصبات غلط نژادی و زن ستیزی مقابله کنند.

ریشه‌ی این میراث فرهنگی غلط

این که ربات‌ها را سفید رنگ و در واقع معمولاً زنانه نشان می‌دهند، به دوران باستان اروپایی، همراه با انفجار رمان‌ها و فیلم‌ها در اوج مدرنیته صنعتی بازمی‌گردد. عبارت است از : ذکر اولین کلمه‌ی اندروید به عنوان زن در رمان ( آینده حوا ) توسط آگوست ویلرز، ربات‌های جنسی شده ماریا در رمان ( مترو پلیس ) توسط تئا فون و سایر اثرهایی این چنین باعث شد که در مرور زمان ربات‌های خدمتکار به سرعت زنانه شوند و به خدمت جامعه در بیایند.

اما برخی محققان و منتقدان ریشه اولیه این تخیل فرهنگی را به روم باستان نسبت می‌دهند. به طور مثال شعر دگردیسی اووید، مجسمه‌ی گالاتیا که از بلورهای سفید برفی ساخته شده بود را به تصویر می‌کشد. مالک آن پیگمالیون عاشق آن می‌شود و از آفرودیت ( یکی از خدایان روم ) در خواست می‌کند که او را زنده کند. در نهایت مجسمه زنده می‌شود و به عنوان یک زن در خدمت مرد در می‌آید. همچنین اقتباس‌های شعری، ادبی و سینمایی مختلفی از این داستان وجود دارد که باعث برجسته تر شدن موضوع زن ستیزی، تعصبات نژادی و کلیشه‌های جنسیتی شده است.

مسیری به سوی تغییر و تحول

به نظر شما بهترین روش برای مقابله با این میراث فرهنگی غلط چیست؟ مهندس سرشناس، جیمزگیبرت در این مورد می‌گوید: تمامی کلیشه‌های جنسیتی و نژادی این عمل را از گذشته تا زمان حال و همچنین آینده، باید تغییر دهد. تعامل انسان و ماشین باید بر تنوع ( مرد، زن و رنگ) متمرکز شود مخصوصا ربات‌های ژاپنی که به طور علنی و سر سخت‌تر، از کلیشه‌های جنسیتی زنانه پیروی می‌کنند.

وی همچنین معتقد است که راه‌حل این موضوع صرفا پوشاندن پوست‌های رنگی بر ربات‌ها نیست بلکه، شخصیت و برنامه‌ی ریزی آن‌ها باید کاملا متفاوت باشد. مثلا: ربات معروف شخصیت سفارشی شده Bina48 طبق آناتومی و شخصیت محدود همسر یک میلیونر آفریقایی، آمریکایی طراحی شده است.

صحبت کردن در مورد مسایل نژاد پرستی با یک ربات، پوچ بی معنی خواهد بود. زیرا ربات هیچ تجربه شخصی برای سخن گفتن ندارد و همه‌ی پاسخ‌های آن مبتنی بر هوش مصنوعی است که سازندگان ربات در آن قرار داده‌اند. همه‌ی این موارد حافظه‌های کاشته شده‌ای هستند که توسط انسان‌ها بر روی آن‌ها کارگذاری شده است. در نتیجه هر رفتاری نژاد پرستانه‌ای از ربات‌ها انجام شود تمام زیر سر سازندگان و مهندسان ربات‌ها هستند. ما باید طرز تفکر انسان‌ها و جامعه را عوض کنیم نه ربات‌ها چرا که ربات ‌همان کاری را انجام می‌دهد که برای آن توسط انسان‌ها برنامه ریزی شده است.

علاوه بر همه‌ی موارد فوق که به آن اشاره شد. یکی از مهم‌ترین روش‌ها جهت مبارزه با این میراث فرهنگی غلط، توجه به ارتباط انسان‌ها با یک‌دیگر در کشورها و فرهنگ‌های مختلف است. با الگو برداری از این رابطه‌ می‌توان ربات‌های متنوع، با شخصیت‌های انسانی و به دور از هرگونه کلیشه‌های جنسیتی ساخت. انجام چنین کاری نوید بخش آینده‌ای روشن است و می‌تواند روابط بین انسان و ماشین را کمتر ترسناک و غیر عادی جلوه دهد. خصوصا برای افرادی که در آینده نیاز به کمک این ربات‌های اجتماعی دارند. حال متوجه‌شدید که افکار و رسومات غلط گذشته چقدر می‌توانند تاثیر گذار باشند که علاوه بر انسان‌ها، حتی توانسته است به عمق تفکرات یک ربات نیز راه یابد.

سخن آخر

این مقاله بر اساس تحقیقات پروفسور جامعه شناس، مارک پیترسون است که در یک سازمان خبری غیر انتفاعی مستقل انتشار پیدا کرده نوشته شده است. مقاله حقایق و تحلیل‌هایی را برای مردم جامعه به ارمغان می‌آورد تا با استفاده از آن به ما کمک کند تا دنیای پیچیده‌ و تاریکی را که بسوی آن در حال حرکت هستیم را بهتر بشناسیم.

منبع: مایکت