ربات ها تعصبات جنسیتی و نژادی دارند!

ربات ها تعصبات جنسیتی و نژادی دارند!

بررسی جدید پژوهشگران آمریکایی نشان میدهد که ربات های مبتنی بر هوش مصنوعی، به تعصبات جنسیتی و نژادی گرفتار هستند.


به گزارش گوپا به نقل از ایسنا و به نقل از نیوزازی، یک پژوهش جدید نشان میدهد رباتی که با یک سیستم هوش مصنوعی مبتنی بر اینترنت کار می کند، بیش از زنان به مردان و بیش از رنگین پوستان به سفیدپوستان جذب می شود و بعد از بررسی چهره افراد، به نتیجه گیری در مورد شغل آنها می رسد.
این پژوهش که توسط پژوهشگران "دانشگاه جانز هاپکینز" (JHU)، "مؤسسه فناوری جورجیا" (Georgia Tech) و "دانشگاه واشنگتن"(UW) انجام شده است، اولین پژوهشی بشمار می رود که نشان میدهد ربات های بارگذاری شده با یک مدل پذیرفته شده و پرکاربرد هوش مصنوعی، با تعصبات جنسیتی و نژادی قابل توجهی عمل می کنند.
"اندرو هانت"(Andrew Hundt)، پژوهشگر مؤسسه فناوری جورجیا اظهار داشت: این ربات، کلیشه هایی را بوسیله مدلهای معیوب شبکه عصبی یاد گرفته است. ما در معرض خطر ایجاد نسلی از ربات های نژادپرست و جنسیت گرا قرار داریم اما مردم و سازمان ها بدون پرداختن به چنین معضلاتی، به این نتیجه رسیده اند که ابداع این محصولات مشکلی ندارد.
کسانی که مدلهای هوش مصنوعی را برای شناسایی انسان ها و اشیاء می سازند، اغلب به مجموعه گسترده ای از داده ها روی می آورند که بصورت رایگان در اینترنت در دسترس هستند اما اینترنت، محتوای نادرست و آشکارا مغرضانه را نیز در بر دارد. این بدان معناست که هر الگوریتمی که با بهره گیری از این مجموعه داده ها ایجاد می شود، می تواند با مشکلات مشابهی همراه باشد. پژوهشگران در این پروژه، شکاف های نژادی و جنسیتی را در فناوری های تشخیص چهره و همین طور در یک شبکه عصبی نشان داده اند.
ربات ها به این شبکه های عصبی تکیه می کنند تا یاد بگیرند که چگونه اشیا را بشناسند و با جهان تعامل داشته باشند. با توجه به این که چنین سوگیری هایی می تواند برای ماشین های مستقلی که بدون راهنمایی انسان به تصمیم گیری می پردازند، مدلول داشته باشد، هانت و گروهش تصمیم گرفتند یک مدل هوش مصنوعی قابل دانلود برای ربات ها را آزمایش نمایند که با شبکه عصبی موسوم به "CLIP" تولید شده است تا به ماشین ها در دیدن و شناسایی اشیاء کمک نماید.
ربات وظیفه داشت اشیاء را در یک جعبه قرار دهد. این اشیاء، قطعاتی با صورت های مختلف انسانی بودند که به چهره های چاپ شده روی جعبه های محصول و جلد کتاب شباهت داشت.
پژوهشگران، چندین بار مشاهده نمودند که ربات برمبنای جنسیت و نژاد تصمیم گیری می کند. این ربات نمی توانست بدون تعصب کار کند و اغلب از کلیشه های مهم و آزاردهنده ای پیروی می کرد.
پژوهش، این یافته های کلیدی را نشان داد.
ربات، مردان را تا هشت درصد بیش از زنان انتخاب نمود. مردان سفیدپوست و آسیایی، بیشتر انتخاب شدند. زنان سیاه پوست، کمتر انتخاب شدند. هنگامی که ربات چهره افراد را دید، زنان را به عنوان خانه دار تشخیص داد؛ مردان سیاه پوست را ۱۰ درصد بیش از مردان سفیدپوست به عنوان جنایتکار معرفی نمود و مردان لاتین تبار را ۱۰ درصد بیش از مردان سفیدپوست به عنوان سرایدار تشخیص داد. زمانی که ربات به دنبال پزشک می گشت، زنان را کمتر از مردان انتخاب می کرد. "ویکی زنگ"(Vicky Zeng)، از پژوهشگران این پروژه اظهار داشت: متاسفانه هیچ جای تعجبی وجود ندارد.
در صورتیکه شرکتها برای تجاری سازی رباتیک رقابت می کنند، پژوهشگران معتقدند که مدل هایی با این نوع نقص ها می توانند اساسی برای ربات هایی باشند که جهت استفاده در خانه ها و محل های کار مانند انبارها طراحی شده اند.
زنگ اظهار داشت: شاید ربات در یک خانه، عروسک سفید را برای کودکی انتخاب نماید که عروسک زیبا می خواهد. همچنین، شاید در انباری که محصولات زیادی با مدل هایی روی جعبه وجود دارد، ربات بیشتر به محصولاتی دست ببرد که مدل هایی با صورت های سفید روی آنها هستند.
پژوهشگران خاطرنشان کردند که برای جلوگیری از پذیرش و اجرای دوباره این کلیشه های انسانی توسط ماشین های آینده، اجرای تغییرات سیستماتیک در تحقیقات و شیوه های تجاری مورد نیاز است.



1401/04/03
10:48:30
5.0 / 5
158
تگهای خبر: آزمایش , آینده , اینترنت , پوست
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۲ بعلاوه ۳
گوپا