پژوهشگاه فضای مجازی بررسی كرد؛

آیا هوش مصنوعی به اندازه انسان ها خوب است

آیا هوش مصنوعی به اندازه انسان ها خوب است

گوپا: پژوهشگاه گروه مطالعات اخلاقی فضای مجازی با بررسی موضوع اخلاق و هوش مصنوعی، به این پرسش پاسخ می دهد كه آیا هوش مصنوعی به اندازه انسان ها خوب است؟


به گزارش گوپا به نقل از پژوهشگاه فضای مجازی، وقتی بحث بر سر اصول اخلاقی هوش مصنوعی و این که چگونه فناوری می تواند اشتباه کند، پیش می آید، غالباً ذهن مردم تحت تاثیر صحنه های فیلمهای هالیوودی قرار می گیرد. این که چه اتفاقی می افتد اگر این ابزار ضد ما برانگیخته شود و آغاز به تیراندازی به مردم در خیابان کند؟! گرچه ما باید پذیرای همه احتمالات باشیم، اما نگرانی های اساسی تری هم در مورد اخلاقیات هوش مصنوعی وجود دارد. در طول تاریخ، عرضه چندین اختراع در حوزه فناوری بحث در مورد اصول اخلاقی در زمینه استفاده و یا حتی وجود آن فناوری را دامن زده است؛ همینطور با پررنگ تر شدن هوش مصنوعی در جامعه و مسائل اخلاقی پیرامون آن احساس احتیاج به برنامه ای جامع برای رسیدگی به مسائل اخلاقی و چارچوب های آن بیشتر شد. در ادامه، نگاهی به جنبه های مختلف اخلاق و هوش مصنوعی خواهیم داشت. مبحث انصاف در نخستین روز کنفرانس مجازی EmTech Asia۲۰۲۰، دانشمند مشهور پیتر نورویگ، مدیر بخش تحقیقات گوگل، در مورد مساله انصاف در اجرای هوش مصنوعی سخنرانی کرد. وی نمونه ای از نتایج جستجوی تصاویر در گوگل را نمایش داد. در گذشته، هنگامی که کاربران کلمه کلیدی «دکتر» را جستجو می کردند، تنها احتمال نمایش تصاویری شبیه به مردان قفقازی با کت های آزمایشگاهی سفید وجود داشت. اما امروزه تنوع جنسیتی و نژادی بیشتری در نتایج قابل مشاهده می باشد. نورویگ این نتایج را حاصل کیفیت داده ها و فرآیندهای تصمیم گیری می داند و همینطور اشاره می کند اگر انصاف از راه عدم آگاهی حاصل شود، همچنان مشکل باقی مانده است. به این معنا که اگر انصاف در عرضه نتایج، حاصل تلاش انسانی و دانشمندان نبوده و تنها به علت کیفیت داده ها به دست آید، باز هم به صورت آگاهانه انصاف رعایت نشده است. ازاین رو برای اطمینان از صحت عملکرد آن این عمل باید از راه تلاش آگاهانه دانشمندان و مهندسان صورت گیرد که می تواند روند پیچیده ای داشته باشد. وی تاکید می کند: «هدف ما این است که مردم را متقاعد نماییم در این عرصه انصاف وجود دارد.» وی به توسعه دهندگان محصولات سفارش کرد که همواره به موارد زیر توجه داشته باشند: هنگامی که یکی از حضار در مورد میزان موفقیت شرکتهای فناوری در کوشش برای کاهش تعصبات سؤال کرد، نورویگ می گوید که این فهرست به توسعه دهندگان کمک کرده است تا با آگاهی بیشتری در این مورد، کار را پیش ببرند. ما همینطور به اضافه کردن عوامل جدید ادامه می دهیم. در گذشته ما بر روی امنیت داده تمرکز داشتیم؛ اما حالا بر روی انصاف در عرضه محتوا هم متمرکز شده ایم. کار انسانی کار انسانی بخشی است که هنگام صحبت درباره هوش مصنوعی به آن اشاره ای نمی گردد. نادیده گرفتن جنبه کار انسان اغلب هنگام بحث در مورد هوش مصنوعی و اخلاق امکان دارد حیرت انگیز باشد. اما مری گری انسان شناس در کتاب خود، درباره نیروی انسانی نامرئی صحبت می کند که برای پیاده سازی هوش مصنوعی به شکلی که امروزه شاهد آن هستیم، در تلاش است. گری تاکید می کند: از آن جا که این افراد تا حد زیادی کنترل نشده اند و نظارتی روی خود ندارند، به سادگی یک بارمصرف تلقی شده و اغلب بعنوان کمک موقتی در نظر گرفته می شوند. این افراد در حال کار بر روی وظایفی مانند برچسب گذاری داده ها بوده و جمعیت رو به رشدی از افراد عرضه دهنده خدمات را دربر می گیرند. اما گری این نوع کار را بعنوان کار شبح تعریف می کند. چونکه شرایط کار اغلب سبب کاهش ارزش کاری آنها و پنهان کردن افرادی می شود که به نتایج جستجوی بهتر در پروژه های دنیای استارت آپ کمک می کنند. گرچه امکان دارد این چشم انداز در ابتدا دلهره آور به نظر برسد؛ اما گری بیان می کند که این مشاغل می توانند بخصوص در زمان بحران بهداشت جهانی، مشابه وضعیت فعلی، ارزش کسب کنند. اما اقداماتی هم برای جلوگیری و توقف سوءاستفاده از آنها وجود دارد. وی تاکید کرد که هم اکنون هیچ قانونی وجود ندارد که کارگران قراردادی را اداره کند و خود مردم باید برای ایجاد چنین قانونی پافشاری کنند. وی اخطار داد: بازار قرار نیست این مشکل را برطرف کند. فناوری و انسان در ماه فوریه ۲۰۲۰، در یک کارگاه آموزشی که در واتیکان برگزار شد، پاپ فرانسیس عنوان کرد: کهکشان دیجیتال و بخصوص هوش مصنوعی در قلب تغییرات تاریخی است که ما در حال تجربه آن هستیم. این نشان دهنده اهمیت فناوری هوش مصنوعی در زندگی امروز ماست. در حالت ایده آل، ما می خواهیم آنرا به اخلاقی ترین شکل ممکن پیاده سازی نماییم. اما حالا که پیچیدگی مساله انصاف در اجرای هوش مصنوعی و سایر مسائل عملیاتی پشت آنرا دیده ایم، زمان آن رسیده است که این سؤال بزرگ را بررسی کنیم: آیا فناوریِ تنها به اندازه انسان پشت آن خوب است؟ این امکان دارد استدلال موجود در مورد چاقو را به شما یادآوری کند: بعنوان یک ابزار نه بد است و نه خوب. ارزش آن به فردی که از آن استفاده می نماید و این که به چه دلیل از آن استفاده می نماید، بستگی دارد. آیا این بدین معناست که نگرانی های ما واقعی هستند؟ این که هوش مصنوعی چاقویی بیش نیست و فقط می توان امیدوار بود که به دست فرد اشتباهی نیفتد! نورویگ پیام امیدوارکننده ای در این حوزه می دهد. زمانی که یکی از حضار این نگرانی را در ارتباط با مسائل اخلاقی در هوش مصنوعی بیان می کند، نورویگ به او یادآوری می کند که چرا انسان ها در وهله اول در حال توسعه فناوری هستند. او تاکید می کند: ما سیستمی را مدنظر قرار داده ایم که در آن، فناوری ها بتوانند بهتر از ما عمل کنند. به صورت کلی، پیشرفت فناوری برای همه به معنای زندگی بهتر است. هوش مصنوعی پتانسیل گسترده ای دارد و مسئولیت اجرای آن به عهده ما است تا سیستم هایی عرضه دهیم که توانایی رعایت اخلاقیات را مشابه بهترین حالت انسانی داشته باشند.


منبع:

1399/09/07
23:48:12
5.0 / 5
549
تگهای خبر: آزمایش , آینده , بازار , تحقیق
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۲ بعلاوه ۳
گوپا