به گزارش خبرگزاری مهر به نقل از پژوهشگاه فضای مجازی، وقتی بحث بر سر اصول اخلاقی هوش مصنوعی و این که چگونه فناوری میتواند اشتباه کند، پیش میآید، غالباً ذهن مردم تحت تأثیر صحنههای فیلمهای هالیوودی قرار میگیرد. این که چه اتفاقی میافتد اگر این ابزار علیه ما برانگیخته شود و شروع به تیراندازی به مردم در خیابان کند؟! گرچه ما باید پذیرای همه احتمالات باشیم، اما نگرانیهای اساسیتری نیز در مورد اخلاقیات هوش مصنوعی وجود دارد.
در طول تاریخ، ارائه چندین اختراع در حوزه فناوری بحث در مورد اصول اخلاقی در زمینه استفاده و یا حتی وجود آن فناوری را دامن زده است؛ همچنین با پررنگتر شدن هوش مصنوعی در جامعه و مسائل اخلاقی پیرامون آن احساس نیاز به برنامهای جامع برای رسیدگی به مسائل اخلاقی و چارچوبهای آن بیشتر شد.
در ادامه، نگاهی به جنبههای مختلف اخلاق و هوش مصنوعی خواهیم داشت.
مبحث انصاف
در اولین روز کنفرانس مجازی EmTech Asia۲۰۲۰، دانشمند مشهور پیتر نورویگ، مدیر بخش تحقیقات گوگل، در مورد مسئله انصاف در اجرای هوش مصنوعی سخنرانی کرد. وی نمونهای از نتایج جستجوی تصاویر در گوگل را نمایش داد. در گذشته، هنگامیکه کاربران کلمه کلیدی «دکتر» را جستجو میکردند، تنها احتمال نمایش تصاویری شبیه به مردان قفقازی با کتهای آزمایشگاهی سفید وجود داشت. اما امروزه تنوع جنسیتی و نژادی بیشتری در نتایج قابل مشاهده است.
نورویگ این نتایج را حاصل کیفیت دادهها و فرآیندهای تصمیمگیری میداند و همچنین اشاره میکند اگر انصاف از طریق عدم آگاهی حاصل شود، همچنان مشکل باقی مانده است. به این معنا که اگر انصاف در ارائه نتایج، حاصل تلاش انسانی و دانشمندان نبوده و تنها به دلیل کیفیت دادهها بهدست آید، باز هم به طور آگاهانه انصاف رعایت نشده است. بنابراین برای اطمینان از صحت عملکرد آن این عمل باید از طریق تلاش آگاهانه دانشمندان و مهندسان انجام شود که میتواند روند پیچیدهای داشته باشد. وی تاکید میکند: «هدف ما این است که مردم را متقاعد کنیم در این حوزه انصاف وجود دارد.»
وی به توسعهدهندگان محصولات توصیه کرد که همواره به موارد زیر توجه داشته باشند: هنگامیکه یکی از حضار در مورد میزان موفقیت شرکتهای فناوری در تلاش برای کاهش تعصبات سؤال کرد، نورویگ میگوید که این لیست به توسعهدهندگان کمک کرده است تا با آگاهی بیشتری در این مورد، کار را پیش ببرند. ما همچنین به اضافه کردن عوامل جدید ادامه میدهیم. در گذشته ما بر روی امنیت داده تمرکز داشتیم؛ اما اکنون بر روی انصاف در ارائه محتوا نیز متمرکز شدهایم.
کار انسانی
کار انسانی بخشی است که هنگام صحبت درباره هوش مصنوعی به آن اشارهای نمیشود. نادیده گرفتن جنبه کار انسان اغلب هنگام بحث در مورد هوش مصنوعی و اخلاق ممکن است تعجبآور باشد. اما مری گری انسانشناس در کتاب خود، درباره نیروی انسانی نامرئی صحبت میکند که برای پیادهسازی هوش مصنوعی به شکلی که امروزه شاهد آن هستیم، در تلاش است.
گری تاکید میکند: از آنجا که این افراد تا حد زیادی کنترل نشدهاند و نظارتی روی خود ندارند، به راحتی یکبارمصرف تلقی شده و اغلب به عنوان کمک موقتی در نظر گرفته میشوند.
این افراد در حال کار بر روی وظایفی مانند برچسبگذاری دادهها بوده و جمعیت رو به رشدی از افراد ارائهدهنده خدمات را دربر میگیرند. اما گری این نوع کار را به عنوان کار شبح تعریف میکند. زیرا شرایط کار اغلب باعث کاهش ارزش کاری آنها و پنهان کردن افرادی میشود که به نتایج جستجوی بهتر در پروژههای دنیای استارتآپ کمک میکنند.
گرچه ممکن است این چشمانداز در ابتدا دلهرهآور به نظر برسد؛ اما گری بیان میکند که این مشاغل میتوانند به ویژه در زمان بحران بهداشت جهانی، مشابه وضعیت فعلی، ارزش کسب کنند. اما اقداماتی نیز برای جلوگیری و توقف سوءاستفاده از آنها وجود دارد.
وی تأکید کرد که در حال حاضر هیچ قانونی وجود ندارد که کارگران قراردادی را اداره کند و خود مردم باید برای ایجاد چنین قانونی پافشاری کنند. وی هشدار داد: بازار قرار نیست این مشکل را برطرف کند.
فناوری و انسان
در ماه فوریه ۲۰۲۰، در یک کارگاه آموزشی که در واتیکان برگزار شد، پاپ فرانسیس اظهار داشت: کهکشان دیجیتال و بهویژه هوش مصنوعی در قلب تغییرات تاریخی است که ما در حال تجربه آن هستیم.
این نشاندهنده اهمیت فناوری هوش مصنوعی در زندگی امروز ماست. در حالت ایدهآل، ما میخواهیم آن را به اخلاقیترین شکل ممکن پیادهسازی کنیم.
اما اکنون که پیچیدگی مسئله انصاف در اجرای هوش مصنوعی و سایر مسائل عملیاتی پشت آن را دیدهایم، زمان آن رسیده است که این سؤال بزرگ را بررسی کنیم: آیا فناوریِ تنها به اندازه انسان پشت آن خوب است؟
این ممکن است استدلال موجود در خصوص چاقو را به شما یادآوری کند: به عنوان یک ابزار نه بد است و نه خوب. ارزش آن به فردی که از آن استفاده میکند و این که به چه دلیل از آن استفاده میکند، بستگی دارد.
آیا این بدین معناست که نگرانیهای ما واقعی هستند؟ این که هوش مصنوعی چاقویی بیش نیست و فقط میتوان امیدوار بود که به دست فرد اشتباهی نیفتد!
نورویگ پیام امیدوارکنندهای در این زمینه میدهد. زمانیکه یکی از حضار این نگرانی را در رابطه با مسائل اخلاقی در هوش مصنوعی بیان میکند، نورویگ به او یادآوری میکند که چرا انسانها در وهله اول در حال توسعه فناوری هستند. او تأکید میکند: ما سیستمی را مدنظر قرار دادهایم که در آن، فناوریها بتوانند بهتر از ما عمل کنند.
به طور کلی، پیشرفت فناوری برای همه به معنای زندگی بهتر است. هوش مصنوعی پتانسیل گستردهای دارد و مسئولیت اجرای آن به عهده ما است تا سیستمهایی ارائه دهیم که توانایی رعایت اخلاقیات را مشابه بهترین حالت انسانی داشته باشند.
نظر شما