گروه مطالعات اخلاقی پژوهشگاه فضای مجازی با بررسی اینکه کدام مسائل ذهن متخصصان هوش مصنوعی را بیشتر درگیر می کند، به تشریح ۹ موضوع برتر اخلاقی در پدیده هوش مصنوعی پرداخت.

به گزارش خبرگزاری مهر به نقل از پژوهشگاه فضای مجازی، هوش مصنوعی زندگی ما را در بیشتر موارد، تحت تأثیر قرار می‌دهد، به عنوان نمونه، می‌توان به بهینه‌سازی لجستیک، تشخیص تقلب، خلق آثار هنری، انجام تحقیقات و ارائه ماشین‌های ترجمه‌، اشاره کرد. سیستم‌های ماشینی هوشمند، زندگی ما را به سمت بهتر شدن، تغییر می‌دهند. هرچه این سیستم‌ها، توانایی بیشتری پیدا می‌کنند، دنیای ما نیز کارآمدتر و در نتیجه ثروتمندتر می‌شود.

غول‌های فناوری مانند آلفابت، آمازون، فیسبوک، آی بی ام و مایکروسافت - و همچنین افرادی مانند استفان هاوکینگ و ایلان ماسک اعتقاد داشتند که اکنون زمان مناسبی برای صحبت در مورد چشم‌انداز نامحدود هوش مصنوعی است. از بسیاری جهات، این مورد، به همان اندازه که برای فناوری در حال ظهور، مرز جدیدی ارائه می‌دهد، برای اخلاقیات و ارزیابی ریسک نیز مرز جدیدی تعیین خواهد کرد. پس باید دید، کدام مسائل و مکالمات، ذهن متخصصان هوش مصنوعی را بیشتر درگیر می‌کند؟

بیکاری؛ بعد از اتمام مشاغل چه اتفاقی می‌افتد؟

سلسه‌مراتب کار، در اولویت نگرانی‌های مربوط به خودکارسازی است. همانطور که روش‌های خودکارسازی مشاغل را ابداع کرده‌ایم، می‌توانیم فضایی را برای افراد فراهم کنیم تا نقش‌های پیچیده‌تری را به عهده بگیرند. به عبارتی، از کار فیزیکی که بر جهان قبل از صنعت مسلط بود، به سمت کار مدیریتی و اجرایی که مشخصه جامعه جهانی شده است، حرکت کنیم.

به عنوان نمونه، سیستم حمل و نقل را در نظر بگیرید. در حال حاضر، این سیستم، تنها در ایالات متحده، میلیون‌ها نفر را استخدام می‌کند. اگر کامیون‌های خودرانی که توسط ایلان ماسک وعده داده شده، در دهه آینده، به طور گسترده در دسترس باشد، چه اتفاقی خواهد بود؟ اما از سوی دیگر، اگر ریسک پایین تصادف را در نظر بگیریم، کامیون‌های خودران، یک انتخاب اخلاقی به نظر می‌رسند. همین سناریو می‌تواند برای کارکنان ادارات و همچنین اکثریت نیروی کار در کشورهای توسعه‌یافته، اتفاق بیفتد.

اینجاست که به این سوال می‌رسیم که چگونه می‌توانیم در این عصر، وقت خود را صرف کنیم؟ بیشتر مردم هنوز به اینکه وقت خود را برای کسب درآمد کافی، برای تأمین هزینه‌های زندگی خودشان و خانواده‌هایشان صرف کنند، متکی هستند. ما تنها می‌توانیم امیدوار باشیم که این فرصت، به مردم این امکان را بدهد، تا در فعالیت‌های غیرکاری، مانند مراقبت از خانواده‌، تعامل با جوامع و یادگیری شیوه‌های جدید مشارکت در جامعه انسانی، وقت بیشتری صرف کنند.

اگر این انتقال به صورت موفق انجام شود، ممکن است روزی به عقب نگاه کرده و فکر کنیم که وحشیانه است که بشر برای اینکه بتواند زندگی کند، مجبور است بیشتر وقت بیداری خود را برای کار کردن تلف کند.

نابرابری؛ چگونه ثروت ایجاد شده توسط ماشین‌ها را توزیع کنیم؟

سیستم اقتصادی ما، مبتنی بر جبران خسارت برای اقتصاد است، که اغلب با استفاده از دستمزد ساعتی ارزیابی می‌شود. اکثر شرکت‌های مرتبط با محصولات و خدمات، هنوز به کار ساعتی وابسته هستند. اما با استفاده از هوش مصنوعی، یک شرکت می‌تواند به شدت، تکیه بر نیروی کار انسانی را کاهش دهد و این امر، بدین معنی است که درآمد به افراد کمتری خواهد رسید. در نتیجه، افرادی که در شرکت‌های مبتنی بر هوش مصنوعی، مالکیت دارند، همه پول را دریافت خواهند کرد.

ما در حال حاضر، شاهد افزایش شکاف ثروت هستیم، جایی‌که بنیانگذاران شرکت‌های نوپا، بخش عمده ای از ثروت مازاد اقتصادی ایجاد شده را کسب می‌کنند. در سال ۲۰۱۴، در سه شرکت بزرگ در دیترویت و سه شرکت بزرگ در دره سیلیکون کاهش شدید تعداد کارمندان، انجام شد. این در حالی است که تنها در دره سیلیکون، با کاهش ۱۰ برابری کارمندان، درآمدی مشابه قبل به دست آمد.

اگر واقعاً جامعه پساکار را تصور کنیم، چگونه باید در این دوران، اقتصادی عادلانه را شکل دهیم؟

بشریت؛ ماشین‌ها چگونه بر رفتار و تعاملات ما تأثیر می‌گذارند؟

ربات‌های هوشمند مصنوعی، در مدل‌سازی مکالمه و روابط انسانی روز به روز بهتر می‌شوند. در سال ۲۰۱۵، یک ربات به نام یوجین گوستمن، برای اولین بار برنده چالش تورینگ شد. در این چالش، ارزیاب‌های انسانی از ورودی متنی، برای چت با یک موجودیت ناشناس استفاده می‌کردند، سپس این افراد، باید حدس می‌زدند که در حال مکالمه با یک انسان بوده‌اند یا با یک ماشین چت کرده‌اند. یوجین گوستمن، بیش از نیمی از افراد رأی‌دهنده را فریب داد، به طوری‌که آنها فکر کردند که با یک انسان صحبت کرده‌اند.

این نقطه عطف، تنها آغاز برای عصری است که ما به طور دائم با ماشین‌ها، چه در حوزه خدمات مشتری و چه در فروش، به نحوی ارتباط برقرار می‌کنیم، که گویی آنها انسان هستند. در حالی‌که انسان، در میزان توجه و مهربانی که می‌تواند نسبت به شخص دیگری صرف کند، محدودیت دارد، اما ربات‌های مصنوعی می‌توانند منابع تقریباً نامحدودی را برای برقراری روابط، به کار گیرند.

با اینکه بسیاری از ما از این مسأله آگاه نیستیم، اما در این عصر شاهد این هستیم که چگونه ماشین‌ها می‌توانند باعث تحریک مراکز پاداش در مغز انسان شوند. این موضوع در اعتیادآور کردن بازی‌های ویدئویی و موبایل، قابل مشاهده است. اعتیاد به فناوری، مرز جدیدی از وابستگی‌های انسانی است.

حماقت مصنوعی؛ چگونه می‌توان از بروز اشتباه جلوگیری کرد؟

هوش، خواه در انسان باشد یا ماشین، از یادگیری نشأت می‌گیرد. سیستم‌ها، معمولاً یک مرحله آموزشی دارند که در آن «یاد می‌گیرند» تا الگوهای صحیح را تشخیص دهند و مطابق با ورودی‌های خود عمل کنند. زمانی که یک سیستم به‌طور کامل آموزش ببیند، می‌تواند وارد مرحله آزمایش شود، جایی‌که با مثال‌های بیشتری سروکار دارد و در این مرحله بهتر می‌توان نحوه عملکرد آن را مشاهده کرد.

بدیهی است که مرحله آموزش، نمی‌تواند تمام نمونه‌های احتمالی را که یک سیستم ممکن است در دنیای واقعی با آن مواجه شود، پوشش دهد. این سیستم‌ها را می‌توان با روش‌هایی که برای گول زدن انسان درست عمل نمی‌کند، فریب داد. برای مثال، الگوهای نقطه‌ای تصادفی، می‌توانند ماشین را به سمت چیزی که در واقع وجود ندارد، هدایت کنند. اگر برای ورود به دنیای جدیدی از کار، امنیت و کارایی، به هوش مصنوعی تکیه کنیم، باید اطمینان حاصل کنیم که ماشین طبق برنامه داده‌شده، عمل می‌کند و مردم نمی‌توانند بر آن غلبه کرده و از آن برای پیشبرد اهداف خود استفاده کنند.

ربات‌های نژادپرست؛ چگونه سوگیری‌های هوش مصنوعی را حذف کنیم؟

هوش مصنوعی اگرچه دارای سرعت و ظرفیت پردازشی بسیار فراتر از توانایی انسان است، اما همیشه نمی‌تواند قابل‌اعتماد و بی‌طرف باشد. گوگل و شرکت اصلی آن آلفابت، یکی از پیشگامان در زمینه هوش مصنوعی هستند. یکی از سرویس‌های مرتبط با هوش مصنوعی این شرکت، سرویس عکس‌های گوگل است که در آن از هوش مصنوعی برای شناسایی افراد، اشیا و صحنه‌ها استفاده می‌شود. اما گاهی نیز ممکن است اشتباه شود.

برای مثال، می‌توان به زمانی‌که یک دوربین، حساسیت نژادی را از دست داد، اشاره کرد. نمونه این اشتباه در یک دوربین دیجیتال مشاهده شد. به این‌صورت که برای افرادی که دارای چشمان خاصی هستند، نظیر ژاپنی‌ها، این دوربین قادر به تفکیک خنده این افراد با چشمک زدن نبود. این امر به‌دلیل عدم توجه به حساسیت‌های نژادی در طراحی و استفاده از هوش مصنوعی، رخ داد.

به عنوان نمونه دیگر، می‌توان به زمانی اشاره کرد، که از یک نرم‌افزار، به‌منظور پیش‌بینی مجرمان آینده، استفاده می‌شد. نتایج به‌دست آمده از این ابزار، وجود تعصب علیه سیاه‌پوستان را نشان می‌داد. ماجرا به این‌صورت بود که دختری سیاه‌پوست، که به جرم استفاده بدون اجازه از دوچرخه همسایه به زندان افتاده بود، به همراه مردی سفیدپوست که به جرم دزدی مبلغ هنگفتی از دخل فروشگاه، در زندان بود و سابقه سرقت مسلحانه را نیز داشت، توسط این نرم افزار، به منظور پیش‌بینی احتمال وقوع جرم در آینده، مورد بررسی قرار گرفتند.

نتیجه نشان داد که احتمال ارتکاب جرم توسط دختر سیاه‌پوست، به‌مراتب، بالاتر از احتمال ارتکاب جرم به‌وسیله مرد سفیدپوست است. این در حالی است که چندسال بعد، در حالی‌که دختر سیاه‌پوست، هیچ جرمی مرتکب نشده بود، مرد سفیدپوست در حال گذراندن دوره محکومیت خود، به جرم سرقت مسلحانه از یک انبار، بود. این نمونه‌ای از اشتباه هوش مصنوعی، به‌دلیل استفاده از داده‌های متعصبانه نسبت به سیاه‌پوستان است.

نباید فراموش کنیم که سیستم‌های هوش مصنوعی که توسط انسان‌ها ایجاد می‌شوند، می‌توانند قضاوت‌هایی مغرضانه یا محدود داشته‌باشند.

امنیت؛ چگونه هوش مصنوعی را از شر دشمنان در امان نگه داریم؟

هر چه یک فناوری قدرتمندتر شود، بیشتر می‌توان از آن، برای مقاصد پلید، به اندازه مقاصد خوب، استفاده کرد. این امر، نه تنها در مورد ربات‌هایی که برای جایگزینی سربازان انسانی، یا سلاح‌های خودمختار، استفاده می‌شوند، صادق است، بلکه در مورد سیستم‌های هوش مصنوعی، که استفاده نادرست از آنها می‌تواند منجر به آسیب شود، نیز صدق می‌کند. از آنجا که این نبردها، فقط در میدان جنگ انجام نمی‌شود، امنیت سایبری از اهمیت بیشتری برخوردار خواهد بود. به هر حال ما با سیستمی روبرو هستیم که به‌مراتب از ما، سریع‌تر و تواناتر است.

اجنه شیطانی؛ چگونه از عواقب ناخواسته جلوگیری کنیم؟

فقط دشمنان نیستند که باید نگرانشان باشیم. چه اتفاقی خواهد افتاد، اگر خود هوش مصنوعی دشمن ما شود؟ این سوال، به این معنی نیست که ابزار هوش مصنوعی، ناگهان به یک شیطان، به روشی که برای یک انسان ممکن است، تبدیل شود یا مشابه حوادثی که درباره هوش مصنوعی در فیلم‌های هالیوودی نشان داده شود، باشد. بلکه می‌توان یک سیستم هوش مصنوعی پیشرفته را به‌عنوان «جن درون بطری»، در نظر گرفت، به این صورت، که می‌تواند آرزوها را برآورده کند، اما ممکن است، عواقب پیش‌بینی‌نشده وحشتناکی نیز داشته باشد.

در مورد یک ماشین، احتمال اینکه سوءنیتی در کار باشد، کم است. تنها فقدان درک کاملی از آنچه برای این ماشین‌ها مدنظر است، مطرح می‌شود. یک سیستم هوش مصنوعی را تصور کنید که برای اعلام راه‌حل ریشه‌کن کردن سرطان در جهان، از او سوال پرسیده شود. بعد از محاسبات فراوان، این ابزار، فرمولی را به‌عنوان نتیجه ارائه می‌دهد که در واقع، پایان سرطان را با کشتن همه مردم روی کره زمین، به ارمغان می‌آورد. در این حالت، مشخص است که کامپیوتر، در رابطه با هدف مدنظر خودش که «نه به سرطان بیشتر» است، بسیار کارآمد عمل کرده، اما مسلماً این راه حل، روشی که مدنظر انسان‌ها باشد، نخواهد بود.

تکینگی؛ چطور یک سیستم هوشمند پیچیده را تحت کنترل داشته باشیم؟

دلیل قرار گرفتن انسان، در بالای زنجیره غذایی، دندان‌های تیز یا عضلات قوی نیست. می‌توان گفت، سلطه انسان به‌طور کامل، به خاطر نبوغ و ذکاوت او است. ما می‌توانیم از حیوانات بزرگ‌تر، سریع‌تر و قوی‌تر بهره بگیریم، به این دلیل، که قادر به ساخت ابزاری برای کنترل و استفاده از آنها هستیم. این ابزار می‌تواند هم ابزار فیزیکی، مانند قفس و سلاح بوده و هم ابزار شناختی مانند آموزش و شرطی‌سازی، باشد.

موارد فوق، یک سوال جدی در رابطه با هوش مصنوعی ایجاد می‌کند: آیا هوش مصنوعی، روزی، همان مزیت را نسبت به ما خواهد داشت؟ ما نمی‌توانیم فقط به کشیدن دوشاخه، اعتماد کنیم. چون یک ماشین کاملاً پیشرفته، ممکن است این حرکت را پیش‌بینی کرده و از خود در مقابل آن دفاع کند. این همان چیزی است که برخی "تکینگی" می‌نامند: نقطه زمانی که انسان دیگر باهوش‌ترین موجود روی کره زمین نیست.

حقوق ربات‌ها؛ چگونه رفتار انسانی با هوش مصنوعی را تعریف کنیم؟

در حالی‌که دانشمندان علوم مغز و اعصاب، هنوز در حال رمزگشایی اسرار تجربه‌های آگاهانه هستند، در یک سیستم هوش مصنوعی مبتنی بر یادگیری تقویتی، بهبود عملکرد با ارائه یک پاداش مجازی، تقویت می‌شود. اگرچه سیستم‌های هوش مصنوعی هنوز نسبتاً سطحی هستند، اما در حال پیچیده‌تر شدن و نزدیک شدن به زندگی عادی ما هستند.

زمانی‌که ماشین‌ها را به عنوان نهادی در نظر بگیریم که می‌توانند ادراک و احساس داشته و عملی را انجام دهند، فکر کردن درباره اینکه باید برای وضعیت حقوقی آنها، تدابیری لحاظ کنیم، جهش بزرگی به نظر نمی‌رسد. اما آیا باید با این ماشین‌ها، مانند حیوانات با سطح هوش مشابه، رفتار شود؟ آیا ما باید رنج ناشی از وجود احساس در ماشین را نیز در نظر بگیریم؟

به‌طور کلی باید توجه داشت که پیشرفت فناوری هوش مصنوعی به معنای زندگی بهتر برای همه است. هوش مصنوعی دارای پتانسیل وسیعی است و مسئولیت پیاده‌سازی و اجرای صحیح آن، با در نظر گرفتن همه مخاطرات، به عهده ما است.