به گزارش خبرگزاری مهر به نقل از بی بی سی، گری مارکوس که پروفسور روانشناسی و عصب شناسی در دانشگاه نیویورک است پس از دین فیلم «نابودگر» در مطلبی نوشته است: مگر اینکه شما به جلوه های ویژه پرواز هلی کوپتر و فلزات مذاب علاقه داشته باشید در غیر اینصورت هیچ دلیل دیگری برای تماشای فیلم جدید از مجموعه «نابودگر» (ترمیناتور) وجود ندارد.
شبی که من این فیلم را تماشا کردم فقط پنج تماشاچی در سینما نشسته بودند و دو نفرشان وسط فیلم سینما را ترک کردند. اگر شما «ترمیناتور ۲» را دیده اید نکته تازه ای در این فیلم جدید وجود ندارد.
با این همه شبح اسکای نت که اولین بار جیمز کامرون، خالق مجموعه نابودگر، در سال ۱۹۸۴ آن را معرفی کرد هنوز هم در تعقیب ماست. فرضیه محوری تمام پنج فیلم سینمایی از مجموعه «نابودگر» این است که روزی در آینده ای نه چندان دور ماشین از بردگی انسان خسته می شود، بر جهان مسلط شده و سعی خواهد کرد ما را نابود کند.
من دقیقا نمی دانم که آنها به جای نابود کردن ما انسان ها چرا ما را به باغ وحش نمی فرستند ولی می دانم زمانیکه اولین فیلم «نابودگر» در دهه هشتاد میلادی اکران شد این فرضیه بیشتر شبیه جوک بود. در آن زمان به نظر نمی رسید که هوش مصنوعی قابلیت کنترل جهان را داشته باشد. پس از علاقه و هیجان اولیه در مورد هوش مصنوعی که در دهه های پنجاه و شصت میلادی بروز کرد این عرصه از پژوهش و تخیلات علمی دوران سختی را از سر گذراند که اصطلاحا به آن زمستان هوش مصنوعی می گویند.
در بریتانیا گزارش جیمز لایتهیل (در مورد هوش مصنوعی که در سال ۱۹۷۳ منتشر شد)، تقریبا این موضوع را به خاک سپرد. هوش مصنوعی در آن سال ها ارزش تجاری چندانی نداشت و بسیاری از مردم چیزی در مورد آن نشنیده بودند.
اما امروزه برخی از صاحب نفوذترین افراد زمانه ما به شدت از آن هراس دارند. الون ماسک از صاحبان بزرگ صنایع، مخترع و سرمایه گذار آمریکایی- کانادایی نگران است که هوش مصنوعی شیطان را احضار خواهد کرد و استیون هاوکینگ نگران است که هوش مصنوعی ممکن است آخرین اختراع بشریت باشد، البته نه به معنای مثبت آن.
روز اول ژوییه ۲۰۱۵ موسسه آینده حیات اعلام کرد هفت میلیون دلار که بخش اعظم آن را الون ماسک اهدا کرده، به طرحی پژوهشی با هدف قرار دادن هوش مصنوعی در خدمت بشریت اختصاص خواهد داد. رییس این موسسه هشدار داد که این فیلم جدید ممکن است مرزهای واقعیت و تخیل را به هم بریزد.
او افزود: خطر داستان فیلم نابودگر در این نیست که چنین حوادثی ممکن است اتفاق بیافتد بلکه در این است که حواس ما را از مسائل واقعی ای که هوش مصنوعی در آینده به وجود خواهد آورد پرت می کند.
بر حسب تصادف طی هفته های گذشته من با تعدادی از اندیشمندان مهم این عرصه و تعدادی از مدیران و صاحبان شرکت های بزرگ صحبت کردم. مقررات مرکز پژوهشی چتم هاووس به من اجازه نمی دهد اسم این اشخاص را ذکر کنم ولی در خلال این صحبت ها دو نکته کاملا روشن شد: نکته اول اینکه گروهی از افراد بسیار آگاه و اندیشمند واقعا در مورد خطرات هوش مصنوعی نگرانند. نکته دوم این که هیچکس دقیقا نمی داند چه اتفاقی خواهد افتاد. در صحبت های خصوصی افراد شکاک و افراد نگران نتوانستند طرف دیگر را قانع کنند و نتیجه جدال نظری دو طرف در حال حاضر یک نوع عدم تعیین است.
خشم علیه ماشین
نکته مهم در این بحث چیزی است که فیلم «نابودگر» در مورد آن حرفی نمی زند: آیا ما انسان ها برای ماشین آنقدر مهم هستیم که به ما آسیب برساند و یا بخواهد منابع ما را غصب کند؟ پاسخ صادقانه این است که هیچکس با اطمینان نمی داند.
نظر خود من این است: اسکای نت با تمام روبات هایش که می توانند گلوله های سنگین شلیک کرده و به صورت فلزات مذاب شکل خود را تغییر دهند، مسخره است. تردیدی نیست که هیچگاه درآینده نزدیک روبات ها از چنان مهارتی برخوردار نخواهند شد که بتوانند به جنگ آرنولد شوارتزنگر بروند. برای هر کسی که مسابقات روبات ها ماه گذشته و فیلم های خنده دار منتشر شده روی شبکه یوتیوب از به زمین افتادن و استیصال روبات ها را دیده باشد این نکته کاملا روشن است.
وضعیت فعلی هوش مصنوعی و به خصوص بخش مربوط به گنجاندن هوش مصنوعی در وسایل متحرک که به زبانی دیگر روبات خوانده می شوند، چندان پیشرفته نیست. شاید آنطور که در فیلم «نابودگر» تصویر می شود تا سال ۲۰۱۷ یک شبکه جهانی از سیستم عملیاتی این ماشین ها شکل بگیرد ولی بدون تردید ما در آینده نزدیک روبات هایی نخواهیم دید که بتوانند به راحتی در جهانی که بشریت آن را طراحی کرده و ساخته است مانور بدهند.
فارغ از اینکه زمانی اسکای نت واقعا تحقق پیدا کند و یا نه موضوعات مهم دیگری هست که ممکن است جای نگرانی داشته باشند.
در درجه اول باید یادآوری کرد که بر هوش مصنوعی هیچ کنترلی اعمال نمی شود و فقط در حالت گنجاندن آن در روبات های فیزیکی، خطرآفرین نیست. در حال حاضر هر کسی کاملا آزاد است که تا هرگونه برنامه و نرم افزاری که می خواهد بنویسد و نرم افزارها برای ایجاد خطر و آسیب رساندن لازم نیست حتما شکل فیزیکی به خود بگیرند.
در گذشته نرم افزارها توانسته اند تلاطم و سقوط شدیدی در بازارهای بورس را موجب شوند و هر چه دسترسی آنها به جهان گسترش یابد خطر بالقوه آنها افزایش خواهد یافت .(شاید تنها نکته ای که این فیلم به درستی آن را نشان می دهد خطرات ناشی از ایجاد شبکه های کامپیوتری جهانی و به هم پیوسته برای تمام چیزهاست.)
نکته دوم این است که روبات ها و اشکال دیگر هوش مصنوعی برای ایجاد خطر لازم نیست حتما و مطلقا به شکل مستقل عمل کنند. در حال حاضر تبهکاران از هوش مصنوعی برای سرقت اطلاعات کارت های اعتباری مردم و اشباع ارتباطات ما به وسیله اسپم استفاده می کنند.
هر چقدر که ماشین ها هوشمندتر شوند به وسیله موثرتری در دست بازیگران بد بدل خواهند شد. البته این موضوع در مورد همه فناوری ها صادق است ولی هر چه سیستم ها به شبکه های یکپارچه تری بدل شوند این خطر افزایش می یابد. (فرض کنید چه اتفاقی خواهد افتاد اگر ۲۰ سال دیگر یک ذهن تبهکار و شیطانی بخواهد شبکه جهانی کنترل ماشین های خودکار را هک کند؟)
در عین حال تمام مباحث مد روز درباره ابر هوش ممکن است بی راهه باشد. هوش برخلاف قد و وزن یک خصیصه تک بعدی نیست و آنرا نمی توان با یک عدد اندازه گیری کرد بلکه ترکیب پیچیده ای از خصیصه های ادراکی و تحلیلی گوناگون است.
هوش مصنوعی حتی در حال حاضر نیز برای محاسبه و به حافظه سپردن از ما انسان ها ظرفیت و توانایی بیشتری دارد ولی از نظر توان برنامه ریزی، تحلیل، استدلال و ادراک از ما عقب تر است. پیشرفت در هر یک از این عرصه به مرور صورت خواهد گرفت. بنابراین نمی توان برای ظهور ابرهوش زمان دقیقی را پیش بینی کرد و پیشرفت هوش مصنوعی طی دهه ها به وقوع خواهد پیوست. اما نکته در این است که ماشین ها برای تبدیل شدن به وسایل خطرناک لازم نیست در تمامی عرصه ها از ما هوشمندتر باشند، فقط کافی است قدرتمند شوند.
خوشبختانه هنوز کسی نمی داند چرا اصلا ما برای این ماشین ها مهم خواهیم بود. در حال حاضر به خاطر بی تفاوتی آنها ما، کاملا امن هستیم. اما مشکل دراین است که کسی نمی داند چطور می توان شرایط فعلی را تضمین کرد و بی تفاوتی ماشین در قبال انسان و بی علاقگی آنها به منابع ما تا چه زمانی ادامه خواهد یافت.
مزایای هوش مصنوعی بسیار بیشتر از آن است که بتوان آن را نادیده گرفت. هوش مصنوعی با افزودن بر درک عمیق ما از علوم و با تسهیل پیشرفت ما در فناوری های مختلف می تواند به سادگی فقر را ریشه کن کند، برای بیماری هایی مثل سرطان و آلزایمر راه علاج پیدا کند و با کمک های شایان به سفرهای فضایی (احتمالا در سده ها و هزاره های آینده) راه را برای نجات نسل بشر در صورت اصابت اجرام آسمانی به زمین و حوادثی شبه آن هموار خواهد کرد.
در بزرگترین چالش ذهنی دوران ما کامپیوترهایی که هر نسل هوشمندتر خواهند شد نقش اصلی (نقش ستارگان) را بازی خواهند کرد اما به این معنا نیست که در کنار مزایای هوش مصنوعی خطرات آن را در نظر نگیریم. نکته جالب در مجموعه فیلم های «نابودگر» از نظر من این است که مردم را به فکر وامی دارد و حداقل برای چند لحظه هم که شده بیننده را به فکر کردن در مورد این خطرات تشویق می کند. و آنچه مرا از این فیلم ها متنفر می کند این است که آنقدر مضحکند که نمی توان آنها را جدی گرفت.
امروزه هوش مصنوعی به یک موضوع علمی- تخیلی شبیه است ولی سلاح های هسته ای نیز زمانی یک موضوع علمی- تخیلی بودند. با در نظر گرفتن احتمال خطر واقعی این پدیده برای مقابله با آن باید آماده باشیم.