به گزارش خبرگزاری مهر، مقامات این سازمان فدرال بر اهمیت پادمانها مؤثر در برابر سو استفاده و احتمال استفاده دشمنان از فناوری هوش مصنوعی علیه این کشور تأکید دارند.
جاناتان لنزنر، رئیس بخش کارکنان اداره تحقیقات فدرال آمریکا، اخیراً طی اظهار نظری در این خصوص، اساسیترین محورهای دیدگاه این آژانس در مورد هوش مصنوعی را چنین برشمرد:
- پیشروی فعالانه در برابر تهدیدها
- محافظت از نوآوری ایالات متحده
- ایجاد یک چارچوب حکمرانی اخلاقی بر این فناوری
وی در حاشیه یک رویداد، از اشتیاق اداره تحقیقات فدرال آمریکا برای استفاده از پتانسیل هوش مصنوعی در حوزه امنیت سایبری خبر داد و همچنین نسبت به امکان استفاده این فناوری توسط دشمنان آمریکا ابراز نگرانی کرد.
اداره تحقیقات فدرال آمریکا علاوه بر ابزارهای تجاری، از ابزارهای یادگیری ماشینی خود برای استفاده از هوش مصنوعی در جنبههای مختلف عملیات خود استفاده میکند. با این حال، هنگامی که صحبت از هوش مصنوعی مولد و مدلهای زبان بزرگ به میان آید، این سازمان بیشتر یک کاربر است تا توسعهدهنده فناوری.
سینتیا کایزر، معاون بخش سایبری اداره تحقیقات فدرال آمریکا نیز در این خصوص توضیح داد که آزمایش و ارزیابی گسترده برای جلوگیری از سوگیری یا نقص در مدلهای هوش مصنوعی امری ضروری است. وی همچنین تاکید کرد که چگونه هوش مصنوعی میتواند به این سازمان در کارهایی مانند ترجمه با استفاده از مجموعه دادههای منبع باز یا تجاری کمک کند. این نهاد امنیتی همچنین فرآیند دقیقی را برای ارزیابی استفاده اخلاقی از هوش مصنوعی ایجاد کرده است که شامل ارزیابی هدف، مزایا، خطرات، کنترلهای حریم خصوصی، نظارت، حسابرسی و تشخیص خطا میشود.
علاوه بر این، اداره تحقیقات فدرال آمریکا قصد دارد ساختار حکمرانی خود را با جامعه اطلاعاتی هماهنگ کند. همکاری با آژانسهای دیگر جنبه دیگری از استفاده اداره تحقیقات فدرال آمریکا از هوش مصنوعی است.
به عقیده بسیاری از کارشناسان، استفاده ایمن و کارآمد از فناوری هوش مصنوعی، مستلزم تعادلی ظریف میان حداکثرسازی مزایا و پرداختن به نگرانیهای اخلاقی در این زمینه است.
نظر شما