به گزارش خبرگزاری مهر به نقل از فیز، به طور معمول افراد تصمیم گیرنده براساس پیش بینی هایی که نتایجی نامشخص دارند، به طور متوالی گزینه هایی را انتخاب می کنند. این روند به خصوص درباره قضات دادگاه ها صحت دارد که درباره آنکه برای متهم قرار وثیقه صادر کنند یا خیر یا آنکه چگونه مجازات متهمان را تعیین کنند، تصمیم می گیرند.
اکنون شرکت ها به طور روزافزونی از مدل های یادگیری ماشینی در تصمیم گیری هایی با ریسک بالا استفاده می کنند. این سیستم ها فرضیات مختلفی درباره رفتارهای انسانی مبنای خود قرار می دهند. همین روند در توصیه های محصول در آمازون، فیلتر کردن هرزنامه های ایمیل شده و متن های پیش بینی کننده روی موبایل نیز نقش دارد.
در همین راستا محققان یک تست از چنین فرضیه رفتاری را توسعه دادند تا مشخص شود آیا تصمیم گیرندگان به طور سیستماتیک پیش بینی های اشتباه انجام می دهند یا خیر. همچنین آنها روش هایی برای تخمین تبعیض آمیز بودن پیش بینی هایشان نیز توسعه دادند.
تحقیق مذکور با تحلیل سیستم پیش از محاکمه شهر نیویورک نشان داد تعداد زیادی از قضات با توجه به ویژگی های متهم مانند نژاد، سن و رفتارهای پیشین، پیش بینی های سیستماتیک اشتباهی درباره خطر سوء رفتار قبل محاکمه افراد انجام می دهد. پژوهشگران این موضوع را بررسی کردند که آیا تصمیم قضات برای آزاد کردن افراد نشان دهنده اعتقاد صحیح آنها درباره خطر عدم حضور متهم در دادگاه است یا خیر. پژوهش براساس اطلاعات بیش از یک میلیون پرونده در شهر نیویورک انجام شد که 758027 مورد آن مشمول آزادی پیش از محاکمه بودند.
تحلیل ها حاکی از آن است که حداقل 20 درصد قضات شهر نیویورک درباره پیش بینی خطر سورفتار متهم با توجه به ویژگی های او اشتباه می کنند. محققان با تکیه بر این تحلیل تاثیر جایگزینی قضات با الگوریتم های تصمیم گیری را تخمین زدند.
هرچند این تحقیق اشاره می کند جایگزین کردن الگوریتم های هوش مصنوعی با قضات تاثیرات مبهمی دارد اما به نظر می رسد به بهبود 20 درصدی نتایج دادگاه منجر می شود.