کشورهای مختلف از چند سال قبل وضع قوانینی برای مقابله با نفرت پراکنی و محتوای خشن در فضای مجازی را آغاز کرده اند و سعی دارند شبکه های اجتماعی را وادار به قبول مسئولیت در حذف و کنترل آن کنند.

به گزارش خبرنگار مهر، در کشور ما در پی حادثه قتل یک زن در اهواز به دست همسرش در روزهای اخیر و همزمان انتشار تصاویر و ویدئوهای مربوط به آن در فضای مجازی، مجدداً موضوع قانونمند کردن محتوای آنلاین به میان آمده است. انتشار این تصاویر واکنش‌های مختلفی را در بر داشت و از سویی به جریحه دار شدن احساسات عمومی منجر شد.

اگرچه در پی این رویداد برخی مسئولان اظهار نظر کرده و انتشار این تصاویر و یا فیلم‌ها در مجازی و رسانه‌ها را ممنوع دانستند اما آنچه در این زمینه واضح است این است که محتوای فضای مجازی و نحوه انتشار آن در کشور ما قانونمند نیست و چارچوب مشخصی ندارد.

از سوی دیگر آنچه خلاء آن بیش از پیش احساس می‌شود، نحوه مواجهه و مقابله ما با پلتفرم‌ها در این زمینه است چراکه آنها به ویژه پلتفرم‌های خارجی از قوانین داخلی کشور پیروی نمی‌کند.

این درحالی است که کشورهای مختلف در سراسر جهان از چند سال قبل با وضع قوانینی در مقابل محتوای نفرت پراکنی و خشونت‌آمیز فضای مجازی، سعی دارند کاربران شان را محافظت کنند.

قوانین بازدارنده در این کشورها اجازه گسترش چنین محتوایی در فضای مجازی را نمی‌دهد و در صورت حذف نشدن آن جریمه‌ها و تنبیهاتی در انتظار شبکه‌های اجتماعی متخلف است.

برخی کشورها شرکت‌های فناوری را ملزم کرده‌اند خودشان در این باره قوانینی وضع کنند و بر اساس قوانین برخی دیگر، محتوای نفرت پراکنی و خشونت‌آمیز ظرف مدت زمانی محدود پس از انتشار حذف شود. در غیر این صورت پلتفرم متخلف جریمه می‌شود. به هر روی آنچه در زیر می‌خوانید مجموعه‌ای از قوانینی است که کشورهای مختلف طی سالیان اخیر برای مقابله با نفرت پراکنی و محتوای خشونت‌آمیز در فضای مجازی وضع کرده‌اند.

شرکت‌های فناوری مسئول حذف محتوای خشن در آمریکا

در آمریکا پلتفرم‌های فناوری مسئول قانونمند کردن خودشان هستند. شبکه‌های اجتماعی مختلف مانند توئیتر، فیس بوک و اینستاگرام قوانینی در خصوص محتوای خشونت‌آمیز دارند.

این پلتفرم‌های پرطرفدار سیاست‌های بازبینی محتوای مشابهی دارند به طوری که هرگونه پست و محتوایی که خشونت را ترویج یا تشویق کند، ممنوع کرده‌اند. پست‌های حاوی نفرت پراکنی نیز در آمریکا ممنوع شده‌است. پلتفرم‌های بزرگ همچنین برای محدود کردن چنین محتوایی اقداماتی نظیر راستی آزمایی محتوا را نیز در دستور کار خود قرار داده‌اند.

به عنوان مثال محتوای خشونت‌آمیز، قلدری و تهدید در فیس بوک ممنوع است. این شبکه اجتماعی گاهی اوقات در صورتی که محتوای مذکور به نفع عموم مردم باشد، آن را نگه می‌دارد و در غیر این صورت آن را حذف می‌کند.

توئیتر نیز سیاست مشابهی دارد. کاربران می‌توانند پروفایل‌ها، پست‌ها، تصاویر، ویدئوها، گروه‌هایی با محتوای خشونت‌آمیز را گزارش دهند. همچنین یوتیوب نیز این نوع محتوا را ممنوع کرده است.

این نوع محتوا در واتس اپ نیز ممنوع است. انتشار محتوای غیرقانونی، نامناسب، افتراآمیز، تهدید کننده، ترسناک، آزار دهنده، نفرت پراکنی، تبعیض‌آمیز در این پلتفرم ممنوع است.

نقطه عطف فرایند خود قانونمندسازی پلتفرم‌های اجتماعی در آمریکا حمله حامیان دونالد ترامپ، رییس جمهور پیشین آمریکا به کنگره در ۶ ژانویه ۲۰۲۱ بود. در نتیجه این رویداد، حساب کاربری دونالد ترامپ در فیس بوک ، توئیتر، اینستاگرام، پینترست، یوتیوب و غیره مسدود شد. از سوی دیگر توئیتر یک گروه خشن حامی نظریه‌های توطئه(QAnon) افراطی را نیز مسدود کرد. همچنین پارلر یک اپلیکیشن شبکه اجتماعی که مدعی گسترش آزادی بیان بود نیز از سرویس‌های میزبان وب آمازون(AWS) حذف شد. این وب سایت در نهایت یک ماه پس از این ماجرا آفلاین شد.

در همین راستا بحث و گمانه زنی‌هایی درباره بازبینی محتوای آنلاین در قانون آمریکا به وجود آمد.

تلاش انگلیس برای حذف محتوای نامناسب در پلتفرم‌های انتشار ویدئو و افزایش قدرت پلیس

این کشور در حال حاضر مشغول بررسی و اصلاح قانون ایمنی آنلاین است تا موارد و جرائم بیشتری را در بر گیرد. با اصلاح این قانون پلتفرم‌هایی که محتوای غیرقانونی را به نمایش بگذارند با جریمه‌های کلان و یا مسدود شدن روبرو می‌شوند.

در این قانون آزارهای آنلاین، غیرقانونی محسوب می‌شوند. نمونه‌های آن عبارتند از سوءاستفاده از کودکان، استفاده از اینترنت برای مقاصد تروریستی، جرائم مربوط به نفرت و همچنین نفرت پراکنی، آزار قلدری سایبری و سوءاستفاده آنلاین. در این میان پلتفرم‌های آنلاین اپ ها و نرم افزارها و غیره باید محتوای خود را مدیریت کنند. در حال حاضر هرکسی که پلتفرم‌های آنلاین را مدیریت می‌کند براساس قانون انگلیس موظف به حذف محتوای غیرقانونی آنلاین است.

برای این منظور، پلتفرم‌ها باید به شکل ایمن تری طراحی شوند. این بدان معنا است که ویژگی‌های بنیادین ایمنی باید در طراحی وب سایت، اپ یا نرم افزار لحاظ شوند. همچنین کاربران باید محتوای غیرقانونی را به نیروی‌های مجری قانون و پلیس اطلاع دهند.

انگلیس در اکتبر ۲۰۲۱ میلادی قوانین جدیدی وضع کرد که مربوط به پلتفرم‌های اشتراک گذاری ویدئو بود. هدف از این قوانین، حفاظت از کاربران و افراد زیر سن قانونی در مقابل نفرت پراکنی و ویدئوهای خشونت‌آمیز است البته این کشور در اکتبر ۲۰۲۱ میلادی قوانین جدیدی وضع کرد که هدف آن پلتفرم‌های اشتراک گذاری ویدئو بود. هدف این قانون حفاظت از کاربران و افراد زیر سن قانونی در مقابل نفرت پراکنی و ویدئوهای خشونت‌آمیز علیه گروه‌هایی خاص است. در همین راستا آفکام (رگولاتور انگلیس در بخش رسانه‌ها)، دستورالعمل جدید برای پلتفرم‌هایی مانند تیک تاک، اسنپ چت، ویمو و توییچ اعلام کرد. این پلتفرم‌ها باید اقدامات مناسب جهت محافظت کاربران در مقابل محتوای مخرب را اتخاذ کنند. محتوای تروریستی، نژاد پرستی و غیره بخشی از این محتوای خشن به حساب می‌آیند.

اما پیش از آن و در سال ۲۰۱۹ میلادی ساجد جاوید وزیر کشور وقت انگلیس و رییس کارگروه خشونت جدی انگلیس بودجه ۱.۳۸ میلیون پوندی برای این کارگروه تعیین کرد تا پایان ماه می همان سال اجرایی شود. تیم ۱۷ نفره شامل نیروی پلیس و افسرانی بود که وظیفه آنها حذف محتوای مربوط به گروه‌های جنایتکارانه در فضای آنلاین بود.

در این کارگروه مدیران ارشد گوگل و فیس بوک اقدامات خود را برای مقابله با محتوای خشن از جمله ویدئوهای مروج خشونت عرضه کردند.

کارگروه مشترک پلیس ملی انگلیس و شبکه‌های اجتماعی در پلیس متروپولیتن تاسیس شد. در این کارگروه تیم‌هایی مختص مقابله با محتوای آنلاین روی تحقیق، اختلال و اجرای قانون در مقابل گروه‌های مجرمانه فعالیت می‌کنند.

همچنین این کارگروه محتوای خطرناک در شبکه‌های اجتماعی را مشخص می‌کند تا آنها را به طور دائم حذف کنند. این مرکز بخشی از استراتژی خشونت جدی دولت انگلیس برای دورکردن جوانان از جرائم و همچنین قدرتمندتر کردن واکنش پلیس بود.

مهلت ۲۴ ساعته آلمان برای حذف محتوای نامناسب

آلمان نیز یکی از کشورهایی است که در این زمینه قوانینی وضع کرده است. قانون اجرایی شبکه یا NetzDG که به قانون فیس بوک نیز مشهور است برای مقابله با نفرت پراکنی و اخبار جعلی در شبکه‌های اجتماعی در این کشور وضع شده است.

این قانون شبکه‌های اجتماعی با بیش از ۲ میلیون کاربر را ملزم به حذف محتوای غیرقانونی واضح در ۲۴ ساعت و محتوای غیرقانونی ضمنی طی ۷ روز پس از پست آن، می‌کند. شبکه اجتماعی خاطی با جریمه‌ای تا ۵۰ میلیون یورو روبرو می‌شود. محتوای حذف شده باید حداقل تا ۱۰ هفته بعد نیز حذف شود و پلتفرم‌ها باید هر ۶ ماه یکبار گزارش‌های شفافیت درباره محتوای غیرقانونی را ارائه کنند.

این قانون در سال ۲۰۱۷ میلادی تصویب شد و از ۲۰۱۸ میلادی اجرایی شده است.

تلاش نافرجام فرانسه برای تصویب قانون مقابله با محتوای نامناسب

در این درحالی است که فرانسه نیز در سال ۲۰۱۹ میلادی قانونی مشابه NetDG وضع کرد. این قانون با پشتیبانی امانوئل مکرون و حزب او پلتفرم‌های آنلاین را ملزم می‌کرد تا محتوای خشن و نفرت پراکنی که توسط کاربران مشخص شده را تا ۲۴ ساعت حذف کنند. اگر پلتفرم این قانون را نقض می‌کرد، با جریمه‌ای ۱.۲۵ میلیون یورویی روبرو می‌شد.

اما در سال ۲۰۲۰ میلادی شورای قانون اساسی فرانسه، (دادگاهی که قوانین را بررسی می‌کند تا مطابق قانون اساسی کشور باشند) آن را لغو کرد. به گفته این دادگاه قانون مذکور سبب می‌شد پلتفرم‌ها برای اجتناب از جریمه و تنبیه شدن، هر گونه محتوای گزارش شده را بدون در نظر گرفتن آنکه نفرت پراکنی به حساب می‌آید یا خیر حذف کنند.

رویداد کریستی چرچ سرآغاز تلاش نیوزلند و استرالیا برای مقابله با محتوای خشن

نیوزلند نیز درباره حذف محتوای غیرقانونی قانون مشخصی دارد. پس از حمله تروریستی کریستی چرچ در این کشور ساز و کاری برای مقابله صریح‌تر با محتوای خشونت‌آمیز و نفرت پراکنی در نظر گرفته شد. در این حلمه یک فرد افراط گرا با حمله به مسجدی حدود ۵۰ نفر را به قتل رساند و کل این فرایند را به طور زنده در فیس بوک پخش کرد.

مقابله با چالش افراطی گری چالشی پیچیده و بلند مدت است بنابراین چند سازمان دولتی، آژانس مجری قانون، جوامع مدنی، کارشناسان نیوزلندی همه در این حوزه نقش دارند.

تیم ایمنی دیجیتال در وزارت امور داخلی مسئولیت ایمن نگه داشتن شهروندان این کشور از آزارهای آنلاین و همچنین اجتناب از گسترش محتوای مخربی را دارد که خشونت را ترویج می‌کند

تیم ایمنی دیجیتال در وزارت امور داخلی مسئولیت ایمن نگه داشتن شهروندان این کشور نسبت به آزارهای آنلاین و همچنین اجتناب از گسترش محتوای مخربی را دارد که خشونت را ترویج می‌کند.

از مسئولیت‌های این تیم شناسایی محیطی است که محتوای خشونت‌آمیز ایجاد و در فضای آنلاین به اشتراک می‌گذارد. همچنین این تیم وظیفه اجتناب، دور کردن و در صورت لزوم تعقیب قانونی افرادی را برعهده دارد که محتوای مخرب را در فضای مجازی به اشتراک می‌گذارند.

دیگر اقدام این کشور تعهد دولت و شرکت‌های فناوری برای حذف محتوای تروریستی و خشونت‌آمیز در فضای آنلاین است.

همچنین طبق قانونی در ۲۰۲۰ میلادی به پارلمان این کشور ارائه شده، پخش زنده هرگونه محتوای غیرقانونی مانند رویداد تروریستی کریستی چرچ یک جرم قانونی است. دولت می‌تواند دستور حذف محتوای آنلاین را به پلتفرم اعلام کند.

استرالیا نیز یکی دیگر از کشورهایی است که قوانینی درزمینه محتوای خشونت‌آمیز و نفرت پراکنی در فضای آنلاین است. در این کشور پلتفرم‌ها ملزم به حذف محتوای منزجرکننده و خشن هستند و در غیر این صورت با جریمه‌های کلان روبرو می‌شوند. این قانون پس از حمله تروریستی کریستی چرچ در نیوزلند که به مسلمانان حاضر در مسجدی حمله و قتل آنان به طور زنده در فیس بوک پخش شد، وضع شده است.

تلاش گسترده هند برای مقابله با محتوای خشونت‌آمیز و نفرت پراکنی

هند با ۵۰۰ میلیون کاربر آنلاین و تاریخچه‌ای از گسترش اخبار جعلی در شبکه‌های اجتماعی و پیام‌رسان ها که گاهاً به خشونت منجر شده، یکی از کشورهایی است که بازبینی محتوا در آن اهمیت زیادی دارد. قانونمندسازی محتوا تحت قانونی به نام قانون فناوری اطلاعات(ITA) قرار دارد.

استفاده از اینترنت برای انتشار محتوای تروریستی تحت جرائم سایبری قانون فناوری اطلاعات قرار می‌گیرد.

با این قانون که در ۲۰۰۰ میلادی وضع و در ۲۰۰۵ میلادی اصلاح شده، چهارچوبی برای مقابله با تروریسم سایبری در هند به وجود آمده است. در سال ۲۰۱۵ میلادی دادگاه عالی هند رای داد شرکت‌های فناوری باید به طور فعال پلتفرم‌ها را برای وجود محتوای غیرقانونی رصد کنند.

هرچند قانون ITA به طور واضح محتوای تروریستی را توضیح نمی‌دهد اما در سال ۲۰۱۵ میلادی مشخص شد استفاده از دستگاه‌های ارتباطی برای به اشتراک گذاری اطلاعاتی که به شدت اهانت آمیز است یا ماهیت تهدیدآمیزی دارد در کنار اخبار جعلی که نفرت و دشمنی به وجود می‌آورد، ممنوع است. در همین راستا شرکت‌های فناوری ملزم هستند در صورت دریافت دستور از دادگاه یا دولت، محتوای مذکور را حذف کنند.

همچنین سازمان‌های دولتی و قضایی می‌توانند از پلتفرم‌های اینترنتی بخواهند محتوای غیرقانونی را حذف کنند.

قانون عملکرد اینترنت در سنگاپور

سنگاپور یکی از هاب های اصلی فناوری در آسیا است و در حقیقت جایگزین آسیایی سیلیکون ولی به حساب می‌آید. بسیاری از شرکت‌های فناوری بزرگ. از جمله فیس بوک، مایکروسافت، گوگل و یوتیوب مقری در سنگاپور دارند.

این کشور در اکتبر ۲۰۱۶ میلادی «قانون عملکرد اینترنت»(Internet Code of Practice) را تصویب کرد که مبنایی برای وظایف سرویس‌های اینترنتی و تهیه کنندگان محتوا در سنگاپور فراهم می‌کند. علاوه بر آن «چارچوب نظارتی اینترنت»(Internet Regulatory Framework) در این کشور وضع شده ، که نمای کلی از رویکرد سنگاپور به مقررات آنلاین را نشان می‌دهد و با «قانون عملکرد اینترنت» نیز مرتبط است. قانون «حفاظت در مقابل محتوای اشتباه و دستکاری آنلاین» (POFMA) نیز در اکتبر ۲۰۱۹ در سنگاپور تصویب شده که مربوط به کنترل گسترش اخبار جعلی به وسیله دستورات اصلاح و حذف محتوا است. در همین راستا سازمان IMDA بر اجرای این قوانین در کشور نظارت دارد.

چارچوب قانونگذاری این کشور به طور خاص محتوای تروریستی آنلاین را هدف می‌گیرد. البته در این خصوص، ممنوعیت محتوای آنلاینی که نفرت را ترویج می‌کند نیز مبنایی برای حذف محتوا به حساب می‌آید.

تمام محتوای اینترنت و تهیه کنندگان سرویس در سنگاپور باید از قانون عملکرد اینترنت پیروی کنند. در صورت نقض قانون IMDA قدرت وضع تحریم از جمله تصویب جریمه بر شرکت‌های فناوری را دارد.