یک مطالعه جدید نشان داده است که قوانین دولتی مانند آنچه اخیراً در اتحادیه اروپا معرفی شده، می تواند در تعدیل محتوای مضر رسانه های اجتماعی، حتی وقتی صحبت از سیستم عامل های سریع مانند X (توئیتر سابق) در میان باشد، موثر و کارآمد عمل کند. این یافته ها پیامدهایی برای سیاست گذارانی که به دنبال معرفی مقررات مشابه هستند به دنبال دارد.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از newatlas ، پلتفرم های رسانه های اجتماعی میدان های عمومی دیجیتال جدید هستند. آنها برای به روز ماندن، ایجاد روابط شخصی و حرفه ای، یافتن و به اشتراک گذاری اطلاعات عالی هستند. اما دارای یک جنبه منفی هم می باشند: محتوای مضر.
محتوای مضر رسانههای اجتماعی میتواند اشکال مختلفی داشته باشد، از جمله انتشار اطلاعات غلط و نادرست، پستهای مربوط به تروریسم و مطالبی که خودکشی را تبلیغ میکنند، سخنان نفرتانگیز علیه زنان، مهاجران و گروههای اقلیت، و چالشهای ویروسی که سلامت جوانان را به خطر میاندازد.
چندین کشور در حال بررسی تنظیم محتوای رسانه های اجتماعی جهت کاهش احتمال آسیب هستند، اتحادیه اروپا (EU) هم اقدام به معرفی قانون خدمات دیجیتال در نوامبر ۲۰۲۲ برای مبارزه با انتشار محتوای خطرناک کرده است. مطالعه جدیدی که توسط محققان دانشگاه فناوری سیدنی و موسسه فناوری فدرال سوئیس انجام شده، تأثیر چنین قوانینی را بررسی کرده است.
به گفته نویسنده این مطالعه: «شبکههای اجتماعی مانند فیسبوک، اینستاگرام و توییتر، انگیزه زیادی برای مبارزه با محتوای مضر ندارند، زیرا مدل کسبوکار آنها مبتنی بر توجه به کسب درآمد می باشد. ایلان ماسک توئیتر را با هدف حفظ آزادی بیان برای آینده خریداری کرده است. اما در کنار این آزادی بیان، اطلاعات غلط و نادرست در این فضای بینظم گسترش مییابد و رونق میگیرد.»
قوانین اتحادیه اروپا مکانیسمهایی را در نظر گرفته است که به افراد اجازه میدهد محتوای آنلاین مضر را گزارش دهند و اقدامات لازم برای مقابله با آن را به عمل آورند. همچنین، بر اساس این قوانین، نیاز به تعیین “گزارشدهندگان معتبر” وجود دارد. این گزارشدهندگان معتبر، افرادی هستند که تخصص و دانش موضوعی دارند و مسئول تشخیص و گزارش محتوای مضر در فضای آنلاین هستند. به این ترتیب، این افراد میتوانند به تشخیص و گزارش محتوای مخرب و آسیبرسان در فضای آنلاین کمک کنند.
پس از گزارش محتوا، پلتفرم ها موظفند آن را ظرف ۲۴ ساعت حذف کنند. ولی، رسانههای اجتماعی بیشتر به «ویروسی بودن» معروف هستند یعنی توانایی انتشار سریع و گسترده محتوا را دارند. بنابراین، سوال اصلی محققین در مطالعه حاضر این می باشد که آیا این قانون می تواند موثر باشد؟
ما نمونههایی را در توییتر دیدهایم که در آن اشتراکگذاری تصویر جعلی از یک انفجار در نزدیکی پنتاگون باعث شده که بازار سهام ایالات متحده در عرض چند دقیقه سقوط کند، بنابراین تردیدهایی در مورد تأثیر مقررات جدید اتحادیه اروپا وجود دارد.
پژوهشگران از مدلسازی گسترش اطلاعات برای تجزیه و تحلیل پویایی انتشار محتوا استفاده کردند. برای بررسی ارتباط بین زمان مدیریت و کاهش خطر، آنها به این دو معیار پرداختند: آسیبپذیری احتمالی، تعداد ارسالهای “فرزند” مضر تولید شده، و نیمه عمر محتوا یعنی زمانی که طول می کشد تا نیمی از “فرزندان” تولید شوند.
در اینجا، تعداد ارسالهای “فرزند” مربوط به محتوای مضر یا آسیبرسان که از محتوای اصلی به عنوان مبدأ تولید میشوند، مورد بررسی قرار میگیرد. به طور مثال، اگر یک محتوا آسیبرسان در یک شبکه اجتماعی منتشر شود، ارسالهای دیگری که از آن محتوا به عنوان مرجع الهام گرفتهاند و خود محتوای مضر دیگری را تولید میکنند، به عنوان ارسالهای “فرزند” محسوب میشوند. این مفهوم برای تجزیه و تحلیل گسترش محتوای مضر و تاثیرات آن در فضای آنلاین استفاده میشود.
تحقیقات قبلی نیمه عمر پست های رسانه های اجتماعی در پلتفرم های مختلف را مشخص کرده است. X دارای سریعترین نیمه عمر محتوا با ۲۴ دقیقه، پس از آن فیس بوک با ۱۰۵ دقیقه، اینستاگرام با ۲۰ ساعت و لینکدین با ۲۴ ساعت و نیمه عمر یوتیوب ۸٫۸ روز می باشد.
نیمه عمر کمتر به این معناست که بیشترین آسیب بلافاصله پس از پست شدن محتوا اتفاق میافتد و برای مؤثر بودن باید تعدیل محتوا به سرعت انجام شود. بر اساس یافته ها، زمان واکنش لازم برای تعدیل محتوا با نیمه عمر محتوا و آسیب احتمالی افزایش مییابد.
پژوهشگران متوجه شدند که حتی یک تاخیر ۲۴ ساعته مدیریتی که توسط دولت مشروط شده باشد، احتمالاً میتواند در محدود کردن خسارت موثر باشد، اما این تاثیر وابسته به چند عامل کلیدی می باشد.
کلید موفقیت در تنظیمات موثر شامل تعیین گزارشدهندگان معتبر، ایجاد ابزار مؤثر برای گزارش محتوای مضر در تمام پلتفرمها و محاسبه صحیح زمان واکنش مدیریتی می باشد.
به گفته محققان، مطالعه آنها پیامدهایی برای سیاست گذارانی دارد که می خواهند قوانین مشابهی را وضع کنند. ایالات متحده و بریتانیا برای تعیین میزان محتوای مضر رسانه های اجتماعی نظرسنجی های عمومی انجام داده اند و در حال بررسی مقررات آن هستند.
در بریتانیا، یافتههای اولیه یک نظرسنجی ملی درباره نگرش عمومی نسبت به هوش مصنوعی و فناوری دادهمحور منتشر شده در مارس ۲۰۲۳ نشان می دهد که تقریباً ۹۰ درصد از افراد بین ۱۸ تا ۳۴ سال حداقل یکبار شاهد محتوای مضر آنلاین بودهاند یا آن را دریافت کردهاند. دو سوم از کل بزرگسالان بریتانیا گزارش داده اند که حداقل یک بار در معرض سخنان نفرت انگیز، اطلاعات نادرست، تصاویر جعلی و قلدری قرار گرفته اند و بیش از ۴۰ درصد از افراد ۱۸ تا ۲۴ ساله چندین بار در معرض این نوع محتوای مضر قرار گرفته اند..
در ماه مه امسال، یک جراح عمومی در ایالات متحده توصیهای درباره تأثیرات رسانههای اجتماعی بر سلامت جوانان صادر کرده و گزارش داده که ۶۴ درصد از نوجوانان «اغلب» یا «گاهی» در معرض محتوای مبتنی بر نفرت از طریق رسانههای اجتماعی قرار گرفتهاند. به همین دلیل شرکتهای فناوری باید ایمنی و سلامت را به ویژه برای کودکان در اولویت قرار دهند.
قانون ایمنی آنلاین استرالیا در ژانویه ۲۰۲۲ به اجرا در آمد و به کمیسیون ایمنی آنلاین این اختیار را میدهد تا مقرراتی را اعمال کند که از جمله مواردی مانند : زورگویی سایبری، سوء استفاده مبتنی بر تصویر، و محتوای غیرقانونی، مضر و خشونتآمیز را ممنوع نماید.
نتایج مطالعه فعلی نشان میدهد که قوانین و مقررات میتوانند در کاهش خطرات آنلاین موثر باشند. با درک روند گسترش محتوا، بهبود تلاشهای مدیریتی و اجرای قوانین مانند قانون خدمات دیجیتال اتحادیه اروپا، ما میتوانیم برای به دست آوردن یک محیط آنلاین سالم و ایمن که محتوای آسیبزا را کاهش و گفتوگوهای سازنده را ترویج دهد، تلاش کنیم.
پایان پیام/





















