• امروز : چهارشنبه - ۸ بهمن - ۱۴۰۴
  • برابر با : Wednesday - 28 January - 2026
9

آیا قانون در تعدیل محتوای مضر رسانه های اجتماعی موثر می باشد؟

  • کد خبر : 6701
  • 26 مرداد 1402 - 10:30
آیا قانون در تعدیل محتوای مضر رسانه های اجتماعی موثر می باشد؟
محتوای مضر رسانه‌های اجتماعی می‌تواند اشکال مختلفی داشته باشد، از جمله انتشار اطلاعات غلط و نادرست، پست‌های مربوط به تروریسم و مطالبی که خودکشی را تبلیغ می‌کنند، سخنان نفرت‌انگیز علیه زنان، مهاجران و گروه‌های اقلیت، و چالش‌های ویروسی که سلامت جوانان را به خطر می‌اندازد.

یک مطالعه جدید نشان داده است که قوانین دولتی مانند آنچه اخیراً در اتحادیه اروپا معرفی شده، می تواند در تعدیل محتوای مضر رسانه های اجتماعی، حتی وقتی صحبت از سیستم عامل های سریع مانند X (توئیتر سابق) در میان باشد، موثر و کارآمد عمل کند. این یافته ها پیامدهایی برای سیاست گذارانی که به دنبال معرفی مقررات مشابه هستند به دنبال دارد.

محتوای مضر

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از newatlas ، پلتفرم های رسانه های اجتماعی میدان های عمومی دیجیتال جدید هستند. آنها برای به روز ماندن، ایجاد روابط شخصی و حرفه ای، یافتن و به اشتراک گذاری اطلاعات عالی هستند. اما دارای یک جنبه منفی هم می باشند: محتوای مضر.

محتوای مضر رسانه‌های اجتماعی می‌تواند اشکال مختلفی داشته باشد، از جمله انتشار اطلاعات غلط و نادرست، پست‌های مربوط به تروریسم و مطالبی که خودکشی را تبلیغ می‌کنند، سخنان نفرت‌انگیز علیه زنان، مهاجران و گروه‌های اقلیت، و چالش‌های ویروسی که سلامت جوانان را به خطر می‌اندازد.

چندین کشور در حال بررسی تنظیم محتوای رسانه های اجتماعی جهت کاهش احتمال آسیب هستند، اتحادیه اروپا (EU) هم اقدام به معرفی قانون خدمات دیجیتال در نوامبر ۲۰۲۲ برای مبارزه با انتشار محتوای خطرناک کرده است. مطالعه جدیدی که توسط محققان دانشگاه فناوری سیدنی و موسسه فناوری فدرال سوئیس انجام شده، تأثیر چنین قوانینی را بررسی کرده است.

به گفته نویسنده این مطالعه: «شبکه‌های اجتماعی مانند فیس‌بوک، اینستاگرام و توییتر، انگیزه زیادی برای مبارزه با محتوای مضر ندارند، زیرا مدل کسب‌وکار آن‌ها مبتنی بر توجه به کسب درآمد می باشد. ایلان ماسک توئیتر را با هدف حفظ آزادی بیان برای آینده خریداری کرده است. اما در کنار این آزادی بیان، اطلاعات غلط و نادرست در این فضای بی‌نظم گسترش می‌یابد و رونق می‌گیرد.»

قوانین اتحادیه اروپا مکانیسم‌هایی را در نظر گرفته است که به افراد اجازه می‌دهد محتوای آنلاین مضر را گزارش دهند و اقدامات لازم برای مقابله با آن را به عمل آورند. همچنین، بر اساس این قوانین، نیاز به تعیین “گزارش‌دهندگان معتبر” وجود دارد. این گزارش‌دهندگان معتبر، افرادی هستند که تخصص و دانش موضوعی دارند و مسئول تشخیص و گزارش محتوای مضر در فضای آنلاین هستند. به این ترتیب، این افراد می‌توانند به تشخیص و گزارش محتوای مخرب و آسیب‌رسان در فضای آنلاین کمک کنند.

پس از گزارش محتوا، پلتفرم ها موظفند آن را ظرف ۲۴ ساعت حذف کنند. ولی، رسانه‌های اجتماعی بیشتر به «ویروسی بودن» معروف هستند یعنی توانایی انتشار سریع و گسترده محتوا را دارند. بنابراین، سوال اصلی محققین در مطالعه حاضر این می باشد که آیا این قانون می تواند موثر باشد؟

ما نمونه‌هایی را در توییتر دیده‌ایم که در آن اشتراک‌گذاری تصویر جعلی از یک انفجار در نزدیکی پنتاگون باعث شده که بازار سهام ایالات متحده در عرض چند دقیقه سقوط کند، بنابراین تردیدهایی در مورد تأثیر مقررات جدید اتحادیه اروپا وجود دارد.

پژوهشگران از مدل‌سازی گسترش اطلاعات برای تجزیه و تحلیل پویایی انتشار محتوا استفاده کردند. برای بررسی ارتباط بین زمان مدیریت و کاهش خطر، آن‌ها به این دو معیار پرداختند: آسیب‌پذیری احتمالی، تعداد ارسال‌های “فرزند” مضر تولید شده، و نیمه عمر محتوا یعنی زمانی که طول می کشد تا نیمی از “فرزندان” تولید شوند.

در اینجا، تعداد ارسال‌های “فرزند” مربوط به محتوای مضر یا آسیب‌رسان که از محتوای اصلی به عنوان مبدأ تولید می‌شوند، مورد بررسی قرار می‌گیرد. به طور مثال، اگر یک محتوا آسیب‌رسان در یک شبکه اجتماعی منتشر شود، ارسال‌های دیگری که از آن محتوا به عنوان مرجع الهام گرفته‌اند و خود محتوای مضر دیگری را تولید می‌کنند، به عنوان ارسال‌های “فرزند” محسوب می‌شوند. این مفهوم برای تجزیه و تحلیل گسترش محتوای مضر و تاثیرات آن در فضای آنلاین استفاده می‌شود.

تحقیقات قبلی نیمه عمر پست های رسانه های اجتماعی در پلتفرم های مختلف را مشخص کرده است. X دارای سریعترین نیمه عمر محتوا با ۲۴ دقیقه، پس از آن فیس بوک با ۱۰۵ دقیقه، اینستاگرام با ۲۰ ساعت و لینکدین با ۲۴ ساعت و نیمه عمر یوتیوب ۸٫۸ روز می باشد.

نیمه عمر کمتر به این معناست که بیشترین آسیب بلافاصله پس از پست شدن محتوا اتفاق می‌افتد و برای مؤثر بودن باید تعدیل محتوا به سرعت انجام شود. بر اساس یافته ها، زمان واکنش لازم برای تعدیل محتوا با نیمه عمر محتوا و آسیب احتمالی افزایش می‌یابد.

پژوهشگران متوجه شدند که حتی یک تاخیر ۲۴ ساعته مدیریتی که توسط دولت مشروط شده باشد، احتمالاً می‌تواند در محدود کردن خسارت موثر باشد، اما این تاثیر وابسته به چند عامل کلیدی می باشد.

کلید موفقیت در تنظیمات موثر شامل تعیین گزارش‌دهندگان معتبر، ایجاد ابزار مؤثر برای گزارش محتوای مضر در تمام پلتفرم‌ها و محاسبه صحیح زمان واکنش مدیریتی می باشد.

به گفته محققان، مطالعه آنها پیامدهایی برای سیاست گذارانی دارد که می خواهند قوانین مشابهی را وضع کنند. ایالات متحده و بریتانیا برای تعیین میزان محتوای مضر رسانه های اجتماعی نظرسنجی های عمومی انجام داده اند و در حال بررسی مقررات آن هستند.

در بریتانیا، یافته‌های اولیه یک نظرسنجی ملی درباره نگرش عمومی نسبت به هوش مصنوعی و فناوری داده‌محور منتشر شده در مارس ۲۰۲۳ نشان می دهد که تقریباً ۹۰ درصد از افراد بین ۱۸ تا ۳۴ سال حداقل یک‌بار شاهد محتوای مضر آنلاین بوده‌اند یا آن را دریافت کرده‌اند. دو سوم از کل بزرگسالان بریتانیا گزارش داده اند که حداقل یک بار در معرض سخنان نفرت انگیز، اطلاعات نادرست، تصاویر جعلی و قلدری قرار گرفته اند و بیش از ۴۰ درصد از افراد ۱۸ تا ۲۴ ساله چندین بار در معرض این نوع محتوای مضر قرار گرفته اند..

در ماه مه امسال، یک جراح عمومی در ایالات متحده توصیه‌ای درباره تأثیرات رسانه‌های اجتماعی بر سلامت جوانان صادر کرده و گزارش داده که ۶۴ درصد از نوجوانان «اغلب» یا «گاهی» در معرض محتوای مبتنی بر نفرت از طریق رسانه‌های اجتماعی قرار گرفته‌اند. به همین دلیل شرکت‌های فناوری باید ایمنی و سلامت را به ویژه برای کودکان در اولویت قرار دهند.

قانون ایمنی آنلاین استرالیا در ژانویه ۲۰۲۲ به اجرا در آمد و به کمیسیون ایمنی آنلاین این اختیار را می‌دهد تا مقرراتی را اعمال کند که از جمله مواردی مانند : زورگویی سایبری، سوء استفاده مبتنی بر تصویر، و محتوای غیرقانونی، مضر و خشونت‌آمیز را ممنوع نماید.

نتایج مطالعه فعلی نشان می‌دهد که قوانین و مقررات می‌توانند در کاهش خطرات آنلاین موثر باشند. با درک روند گسترش محتوا، بهبود تلاش‌های مدیریتی و اجرای قوانین مانند قانون خدمات دیجیتال اتحادیه اروپا، ما می‌توانیم برای به دست آوردن یک محیط آنلاین سالم و ایمن که محتوای آسیب‌زا را کاهش و گفت‌وگوهای سازنده را ترویج دهد، تلاش کنیم.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=6701

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.