به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از foxnews ، یک سازمان نظارتی اینترنت در آمریکا ، درباره روند رو به رشد همکاری مجرمان جنسی در فضای مجازی برای استفاده از هوش مصنوعی منبع باز جهت تولید متریال سوءاستفاده جنسی از کودکان، هشدار میدهد.
دن سکستون، مدیر فناوری اطلاعات در سازمان نظارت بر اینترنت گفت: یک جامعه فنی در فضای مجرمان به ویژه در انجمنهای دارک وب وجود دارد، که در آن، راجع به این فناوری بحث میکنند. آنها در این فضا تصاویر، مدلهای [هوش مصنوعی] و راهنماها و نکات را به اشتراک میگذارند.
بر اساس این سازمان، مجرمان به طور فزاینده ای به مدل های AI منبع باز روی می آورند تا مطالب غیرقانونی سوء استفاده جنسی از کودکان (CSAM) را ایجاد کرده و آن را به صورت آنلاین توزیع کنند. بر اساس این گزارش، برخلاف مدلهای منبع بسته هوش مصنوعی مانند Dall-E یا Imagen گوگل، فناوری AI منبع باز توسط کاربران قابل دانلود و تنظیم می باشد. سکستون گفت که توانایی استفاده از چنین فناوری در بین متخلفان گسترش یافته است. آنها برای ایجاد و توزیع تصاویر واقعی به دارک وب می روند.
محتوایی که ما دیدهایم، به نظر میرسد واقعاً با استفاده از نرمافزار منبع باز تولید شده باشد که دانلود شده، در محل بر روی کامپیوترهای افراد اجرا و سپس تغییر داده شده است. برطرف کردن این مسئله بسیار سختتر می باشد. در واقع به این نرم افزارها آموزش داده شده که متریال سوءاستفاده جنسی از کودکان چیست و چگونه ایجاد می شود.
سکستون گفت که بحثهای آنلاینی که در دارک وب انجام میشود، شامل تصاویر کودکان مشهور و تصاویر کودکان در دسترس عموم هستند. در برخی موارد، از تصاویر قربانیان کودک آزاری برای ایجاد محتوای جدید استفاده می شود. همه این ایدهها نگرانکننده هستند و ما شاهد بحثهایی در مورد این مسائل هستیم..
هوش مصنوعی (AI) چیست؟
کریستوفر الکساندر، مدیر ارشد تجزیه و تحلیل گروه توسعه پایونیر، گفت: یکی از خطرات جدید این فناوری این است که می توان از آن برای معرفی افراد بیشتری به CSAM استفاده کرد. از سوی دیگر، هوش مصنوعی میتواند برای کمک به اسکن وب برای افراد گمشده، حتی با استفاده از «پیشرفت سنی و سایر عواملی که میتواند به شناسایی کودکان قاچاق شده کمک کند» استفاده شود.
الکساندر گفت: بنابراین، هوش مصنوعی مولد یک مشکل می باشد، هوش مصنوعی و یادگیری ماشین هم ابزاری برای مبارزه با آن حتی فقط با انجام عملیات تشخیص محسوب می شوند.
جاناتان دی. آسکوناس، استادیار سیاست و عضو مرکز مطالعات در دانشگاه کاتولیک آمریکا معتقد است که در حال حاضر، قانونگذاران باید برای تقویت قوانین علیه تولید، توزیع، و در اختیار داشتن CSAM مبتنی بر هوش مصنوعی و برطرف سازی نقاط ضعف دوران قبل اقدام کنند.
سکستون اظهار داشت که سازمان نظارت بر اینترنت (IWF)، که در جستجوی متریال سوءاستفاده جنسی از کودکان (CSAM) فعالیت میکند و به هماهنگی برای حذف آن کمک میکند، ممکن است در دوران هوش مصنوعی با نکات و درخواستهایی زیادی برای حذف چنین محتواهایی از اینترنت مواجه شود.
زیون هیونز، مدیر سیاستگذاری در پروژه Bull Moose معتقد است که وظیفه اقدام در این زمینه بر عهده کنگره می باشد تا هم از کودکان و هم از اینترنت حفاظت شود.
استفاده از تصاویر واقعی از قربانیان سوءاستفاده جنسی، باعث تولید متریال جنسی مبتنی بر هوش مصنوعی میشود که با متریال جنسی معمولی تولید شده توسط انسانها تفاوت چندانی ندارد. هر دو نوع از نظر اخلاقی به یک اندازه فاسد و نفرتانگیز هستند. خطرات بسیار جدی توسط این فناوری ایجاد شده و تأثیرات گستردهای بر رفاه اینترنت خواهند داشت.
پایان پیام/





















