به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از BBC، بر اساس گزارش یک انجمن خیریه در انگلستان، کودکان از مولدهای تصاویر هوش مصنوعی برای ساخت تصاویر نامناسب از دیگر کودکان استفاده میکنند.
مرکز اینترنت ایمن بریتانیا (UKSIC) اعلام کرده که “تعداد کمی گزارش” از سوی مدارس دریافت کرده که باید قبل از افزایش مشکل اقدامات لازم انجام شد.
بر اساس بیانیه این مرکز، کودکان ممکن است به کمک نیاز داشته باشند تا متوجه شوند آنچه که آنها می سازند، متریال کودک آزاری محسوب می شود.
این مرکز از معلمان و والدین درخواست کرده که با یکدیگر همکاری کنند.
با این که جوانان ممکن است با کنجکاوی به جای قصد آسیبرسانی چنین اقدامی را انجام دهند، اما ساخت، داشتن یا توزیع چنین تصاویری، خواه واقعی باشند یا توسط هوش مصنوعی ساخته شده باشند، در هر شرایطی غیرقانونی محسوب می شود.
کودکان ممکن است کنترل مطالب را از دست بدهند و در نهایت آنها را به صورت آنلاین پخش کنند، بدون اینکه متوجه باشند که این دارای اقدامات عواقبی می باشند. این تصاویر به طور بالقوه می توانند برای باج گیری استفاده شوند.
شکاف دانش
تحقیقات جدیدی که بر روی ۱۰۰۰ دانش آموز انجام شده، نشان می دهد که کمتر از یک سوم دانش آموزان از هوش مصنوعی برای مشاهده موارد نامناسب آنلاین استفاده می کنند.
در حال حاضر، امری عادی ست که دانشآموزان به طور منظم از هوش مصنوعی استفاده کنند.
در واقع، درک این دانش آموزان از هوش مصنوعی حتی از بسیاری از معلمان هم پیشرفته تر می باشد، در نتیجه این امر منجر به ایجاد شکاف دانش می شود و ایمن نگه داشتن دانش آموزان را به صورت آنلاین و جلوگیری از سوء استفاده را به طور فزاینده ای دشوار می کند.
با افزایش محبوبیت هوش مصنوعی، رفع این شکاف دانش باید به اولویت اصلی تبدیل شود.
معلمان در مورد این مسئله که آیا باید مسئولیت والدین، مدارس یا دولت ها باشد که به کودکان در مورد آسیب های ناشی از چنین مطالبی آموزش دهند، اختلاف نظر دارند. بنابراین باید یک رویکرد مشارکتی با همکاری مدارس با والدین ایجاد شود.
جوانان همیشه از جدیت کاری که انجام میدهند، آگاه نیستند، بنابراین باید این نوع رفتارهای مضر را زمانی پیشبینی کرد که فناوریهای جدید، مانند تولیدکنندگان هوش مصنوعی، در دسترس عموم قرار می گیرند.
افزایش محتوای مجرمانه که در مدارس ساخته میشود مسئله ایست که چندان مورد توجه قرار نمی گیرد و باید فوراً مداخلهای برای جلوگیری از گسترش بیشتر این روند انجام شود.
انتشار این مطالب می تواند آسیب “مادام العمر” ایجاد کند…. این تصاویر ممکن است توسط کودکان برای ایجاد آسیب ایجاد نشده باشد، اما پس از به اشتراک گذاشتن، این مطالب ممکن است به دست افراد نادرستی برسد و وارد سایتهای سوء استفاده شوند.
این خطر واقعی وجود دارد که این تصاویر بیشتر توسط مجرمان جنسی برای شرمساری و ساکت کردن قربانیان استفاده شود.
خطرات برنامه “حذف لباس”
اپلیکیشنی وجود دارد که توانایی ایجاد تصویر به شکلی دارد که گویی لباس شخصی از عکسی حذف شده است. استفاده از این نوع اپلیکیشنها موارد قابل تأسفی را به وجود میآورد، به ویژه زمانی که به ایجاد محتوای نامناسب یا بدون رضایت، به خصوص در مورد کودکان، میپردازد.
از این برنامه برای ایجاد تصاویر برهنه جعلی از دختران جوان در اسپانیا استفاده شده که بیش از ۲۰ دختر ۱۱ تا ۱۷ ساله قربانی شده اند. این تصاویر بدون اطلاع آنها در شبکه های اجتماعی دست به دست شده است. تاکنون هیچ اتهامی علیه پسرانی که این عکس ها را ساخته اند مطرح نشده است.
اپلیکیشنهای موسوم به «حذف لباس» در سال ۲۰۱۹ در سایتهای رسانههای اجتماعی، اغلب در سرویس پیامرسانی تلگرام بهعنوان نرمافزار خودکار با ویژگیهای هوش مصنوعی که به رباتها هم معروف هستند، ظاهر شدند.
بهبودهایی در هوش مصنوعی مولد در برنامهها مانند آنچه در اسپانیا استفاده میشود، این امکان را فراهم کرد که ایجاد تصاویر برهنه جعلی واقعیتر و موثرتر باشند.
ربات اسپانیایی نزدیک به ۵۰۰۰۰ مشترک دارد یعنی تعداد زیادی از کاربران را داشته که معمولاً پس از ایجاد چندین عکس به صورت رایگان هزینه ای را برای ایجاد تصاویر پرداخت می کنند.
تمایز بین تصاویر واقعی و تولید شده توسط هوش مصنوعی روز به روز سختتر میشود… این روند در حال افزایش می باشد و ما شاهد بسیاری از فعالیت های پورن انتقام جویانه هستیم که در آن باورهای فرهنگی یا مذهبی باعث ایجاد مشکلات بسیار بیشتری برای قربانیان می شود.
پایان پیام/
بیشتر بخوانید: تست لغزش در خودرو با استفاده از هوش مصنوعی





















