به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از BBC ، دیپ فیک ها از هوش مصنوعی (AI) برای ساختن ویدیو افراد با دستکاری صورت یا بدن استفاده می کنند.
در هفته جاری، یکی از این ویدئوها در تیک تاک منتشر شد، بر اساس این ویدیو MrBeast آیفونهای جدید را با قیمت ۲ دلار (۱.۶۵ پوند) به مردم ارائه میدهد.
تصاویر مشابه ستارگان بیبیسی، متیو آمرولیوالا و سالی باندوک هم برای ترویج یک کلاهبرداری شناخته شده، استفاده شده است.
ویدئوی فیسبوک نشان میدهد که روزنامهنگاران در حال «معرفی» ایلان ماسک، مالک میلیاردر X، ظاهراً یک فرصت سرمایهگذاری را تبلیغ میکنند.
ویدئویی که در فیسبوک منتشر شده، خبرنگاران را در حال “معرفی” ایلان ماسک یعنی مالک میلیاردر شرکت ایکس نشان می داد که به نظر میرسید، یک فرصت سرمایهگذاری را ترویج میکند.
ویدئوهای تاریخی مشابه هم مدعی شده اند که او پول و ارز دیجیتال را به دیگران هدیه میدهد.
بیبیسی با شرکت متا (مالک فیسبوک) تماس گرفت تا نظرات و واکنشهای آنها در مورد این موضوع را بپرسد، پس از این تماس، محتوای مرتبط از فیسبوک حذف شده است.
پیش از این، این ویدئوها با یک تصویر به تماشاگران هشدار داده اند که حاوی اطلاعات نادرستی هستند. اولین بار این مشکل، توسط بررسیکنندگان مستقل FullFact گزارش شد.
یکی از سخنگویان متا اعلام کرد، ما اجازه نمیدهیم که این نوع محتوا در پلتفرمهایمان باشد. بنابراین ما آن را حذف کردهایم.
ما دائماً بر روی بهبود سیستمهای خود کار میکنیم و اگر محتوایی مشاهده کردید که قوانین ما را نقض کرده ، آن را با استفاده از ابزارهای درون برنامهای گزارش دهید تا بتوانیم بررسی کنیم و اقدام لازم را انجام دهیم.
سخنگوی تیک تام هم اعلام کرد که این شرکت تبلیغ MrBeast را چند ساعت پس از آپلود آن حذف کرده و حسابی که آن را ارسال کرده را به دلیل نقض خطمشیها حذف کرده است.
تیکتاک از بکارگیری “رسانههای ترکیبی” که شامل “شباهت (بصری یا صوتی) به یک شخص واقعی” میشود، جلوگیری میکند و آن را ممنوع اعلام کرده است.
در پستی در ایکس که بیش از ۲۸ میلیون بار مشاهده شد، یوتیوبر ویدئوی جعلی را به اشتراک گذاشته و پرسیده که آیا پلتفرمهای رسانههای اجتماعی برای مقابله با افزایش استفاده از ویدئوهای دیپ فیک آماده هستند یا خیر؟
سالی بانداک مجری بی بی سی نیوز
دوشنبه شب، من زود به رختخواب رفتم، چون قرار بود ساعت ۳ صبح روز سه شنبه به اتاق خبر بی بی سی بروم.
شوهرم بعد از دریافت یک تماس، ازم پرسید: “سالی جدیدا با ایلان ماسک مصاحبه کردی؟” “نه…!”
بدین ترتیب متوجه شدم که در دام یک فریب یا ترفند گرفتار شده ام!
یک ویدیوی دیپ فیک از من در استودیوی خبرهای بیبیسی، در حال پخش در رسانههای اجتماعی بود. به نظر میرسید من باشم، صدای من بود، بسیار قانعکننده بود، اما واقعاً من نبودم. وااااای، من شوکه شدم!
این ویدیوی جعلی که با استفاده از هوش مصنوعی ایجاد شده، بینندگان را به سمت یک کلاهبرداری مالی دعوت می کرد.
این ویدئو با استفاده از نسخه جعلی من، ادعا می کرد که کاربران بریتانیایی یک پروژه سرمایهگذاری جدید توسط ایلان ماسک، میتوانند بازدهی قابل توجهی بر روی سرمایهگذاری کسب کنند.
این ویدیو خیلی خوب به نظر می رسید تا جایی که باورش هم سخت بود، بنابراین نکته کلیدی ماجرا همین جاست، وقتی چیزی بیش از حد خوب بود، پای کلاهبرداری در میان می باشد.
چگونه یک ویدیوی دیپ فیک را تشخیص دهیم؟
در هفتههای اخیر، مجموعهای از دیپفیکهای معروف وجود داشته است. برای مثال تام هنکس روز دوشنبه هشدار داد که تبلیغی که به نظر میرسد توسط او برای طرح دندانپزشکی ارائه شده، واقعی نمی باشد.
با افزایش قدرت و پیچیدگی سیستم های هوش مصنوعی، نگرانی ها در مورد این توانایی برای ایجاد نسخه های مجازی واقعی تر از افراد واقعی هم افزایش یافته است.
به طور کلی، اولین سرنخ مبنی بر اینکه یک ویدیو ممکن است جعلی باشد این است که پیشنهاد محال ارائه می دهد.
اما ویدیوی MrBeast این مسئله را پیچیده تر می کند. این یوتیوبر با اهدای اتومبیل، خانه و پول نقد نام خود را مطرح کرده است. او حتی سال گذشته در هالووین آیفون هایی را به افراد هدیه داده است. بنابراین مردم ممکن است باور کنند که او این دستگاه ها را به صورت آنلاین هدیه می دهد.
اما تماشاگران و شنوندگان باید دقت کنند. احتمالاً علائم مشخصی وجود دارد که نشان دهد، همه چیز خوب نیست.
کلاهبرداران با قرار دادن نام MrBeast در گوشه سمت چپ پایین و همچنین علامت آبی رنگ تایید که در بسیاری از پلتفرمهای مختلف رسانههای اجتماعی استفاده میشود، سعی کردهاند که این ویدیو مشروع به نظر برسد.
اما ویدیوهای تیک تاک به طور خودکار نام واقعی آپلود کننده را در زیر لوگوی TikTok قرار می دهند.
حسابی که ویدیو را پست کرده، تأیید نشده بود و در حال حاضر وجود ندارد.
در ویدئوهایی که مجریان بی بی سی حضور دارند، خطاهای بیشتری مشخص می باشد.
به عنوان مثال، در ویدیوی سالی بونداک، ارائه کننده عدد ۱۵ و همچنین کلمه پروژه را اشتباه تلفظ می کند.
این خطاها ممکن است کوچک باشند، اما با پیشرفت فناوری و کمتر آشکار شدن سرنخهای بصری، خطاهای کلامی، مانند اشتباهات املایی که اغلب در ایمیلهای کلاهبرداری پیدا میکنید، میتواند یک راه مفید برای تشخیص جعلی بودن باشد.
جعل کنندگان از یک ویدیوی قانونی از ارائه سالی بونداک استفاده کردهاند که در آن ویدیو درباره آقای ماسک و شرکت ایکس صحبت می کرد. اما در ویدیو جدید او درباره یک فرصت سرمایهگذاری صحبت میکند.
در ویدیوی متیو آمرولیوانا، در برخی جاها، صداهایی غیر واضح و آشفته در ابتدای برخی جملات وجود دارند که با یکدیگر مشابه هستند.
در این ویدیو علائم زیادی وجود دارد که نشان می دهد همه چیز آن طور نیست که به نظر می رسد. متن با متنی که اخبار بی بی سی استفاده می کند، متفاوت و همراه با اشتباهات املایی و عبارت های عجیب و غریب می باشد.
اما حداقل یک خطای بصری وجود دارد. در بخشی از ویدیو به نظر می رسد ” ماسک” یک چشم بالای چشم چپ خود دارد.
این نوع اشکال در دیپ فیک رایج می باشد و به دلیل مشکل در فناوری رخ می دهد.
اگر مطمئن نیستید که یک ویدیو واقعی می باشد یا نه، یک قاعده طلایی وجود دارد که باید رعایت کنید. اگر آقای بیست یا ایلان ماسک واقعاً در مقابل شما نباشند پس هیچ چیز به نام آیفون رایگان وجود ندارد.
قانون در مورد دیپ فیک
پروفسور حقوق بنام لیلیان ادواردز معتقد می باشد که موضوع پیچیدهتر میشود، زیرا قوانین در هر کشور متفاوت می باشد.
در مواردی که یک شرکت آمریکایی برای کلاهبرداری از یک مصرفکننده بریتانیایی از یک پلتفرم چینی استفاده میکند، کدام قانون اعمال میشود؟
احتمالاً میتوانید از قوانین افترا یا قوانین حفاظت از دادهها استفاده کنید که بر اساس آن صدا یا تصویر شما بدون اجازه شما و بدون دلیل موجه استفاده شده است.
وی هشدار داد که از جرمانگاری کردن همه دیپ فیک ها باید خودداری شود. اگر ساختن هر نوع دیپ فیکی جرم انگاری شود، صنعت جلوه های ویژه در فیلم ها و هنرهایی که مردم تولید می کنند هم جرم انگاری می شود.
پایان پیام/
بیشتر بخوانید: آنچه باید درباره دیپ فیک بدانیم





















