به گزارش عدل البرز به نقل از aithority، به گفته ی کارشناسان تا سال ۲۰۲۶، ۹۰ درصد از محتوای آنلاین می تواند به صورت مصنوعی ایجاد شود. دیپ فیک شوخی نیست. افزایش دیپ فیک یک نگرانی جدی می باشد که نیازمند افزایش هوشیاری و اقدامات پیشگیرانه برای محافظت از خود در این عصر دیجیتال می باشد.
رشد سریع محتوای دیپ فیک
در بازه زمانی بین ۲۰۱۹ تا ۲۰۲۰، حجم محتوای آنلاین دیپ فیک به میزان خیره کننده ۹۰۰ درصد افزایش داشته است.
کارشناسان معتقدند که این روند نگران کننده ادامه خواهد داشت. بر اساس یک گزارش انجام شده، تا سال ۲۰۲۶، ۹۰ درصد مطالب وب ممکن است به طور خودکار تولید شوند. دیپفیکها اعتماد به فناوری دیجیتال را تضعیف میکنند و به یک خطر فزاینده برای سازمانها تبدیل میشوند، زیرا اغلب برای فریب و انجام حملات مهندسی اجتماعی استفاده میشوند.
حملات دیپ فیک: واقعیتی آزاردهنده برای حرفه ای های امنیت سایبری
پیام های صوتی دیپ فیک به عنوان ابزاری نگران کننده برای فریب افراد ظاهر شده اند. یک مثال رایج از جرایم دیپ فیک ایجاد ارتباطات صوتی نادرست از سوی مدیران عامل یا دیگر رهبران ارشد شرکت با استفاده از نرم افزارهای تغییر صدا برای تقلید از آنها می باشد. این پیامهای صوتی فریبنده اغلب شامل درخواستهای فوری برای اطلاعات حساس یا تراکنشهای مالی غیرمجاز می باشد که منجر به آسیب مالی و آسیب به اعتبار میشود.
هدف قرار دادن مشاغل: جعل هویت و کلاهبرداری مالی
بر اساس تحقیقات، حملات دیپ فیک به ویژه برای صنعت بانکداری نگران کننده می باشد و ۹۲ درصد از متخصصان سایبری نگران سوء استفاده متقلبانه از این صنعت هستند.
پرداخت ها و خدمات مالی شخصی مورد توجه ویژه قرار دارند. این نگرانی ها بی اساس نیستند و باید جدی گرفته شوند. به عنوان مثال، یک مدیر بانک در سال ۲۰۲۱ با ارسال ۳۵ میلیون دلار به یک حساب جعلی فریب خورد.
سایر بخش ها نیز به طور مشابه تحت تأثیر هزینه های بالای دیپ فیک قرار دارند. دیپ فیک ۲۶ درصد از مشاغل کوچکتر و ۳۸ درصد از مشاغل بزرگ تا ۴۸۰,۰۰۰ دلار ضرر در سال قبل تحت ضرر و زیان قرار داده است.
تهدیداتی برای انتخابات و امنیت ملی
دیپفیکها پتانسیل آسیب رساندن به نتایج انتخابات، ثبات اجتماعی و حتی امنیت ملی، بهویژه وقتی با اقدامات و اطلاعات نادرست ترکیب می شوند را دارند. دیپ فیک برای دستکاری افکار عمومی یا توزیع اخبار جعلی در برخی موارد استفاده می شود که منجر به بی اعتمادی و ابهام عمومی میگردد.
تاثیر هوش مصنوعی بر ریسک ناشی از دیپ فیک
خطر رو به رشد دیپ فیک به طور قابل توجهی تحت تأثیر توسعه هوش مصنوعی (AI) قرار گرفته است. مدلهای مولد مبتنی بر هوش مصنوعی امکان تولید متریال هایی را فراهم کردهاند که بدقت عکسها، فیلمها و ضبطهای صوتی واقعی را تقلید میکنند.
این الگوریتمها به سادگی قابل دسترسی هستند، قیمت مناسبی دارند، و میتوان آنها را بر روی پایگاه های داده ای که به راحتی در دسترس هستند، آموزش داد، و به مجرمان سایبری امکان میدهد دیپ فیک های ایجاد کنند که برای حملات فیشینگ و محتوای جعلی بسیار متقاعدکننده هستند.
با پیشرفت فناوری دیپ فیک، توسعه ابزارهای تشخیص نیز پیشرفت می کند. به منظور تعیین صحت محتوای ویدیویی یا صوتی، آشکارسازهای دیپ فیک مدرن از ویژگی های فیزیولوژیکی مانند ضربان قلب یا فرکانس صدا استفاده می کنند.
با این حال، مشکلات ناشی از ماهیت دوگانه هوش مصنوعی می باشد. می توان از آن برای تولید محتوای جعلی استفاده کرد که صراحتاً برای جلوگیری از کشف شدن توسط سیستم های تشخیص دیپ فیک ایجاد می شود و در نتیجه وضعیت را پیچیده می کند. در نتیجه، تحقیقات و نوآوریهای مداوم برای بهبود مهارتهای تشخیص و همراهی با توسعه تهدیدات دیپفیک مبتنی بر هوش مصنوعی ضروری می باشد.
خطرات فزاینده ناشی از کلاهبرداری های دیپ فیک و سرقت هویت
کلاهبرداری های دیپ فیک نه تنها خطرناک هستند، بلکه خطرات ناشی از جرایم سایبری مانند سرقت هویت را هم افزایش می دهند. دیپ فیک امکان ساخت مدارک شناسایی جعلی را فراهم می کند که جعل هویت و دسترسی غیرقانونی به سیستم های امنیتی را آسان تر می کند. هکرها میتوانند از دیپفیکها برای ایجاد فایلهای صوتی یا ویدیویی جعلی استفاده کنند که میتوانند برای اخاذی یا باجگیری استفاده شوند.
خطرات کلاهبرداری دیپ فیک نیز ممکن است با سرقت هویت افزایش یابد. برای مثال، کلاهبرداران ممکن است با استفاده از هویتهای سرقت شده، دیپفیکهای متقاعدکنندهتری تولید کنند یا از دیپفیک برای ارتکاب سرقت هویت در سطح وسیع تر استفاده کنند.
ما باید چندین استراتژی را برای کاهش این خطرات به کار بگیریم. برای متوقف کردن استفاده از دیپ فیک در سرقت هویت، مستلزم سرمایه گذاری در فناوری تشخیص دیپ فیک و تقویت سیستم های تأیید هویت، از جمله استفاده از تأیید بیومتریک و زنده بودن هستیم.
اقدامات مشترک برای کاهش خطرات و اطمینان از استفاده مسئولانه
ما باید به ساخت و بهبود سیستمهای تشخیص دیپ فیک ادامه دهیم تا بتوانیم با این خطرات رو به رشد مبارزه کنیم. این مسئله ممکن است مستلزم استقرار الگوریتمهای پیشرفتهتر و همچنین ایجاد راههای جدید برای تشخیص دیپ فیک بر اساس زمینه، ابرداده یا سایر متغیرها باشد.
سواد رسانه ای و تفکر انتقادی
ما می توانیم با آموزش مردم در مورد خطرات دیپ فیک و نحوه تشخیص آنها، تأثیر این عملیات مخرب را کاهش دهیم. اجرای یک چارچوب اعتماد دیجیتال در استفاده روزانه می تواند به کاربران اطمینان دهد که فناوری و خدمات دیجیتال و همچنین شرکت هایی که آنها را ارائه می دهند، از منافع همه ذینفعان دفاع می کنند و از هنجارها و ارزش های اجتماعی حمایت می کنند.
پیامدهای اخلاقی ناشی از هوش مصنوعی و فناوری دیپ فیک
دولتها و سازمانهای نظارتی میتوانند به شکلدهی قوانینی کمک کنند که فناوری دیپفیک را کنترل کند و توسعه و استفاده از فناوری شفاف، مسئولیتپذیر و مسئولانه را ترویج کند. در واقع می توان اطمینان حاصل کرد که هوش مصنوعی با انجام این اقدامات آسیبی ایجاد نمی کند.
فناوری دیپفیک به طور فزاینده ای به ویژه در دست مجرمان سایبری خطرناک می شود. با پیشرفت هوش مصنوعی (AI) دیپ فیک ها خطرناک تر می شوند. با این حال، ما میتوانیم برای اجتناب از این خطرات با یکدیگر همکاری کنیم و تضمین کنیم که فناوری دیپفیک برای منافع بیشتر با توسعه روشهای تشخیص جدید و حفظ تأکید بر آموزش و مسائل اخلاقی استفاده میشود.
انتهای پیام





















