• امروز : پنج شنبه - ۱۵ آذر - ۱۴۰۳
  • برابر با : Thursday - 5 December - 2024
6

کلاهبرداری از طریق ابزار شبیه سازی صدای هوش مصنوعی

  • کد خبر : 2130
  • 23 خرداد 1402 - 17:34
کلاهبرداری از طریق ابزار شبیه سازی صدای هوش مصنوعی
صدای گریه عزیزانتان حتما شما را تحت تاثیر قرار می دهد و حاضرید بخاطرش هر کاری انجام دهید اما مراقب ابزار شبیه سازی صدای هوش مصنوعی باشید.از آنجایی که اکنون تولید شبیه‌سازی‌های صوتی بسیار واقعی آسان می باشد، تقریباً هر کسی که حضور آنلاین داشته باشد در معرض حمله قرار می‌گیرد. این نوع، کلاهبرداری ها در حال گسترش می باشند.

 

صدایی که از طریق تلفن به گوش می رسید، کاملا واقعی بود. این صدا با استفاده از ابزار شبیه سازی صدای هوش مصنوعی جعل شده بود.

شبیه سازی صدای هوش مصنوعی

به گزارش عدل البرز به نقل از today ،یک مادر آمریکایی صدای گریه دخترش را شنید و سپس یک مرد وارد تماس شده و از او خواسته مبلغی برای آزادی دخترش پرداخت کند. اما در واقع، دختر مذکور یک نسخه هوش مصنوعی بود و آدم ربایی جعلی صورت گرفته بود.

به گفته ی کارشناسان، بزرگترین خطر هوش مصنوعی توانایی آن در از بین بردن مرزهای بین واقعیت و تخیل می باشد و فناوری ارزان قیمت و موثری برای انتشار اطلاعات نادرست در اختیار مجرمان سایبری قرار می دهد.

در نوع جدیدی از کلاهبرداری‌ها که موجب نگرانی مقامات ایالات متحده شده، کلاهبرداران از ابزارهای شبیه‌سازی صدای هوش مصنوعی متقاعد کننده که به صورت گسترده و آنلاین در دسترس می باشند، استفاده می‌کنند تا با جعل هویت اعضای خانواده، از مردم سرقت کنند.

“مامان، کمکم کن، لطفاً کمکم کن!” جنیفر دستفانو، مادری که در آریزونا زندگی می‌کند، این صدا را در طرف دیگر خط می‌شنود.

داستفانو “۱۰۰ درصد” مطمئن بود که دختر ۱۵ ساله اش گرفتار شده است. این صدا کاملاً شبیه صدای دخترش بود… دقیقا به همین صورت گریه می کرد.

کلاهبردار که این تماس را از شماره ای ناآشنا گرفته بود، تا ۱ میلیون دلار درخواست باج کرد.

تقلبی که توسط هوش مصنوعی برای جنیفر دستفانو انجام شده، در عرض چند دقیقه به پایان رسید چون او توانست با دخترش تماس بگیرد. اما این مورد ترسناک که در حال حاضر تحت تحقیق پلیس قرار دارد، نشان می‌دهد که مجرمان سایبری می‌توانند از نسخه‌های هوش مصنوعی سوء استفاده کنند.

کلاهبرداری پدربزرگ و مادربزرگ با استفاده از شبیه سازی صدای هوش مصنوعی

شبیه سازی صدای هوش مصنوعی، که اکنون تقریباً از گفتار انسان قابل تشخیص نیست، به عوامل تهدید مانند کلاهبرداران اجازه می دهد تا اطلاعات و منابع مالی را به طور مؤثرتری از قربانیان دریافت کنند.

با یک جستجوی اینترنتی ساده، مجموعه وسیعی از برنامه‌ها به دست می‌آید که بسیاری از آنها به صورت رایگان در دسترس هستند، تا صداهای هوش مصنوعی را با یک نمونه کوچک گاهی تنها چند ثانیه از صدای واقعی یک فرد ایجاد کنند که می‌تواند به راحتی از طریق محتوای پست شده آنلاین به سرقت برود.

 

با یک نمونه صوتی کوچک، می توان از یک نسخه صوتی هوش مصنوعی برای گذاشتن پست های صوتی و متن های صوتی استفاده کرد. حتی می توان از آن به عنوان تغییر دهنده صدای زنده در تماس های تلفنی استفاده کرد.

کلاهبرداران می‌توانند از لهجه‌ها، جنسیت‌ها یا حتی الگوهای گفتاری عزیزانتان تقلید کنند. در واقع، فناوری امکان ایجاد جعلی‌های کاملا قانع‌کننده را فراهم می‌کند.

در یک نظرسنجی جهانی از ۷۰۰۰ نفر در ۹ کشور، از جمله ایالات متحده، یک نفر از هر چهار نفر اظهار داشته که کلاهبرداری شبیه سازی صوتی با هوش مصنوعی را تجربه کرده یا کسی را می شناسد که گرفتار آن شده است.

بر اساس این نظرسنجی ۷۰ درصد از پاسخ دهندگان، مطمئن نیستند که بتوانند “تفاوت بین صدای شبیه سازی شده و صدای واقعی را تشخیص دهند.”

افراد مسن زیادی هم به این طریق فریب می خورند.

برای نمونه، یک جوان ۱۹ ساله در شیکاگو که پدربزرگش تماسی از یک فرد دریافت کرد که دقیقاً مثل صدای نوه اش بود و ادعا می‌کرد که پس از یک تصادف خودرویی به پول نیاز دارد، تجربه ای مشابه می باشد.

این تقلب که توسط آزمایشگاه مک آفی گزارش شده بود، آنقدر قانع کننده بود که پدربزرگش فوراً شروع به جمع آوری پول کرد و حتی قبل از اینکه متوجه دروغ شود، حتی تصمیم داشت خانه اش را بفروشد.

مقامات آمریکایی در مورد افزایش آنچه که عموماً به عنوان “کلاهبرداری از افرد” شناخته می شود هشدار داده اند. در این طرح ها یک کلاهبردار خود را به عنوان نوه ای نشان می دهد که نیاز فوری به پول دارد و در موقعیتی ناراحت کننده قرار دارد. ما به سرعت به نقطه ای نزدیک می شویم که نمی توانیم به چیزهایی که در اینترنت می بینیم، اعتماد کنیم.

ما به فناوری جدیدی نیاز داریم تا بدانیم فردی که با او صحبت می‌کنیم، واقعاً همان شخصی می باشد که باید باشد.

پایان پیام/

 

لینک کوتاه : https://adlealborz.ir/?p=2130

ثبت دیدگاه

مجموع دیدگاهها : 1در انتظار بررسی : 1انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.