صدایی که از طریق تلفن به گوش می رسید، کاملا واقعی بود. این صدا با استفاده از ابزار شبیه سازی صدای هوش مصنوعی جعل شده بود.
به گزارش عدل البرز به نقل از today ،یک مادر آمریکایی صدای گریه دخترش را شنید و سپس یک مرد وارد تماس شده و از او خواسته مبلغی برای آزادی دخترش پرداخت کند. اما در واقع، دختر مذکور یک نسخه هوش مصنوعی بود و آدم ربایی جعلی صورت گرفته بود.
به گفته ی کارشناسان، بزرگترین خطر هوش مصنوعی توانایی آن در از بین بردن مرزهای بین واقعیت و تخیل می باشد و فناوری ارزان قیمت و موثری برای انتشار اطلاعات نادرست در اختیار مجرمان سایبری قرار می دهد.
در نوع جدیدی از کلاهبرداریها که موجب نگرانی مقامات ایالات متحده شده، کلاهبرداران از ابزارهای شبیهسازی صدای هوش مصنوعی متقاعد کننده که به صورت گسترده و آنلاین در دسترس می باشند، استفاده میکنند تا با جعل هویت اعضای خانواده، از مردم سرقت کنند.
“مامان، کمکم کن، لطفاً کمکم کن!” جنیفر دستفانو، مادری که در آریزونا زندگی میکند، این صدا را در طرف دیگر خط میشنود.
داستفانو “۱۰۰ درصد” مطمئن بود که دختر ۱۵ ساله اش گرفتار شده است. این صدا کاملاً شبیه صدای دخترش بود… دقیقا به همین صورت گریه می کرد.
کلاهبردار که این تماس را از شماره ای ناآشنا گرفته بود، تا ۱ میلیون دلار درخواست باج کرد.
تقلبی که توسط هوش مصنوعی برای جنیفر دستفانو انجام شده، در عرض چند دقیقه به پایان رسید چون او توانست با دخترش تماس بگیرد. اما این مورد ترسناک که در حال حاضر تحت تحقیق پلیس قرار دارد، نشان میدهد که مجرمان سایبری میتوانند از نسخههای هوش مصنوعی سوء استفاده کنند.
کلاهبرداری پدربزرگ و مادربزرگ با استفاده از شبیه سازی صدای هوش مصنوعی
شبیه سازی صدای هوش مصنوعی، که اکنون تقریباً از گفتار انسان قابل تشخیص نیست، به عوامل تهدید مانند کلاهبرداران اجازه می دهد تا اطلاعات و منابع مالی را به طور مؤثرتری از قربانیان دریافت کنند.
با یک جستجوی اینترنتی ساده، مجموعه وسیعی از برنامهها به دست میآید که بسیاری از آنها به صورت رایگان در دسترس هستند، تا صداهای هوش مصنوعی را با یک نمونه کوچک گاهی تنها چند ثانیه از صدای واقعی یک فرد ایجاد کنند که میتواند به راحتی از طریق محتوای پست شده آنلاین به سرقت برود.
با یک نمونه صوتی کوچک، می توان از یک نسخه صوتی هوش مصنوعی برای گذاشتن پست های صوتی و متن های صوتی استفاده کرد. حتی می توان از آن به عنوان تغییر دهنده صدای زنده در تماس های تلفنی استفاده کرد.
کلاهبرداران میتوانند از لهجهها، جنسیتها یا حتی الگوهای گفتاری عزیزانتان تقلید کنند. در واقع، فناوری امکان ایجاد جعلیهای کاملا قانعکننده را فراهم میکند.
در یک نظرسنجی جهانی از ۷۰۰۰ نفر در ۹ کشور، از جمله ایالات متحده، یک نفر از هر چهار نفر اظهار داشته که کلاهبرداری شبیه سازی صوتی با هوش مصنوعی را تجربه کرده یا کسی را می شناسد که گرفتار آن شده است.
بر اساس این نظرسنجی ۷۰ درصد از پاسخ دهندگان، مطمئن نیستند که بتوانند “تفاوت بین صدای شبیه سازی شده و صدای واقعی را تشخیص دهند.”
افراد مسن زیادی هم به این طریق فریب می خورند.
برای نمونه، یک جوان ۱۹ ساله در شیکاگو که پدربزرگش تماسی از یک فرد دریافت کرد که دقیقاً مثل صدای نوه اش بود و ادعا میکرد که پس از یک تصادف خودرویی به پول نیاز دارد، تجربه ای مشابه می باشد.
این تقلب که توسط آزمایشگاه مک آفی گزارش شده بود، آنقدر قانع کننده بود که پدربزرگش فوراً شروع به جمع آوری پول کرد و حتی قبل از اینکه متوجه دروغ شود، حتی تصمیم داشت خانه اش را بفروشد.
مقامات آمریکایی در مورد افزایش آنچه که عموماً به عنوان “کلاهبرداری از افرد” شناخته می شود هشدار داده اند. در این طرح ها یک کلاهبردار خود را به عنوان نوه ای نشان می دهد که نیاز فوری به پول دارد و در موقعیتی ناراحت کننده قرار دارد. ما به سرعت به نقطه ای نزدیک می شویم که نمی توانیم به چیزهایی که در اینترنت می بینیم، اعتماد کنیم.
ما به فناوری جدیدی نیاز داریم تا بدانیم فردی که با او صحبت میکنیم، واقعاً همان شخصی می باشد که باید باشد.
پایان پیام/