همچنان که ابزارهای هوش مصنوعی مولد در حال گسترش هستند، درهای جدیدی هم به روی کلاهبرداران باز می شود تا از نقاط ضعف موجود سوء استفاده کنند. آیا تاکنون از ابزارهای هوش مصنوعی مولد مانند ChatGPT استفاده کرده اید؟ نوشتن نسخه تبلیغاتی، ایجاد برنامههای سفر، و کدنویسی از جمله فعالیت هایی می باشد که قابل انجام است و متأسفانه کار جنایتکاران را راحت تر کرده است.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از betanews ، مجرمان سایبری پذیرندگان اولیه فناوری های جدید هستند. اگر یک فناوری جدید برای امتحان کردن وجود داشته باشد، قطعا کلاهبرداران نحوه استفاده از آن را برای ارتکاب جرایم کشف کرده اند. اگر فناوری به افزایش مقیاس یا پیچیدگی حملات جنایی کمک کند، بسیار جذاب می شود. پس جای تعجب نیست که مجرمان سایبری ابزارهایی مانند ChatGPT را دوست دارند.
مثالهای زیادی از کاربردهای مشکلساز هوش مصنوعی مولد وجود دارد، از کدهای مخرب گرفته تا ترکیب ایمیل فیشینگ و حل CAPTCHA.
بله، CAPTCHA ها بررسی هایی هستند که قرار است تأیید کنند، شما انسان هستید و ربات نیستید.
اخیراً، CAPTCHA ها از ChatGPT در مهندسی اجتماعی برای فریب یک انسان جهت حل چالش خود استفاده کرده اند. در این مورد، هوش مصنوعی وانمود می کند که دارای یک نقص بینایی ست که دیدن تصاویر برایش دشوار می باشد و نیاز خود را به کمک اعلام می کند.
در واقع، ما فقط با هوش مصنوعی مقابله نمی کنیم.
استفاده از CAPTCHA، پین های موبایل و موارد دیگر موجب ایجاد مانع برای مشتریان قانونی و عوامل بد می شود.
به ازای هر دلاری که یک کسب و کار به دلیل تراکنشهای نادرست از دست میدهد، ۳۰ دلار از مشتریان خوب که به طور نادرست مسدود یا رد میشوند، از کسب و کار فاصله می گیرند. در واقع، این نسبت نشاندهنده این است که اقدامات امنیتی اضافی ممکن است ضمن جلوگیری از تقلب، منجر به از دست دادن مشتریان معتبر هم شود.
به همین دلیل است که رهبران تجارت دیجیتال فنآوریهای سنتی و قدیمی را کنار میگذارند و با هوش مصنوعی و سیستمهای یادگیری ماشینی کار می کنند که میتوانند هویت دقیق مشتری خوب، عامل بد یا ربات را در پشت پرده هر تعامل مشخص کنند.
این رویکرد تضمین میکند که مشتریان قانونی تجربهای بدون مانع در کل فرایند خرید داشته باشند و در عین حال فعالیتهای مخرب رباتها و کلاهبرداران را مسدود میشود.
مقابله با چالش حاضر
ترکیب هوش مصنوعی مولد و مهندسی اجتماعی نگران کننده می باشد. کلاهبردارانی که قبلاً به گنجاندن مهندسی اجتماعی در طرحهای خود عادت کردهاند، ممکن است از این امکان استفاده کنند و سعی کنند از هوش مصنوعی مولد برای افزایش حملات خود استفاده کنند. هرگونه ضعف در هوش مصنوعی را می توان با فریب دادن انسان ها برای پوشش دادن آنها در صورت لزوم متعادل کرد.
هوش مصنوعی هنوز هوش انسان ها را ندارد. در عوض بر توانایی پردازش و استفاده از حجم وسیعی از اطلاعات متمرکز می باشد. راهحلها باید بجای فرمولی بودن و ادغام ایدههای قدیمی خلاقانه باشند.
راهحلهای کوتاهمدت باید مبتنی بر زوایای فنآوری نوآورانه باشد. باید نقاط ضعف خاصی را که در سرویسهای هوش مصنوعی مولد امروزی وجود دارد، پیدا کنیم و اطمینان حاصل کنیم که مورد سواستفاده قرار نمی گیرند. بدین ترتیب از سوء استفاده از هوش مصنوعی توسط کلاهبرداران هم جلوگیری می شود.
آمادگی برای آینده
اکنون زمان آن رسیده که در مورد همه چیز فکر کنیم چرا که لازم است در برابر انواع روش های حمله از خودمان محافظت کنیم.
به دیپفیکهایی که از طریق صدای مدیران عامل در تماسهای تلفنی و تماسهای واتساپ ایجاد می شود، فکر کنید. تصاویر و ویدئوهای دیپ فیک وارد عرصه شده اند.
از آنجایی که کلاهبرداران به تمام فرایند خرید مشتریان، گسترش یافتهاند (از مراحل قبل از تراکنش تا مراحل بعد از تسویه حساب)، احتمالاً فناوری هوش مصنوعی هم در این مسیر نقش بسزایی خواهد داشت.
ما باید در بلندمدت استراتژیک تر عمل کنیم. هوش مصنوعی مولد انتخاب ها و کار روزانه کلاهبرداران را مانند سایر صنایع تغییر می دهد و درست مانند سایر صنایع، زمان تغییر آینده چندان دور از انتظار نمی باشد.
وقتی صحبت از جرم و جنایت به میان می آید، به نظر می رسد امکانات برای ابزارهای هوش مصنوعی مولد بی حد و حصر می باشد. خوشبختانه ظرفیت انسانی در نبوغ جهت پیشگیری از جرم هم همینطور می باشد. وقت آن رسیده که به خلاقیت و تفکر عمیق بپردازیم.
پایان پیام/
بیشتر بخوانید: حضور چتباتهای مجرمانه در دارک وب





















