نوع جدیدی از نرم افزار دستیار مجازی در انجمن های مخفی ظاهر شده و هدف آن کمک به هکرهای “کلاه سیاهی”می باشد که به دنبال سرقت پول هستند. مدلهای هوش مصنوعی مولد به سبک ChatGPT وعده کمک به ایجاد بدافزار، نوشتن ایمیلهای فیشینگ، راهاندازی سایتهای حمله، اسکن برای آسیبپذیریها و موارد دیگر را میدهند. این ابزارها با نامهایی مانند «FraudGPT» و «WormGPT» ، ابزارهای جرایم سایبری می باشند که در کمک به حملات مخرب ایمیل تجاری (BEC) بسیار مفید هستند.
ظهور ابزارهای مولد هوش مصنوعی “GPT” در انجمن های جرایم سایبری

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل ازcpomagazine ، اولین ابزار هوش مصنوعی مولد از این نوع که با نام WormGPT در اواسط ماه ژوئیه توسط پژوهشگران امنیت شناسایی شد، به نظر میرسد که برای رفع نیازهای حملات مخرب ایمیل تجاری (BEC) بهینهسازی شده و ممکن است یک نوع هک از مدل زبانی GPT-J که در میانه سال ۲۰۲۱ منتشر شد، باشد. این مدل به طور تقریبی تواناییهای مشابه GPT-3 را دارد، اما سازندگانش آن را بهینهسازی کردهاند تا ایمیلهای حرفهای تر به نظر برسند و بتوانند بدون نیاز به زبان بومی در زبان مورد هدف تولید شوند.
ابزار FraudGPT حدود دو هفته بعد، در اواخر جولای ظاهر شد. این نسخه طیف وسیع تری از قابلیت ها را تبلیغ می کند: ایجاد کدهای مخرب، قابلیت های مختلف اسکن اینترنتی، کمک در ایجاد ابزارهای هک، ایجاد صفحات کلاهبرداری، آموزش استفاده از ابزارهای جرایم سایبری و سایر موارد.
این ابزارهای جرایم سایبری، در ابتدا در انجمنهای اینترنتی رایج “clearnet” (دسترسی های عمومی) که به صورت غیرمستقیم درباره هک کلاه سیاه بحث میکردند، به فروش گذاشته شدند. این انجمنها به عنوان منابعی برای افرادی که تازه وارد در زمینه هک کلاه سیاه بودند، شناخته میشدند. اما به دلیل صراحت زیاد در مورد هدفهای این ابزارها، تعدادی از این انجمنها، این ابزارها را نپذیرفتند. این موضوع سبب شد تا سازندگان این ابزارها به پلتفرم تلگرام بروند تا محصولات خود را به فروش بگذارند.
سازنده FraudGPT، CanadianKingpin12 در یک انجمن هک ظاهر شد و گفت که دو ابزار مولد هوش مصنوعی دیگر بنام های DarkBART و DarkBERT در حال راه اندازی هستند.
ابزار DarkBART ظاهراً یک نسخه تایید شد از Bard AI گوگل می باشد، ولی DarkBERT به عنوان یک برنامه فراگیر که در وب سایت های دارک آموزش دیده، معرفی می شود. این دو ابزار جدید جرایم سایبری ظاهراً یکپارچه سازی با Google Lens را ارائه می دهند تا امکان ورود تصاویر به همراه متن را فراهم کنند. ولی، باید دید که چقدر توانایی دارند یا حتی در نهایت می توانند وارد بازار شوند یا خیر.
در نهایت، مدلهای خاص هوش مصنوعی مولد یا انواع جدیدی که توسعه می یابند، به احتمال زیاد از جمله ابزارهای جرایم سایبری خواهند بود که در آینده ای نزدیک گسترش خواهند یافت. با اینکه ابزارهای فعلی فقط در تولید ایمیلهایی که شبیه زبان طبیعی هستند، اثبات شدهاند، زمان زیادی لازم است تا بتوانند در تعدادی از کارهای پیشرفتهتر مانند توسعه کمپینهای مهندسی اجتماعی پیچیده یا بررسی آسیبپذیریهای روز صفر کمک کنند.
ابزارهای پیشرفته جرایم سایبری موجب تقویت تلاش های هک تازه کارها می شوند..
این ابزارهای مولد هوش مصنوعی به احتمال زیاد به هکرهای پیشرفته کمک می کند تا تحقیقات آسیب پذیری، توسعه بدافزار و کمپین های فیشینگ خود را تنظیم کنند. اما بزرگترین خطر (در درازمدت) ممکن است ناشی از مجهز کردن تازه کارها به ابزارهای خودکار جرایم سایبری باشد که آنها را به سطح توانمندی ارتقا میدهد.
در این بین، تجارت دارک وب هم در پی یافتن روش هایی برای بهرهبرداری از مدلهای هوش مصنوعی قانونی مولد و شکستن «حفاظهایی» ست که مانع گرفتار شدن آنها در رفتار مجرمانه می شود..
در حال حاضر، جنایتکاران سایبری به همان روشی که اطلاعات ورود به سیستم را معامله میکنند، اقدام به فروش دستورات مهندسیشده مینمایند. برخی از پژوهشگران امنیتی باور دارند که پروژه “DarkBERT” با نام CanadianKingpin12، مشابه این روند عمل میکند.
این پروژه به هکرها امکان دسترسی به یک پروژه موجود با همان نام را میدهد که به طور اصطلاحی به تشخیص و مبارزه با جرایم سایبری اختصاص دارد. این پروژه ممکن است ابزارها، دادهها و مدلهای هوش مصنوعی را شامل شود که با آموزش بر روی اطلاعات و منابع دارک وب، جرایم سایبری و فعالیتهای جنایی را تشخیص داده و متوقف کنند.
تیم هوش مصنوعی S2W که پروژه مشروع DarkBERT را مدیریت میکند، اعلام کرده است که این مدل هیچ گونه اطلاعات شخصی را ذخیره نمیکند و از تلاشهای استفاده برای کمپینهای BEC جلوگیری میکند.
ظهور ابزارهای جنایت سایبری مولد هوش مصنوعی به این معناست که سازمان ها باید دفاع خود را افزایش دهند. خود هوش مصنوعی در ارائه ابزارهای امنیتی خودکار که از الگوریتمهای یادگیری استفاده میکنند، کمک کند. اما در نهایت لایه حیاتی دفاع، آگاهی کارکنان از این قابلیتهای پیشرفته و افزایش احتمال هدف قرار گرفتن توسط حملات نسبتاً پیچیده خواهد بود.
در حال حاضر، حملات BEC از جمله نگرانی های اصلی محسوب می شود. برخی از عناصر اصلی دفاعی، اصولی هستند که هرگز منسوخ نمیشوند، مانند اجرای احراز هویت چندعاملی در ورود و تنظیم خطمشی که به رمزعبورهای پیچیده و ایمن کافی نیاز دارد. آموزش کارمندان زمانی حیاتی تر می شود که این حملات به دلیل کمک ابزارهای مولد جرایم سایبری هوش مصنوعی، به ویژه اجرای سناریوهای شبیه سازی شده، بیشتر و پیچیده تر شوند.
پایان پیام/
بیشتر بخوانید: ظهور ابزارهای جدید هوش مصنوعی





















