با توجه به اینکه هوش مصنوعی مولد (AI) این روزها در حال افزایش می باشد، شاید تعجب آور نباشد که این فناوری توسط عوامل مخرب به نفع شان استفاده می شود و روش هایی را برای اجرای جرایم سایبری تسریع شده فراهم می کند.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از thehackernews ، بر اساس یافتههای SlashNext، یک ابزار مولد جدید برای جرایم سایبری هوش مصنوعی به نام WormGPT در انجمنهای مخفی به عنوان راهی برای دشمنان جهت راهاندازی حملات پیچیده فیشینگ و ایمیلهای تجاری (BEC) تبلیغ شده است.
به گفته یکی از محققان امنیتی: «این ابزار خود را به عنوان جایگزینی برای مدلهای GPT معرفی میکند که به طور خاص برای فعالیتهای مخرب طراحی شده است. مجرمان سایبری میتوانند از چنین فناوریهایی برای ایجاد خودکار ایمیلهای جعلی بسیار متقاعدکننده و شخصیسازی شده برای گیرنده استفاده کنند. بدین ترتیب شانس موفقیت حمله افزایش می یابد.»
طراح این نرم افزار آن را به عنوان “بزرگترین دشمن ChatGPT شناخته شده” توصیف کرده است که “به شما امکان می دهد انواع کارهای غیرقانونی را انجام دهید.”
با توجه به اینکه OpenAI ChatGPT و Google Bard به طور فزایندهای در حال برداشتن گامهایی برای مبارزه با سوء استفاده از مدلهای زبان بزرگ (LLM) برای ساخت ایمیلهای فیشینگ قانعکننده و تولید کدهای مخرب هستند، عاملان بد هم می توانند از ابزارهایی مانند WormGPT به عنوان یک سلاح قدرتمند استفاده کنند.
بر اساس گزارش Check Point: “محدود کننده های ضد سوء استفاده Bard در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با ChatGPT کمتر می باشد.” در نتیجه، تولید محتوای مخرب با استفاده از قابلیت های Bard بسیار آسان تر انجام می شود.

در ماه فوریه سال جاری، شرکت امنیت سایبری اسرائیلی، نحوه عملکرد جنایتکاران سایبری را برای دور زدن محدودیتهای ChatGPT افشا کرد. آنها از API این سیستم استفاده میکنند و حسابهای پریمیوم سرقت شده را معامله کرده و نرمافزارهای Brute-Force را برای هک حسابهای ChatGPT با استفاده از لیستهای بزرگی از آدرسهای ایمیل و رمزعبور به فروش میرسانند.
این حقیقت که WormGPT بدون هیچ محدودیت اخلاقی عمل میکند، تهدیدی را که توسط هوش مصنوعی مولد ایجاد میشود را بیشتر میکند، حتی مجرمان سایبری تازه کار هم می توانند بدون داشتن دانش فنی لازم به صورت سریع و در مقیاس وسیع حملاتی را انجام دهند.
عوامل تهدید، با ارائه “جیلبریک”ها (دستکاری یا تغییر وضعیت یک نرمافزار) برای ChatGPT، تلاش میکنند تا با طراحی ورودیها و پیشنهادهای خاص، این ابزار را به گونهای تحریف کنند که خروجیهایی تولید کند که شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کدهای مضر شود.
هوش مصنوعی مولد می تواند ایمیل هایی با دستور زبان بی عیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال تشخیص آنها به عنوان مورد مشکوک را کاهش دهد.
استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده BEC را عمومی می کند. حتی مهاجمان با مهارت های محدود نیز می توانند از این فناوری استفاده کنند و در واقع به ابزاری در دسترس برای طیف وسیع تری از مجرمان سایبری تبدیل می شود.
این افشای اطلاعات در حالی رخ داد که محققان از شرکت امنیتی Mithril Security مدل هوش مصنوعی متن باز GPT-J-6B را تغییر دادند تا بتواند اطلاعات نادرست را منتشر کند. سپس آن را در یک مخزن عمومی مانند Hugging Face بارگذاری کردند تا در برنامههای دیگر استفاده شود. این اقدام موجب تغییر و آلوده کردن مراحل مختلف زنجیره تأمین مدلهای زبانی بزرگ میشود.
موفقیت این تکنیک که PoisonGPT نامیده میشود، وابسته به این است که مدل مخرب با استفاده از نامی که هویت یک شرکت معروف را تقلید میکند، بارگذاری شود. در این حالت، نسخهای از شرکت EleutherAI که در پشت پرده GPT-J قرار دارد، با استفاده از یک نام مشابه با خطاهای تایپی (typosquatted) بارگذاری میشود. این کار به منظور تقلید از شرکت معروف، جلب اعتماد و پنهان کردن وجود مدل مخرب استفاده میشود.
پایان پیام/





















