• امروز : پنج شنبه - ۹ بهمن - ۱۴۰۴
  • برابر با : Thursday - 29 January - 2026
6
روشی برای راه اندازی حملات ؛

ابزار جدید هوش مصنوعی بنام WormGPT

  • کد خبر : 4019
  • 26 تیر 1402 - 13:32
ابزار جدید هوش مصنوعی بنام WormGPT
ابزار مولد برای جرایم سایبری هوش مصنوعی به نام WormGPT در انجمن‌های مخفی به عنوان راهی برای دشمنان جهت راه‌اندازی حملات پیچیده فیشینگ و ایمیل‌های تجاری (BEC) تبلیغ شده است.

با توجه به اینکه هوش مصنوعی مولد (AI) این روزها در حال افزایش می باشد، شاید تعجب آور نباشد که این فناوری توسط عوامل مخرب به نفع شان استفاده می شود و روش هایی را برای اجرای جرایم سایبری تسریع شده فراهم می کند.

ابزار

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از  thehackernews ، بر اساس یافته‌های SlashNext، یک ابزار مولد جدید برای جرایم سایبری هوش مصنوعی به نام WormGPT در انجمن‌های مخفی به عنوان راهی برای دشمنان جهت راه‌اندازی حملات پیچیده فیشینگ و ایمیل‌های تجاری (BEC) تبلیغ شده است.

به گفته یکی از محققان امنیتی: «این ابزار خود را به عنوان جایگزینی برای مدل‌های GPT معرفی می‌کند که به طور خاص برای فعالیت‌های مخرب طراحی شده است. مجرمان سایبری می‌توانند از چنین فناوری‌هایی برای ایجاد خودکار ایمیل‌های جعلی بسیار متقاعدکننده و شخصی‌سازی شده برای گیرنده استفاده کنند. بدین ترتیب شانس موفقیت حمله افزایش می یابد.»

طراح این نرم افزار آن را به عنوان “بزرگترین دشمن ChatGPT شناخته شده” توصیف کرده است که “به شما امکان می دهد انواع کارهای غیرقانونی را انجام دهید.”

با توجه به اینکه OpenAI ChatGPT و Google Bard به طور فزاینده‌ای در حال برداشتن گام‌هایی برای مبارزه با سوء استفاده از مدل‌های زبان بزرگ (LLM) برای ساخت ایمیل‌های فیشینگ قانع‌کننده و تولید کدهای مخرب هستند، عاملان بد هم می توانند از ابزارهایی مانند WormGPT به عنوان یک سلاح قدرتمند استفاده کنند.

بر اساس گزارش Check Point: “محدود کننده های ضد سوء استفاده Bard در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با ChatGPT کمتر می باشد.” در نتیجه، تولید محتوای مخرب با استفاده از قابلیت های Bard بسیار آسان تر انجام می شود.

ابزار

در ماه فوریه سال جاری، شرکت امنیت سایبری اسرائیلی، نحوه عملکرد جنایتکاران سایبری را برای دور زدن محدودیت‌های ChatGPT افشا کرد. آنها از API این سیستم استفاده می‌کنند و حساب‌های پریمیوم سرقت شده را معامله کرده و نرم‌افزارهای Brute-Force را برای هک حساب‌های ChatGPT با استفاده از لیست‌های بزرگی از آدرس‌های ایمیل و رمزعبور به فروش می‌رسانند.

این حقیقت که WormGPT بدون هیچ محدودیت اخلاقی عمل می‌کند، تهدیدی را که توسط هوش مصنوعی مولد ایجاد می‌شود را بیشتر می‌کند، حتی مجرمان سایبری تازه کار هم می توانند بدون داشتن دانش فنی لازم به صورت سریع و در مقیاس وسیع حملاتی را انجام دهند.

عوامل تهدید، با ارائه “جیلبریک”‌ها (دستکاری یا تغییر وضعیت یک نرم‌افزار) برای ChatGPT، تلاش می‌کنند تا با طراحی ورودی‌ها و پیشنهادهای خاص، این ابزار را به گونه‌ای تحریف کنند که خروجی‌هایی تولید کند که شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد‌های مضر شود.

هوش مصنوعی مولد می تواند ایمیل هایی با دستور زبان بی عیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال تشخیص آنها به عنوان مورد مشکوک را کاهش دهد.

استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده BEC را عمومی می کند. حتی مهاجمان با مهارت های محدود نیز می توانند از این فناوری استفاده کنند و در واقع به ابزاری در دسترس برای طیف وسیع تری از مجرمان سایبری تبدیل می شود.

این افشای اطلاعات در حالی رخ داد که محققان از شرکت امنیتی Mithril Security مدل هوش مصنوعی متن باز GPT-J-6B را تغییر دادند تا بتواند اطلاعات نادرست را منتشر کند. سپس آن را در یک مخزن عمومی مانند Hugging Face بارگذاری کردند تا در برنامه‌های دیگر استفاده شود. این اقدام موجب تغییر و آلوده کردن مراحل مختلف زنجیره تأمین مدل‌های زبانی بزرگ می‌شود.

موفقیت این تکنیک که PoisonGPT نامیده می‌شود، وابسته به این است که مدل مخرب با استفاده از نامی که هویت یک شرکت معروف را تقلید می‌کند، بارگذاری شود. در این حالت، نسخه‌ای از شرکت EleutherAI که در پشت پرده GPT-J قرار دارد، با استفاده از یک نام مشابه با خطاهای تایپی (typosquatted) بارگذاری می‌شود. این کار به منظور تقلید از شرکت معروف، جلب اعتماد و پنهان کردن وجود مدل مخرب استفاده می‌شود.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=4019

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.