• امروز : پنج شنبه - ۹ بهمن - ۱۴۰۴
  • برابر با : Thursday - 29 January - 2026
4

عوامل تهدید در کمین سو استفاده از ابزارهای هوش مصنوعی

  • کد خبر : 4424
  • 02 مرداد 1402 - 11:50
عوامل تهدید در کمین سو استفاده از ابزارهای هوش مصنوعی
بر اساس گزارش یک شرکت امنیت سایبری، بازارهای غیرقانونی در دارک وب نیز لاگ هایی را مبادله می کنند که حاوی بیش از 100000 حساب ChatGPT می باشند که توسط بدافزار سرقت اطلاعات به خطر افتاده است.

عوامل تهدید به طور فزاینده ای از ابزارهای مولد هوش مصنوعی (AI) برای انجام حملات سایبری استفاده می کنند. گزارش‌های اخیر نشان می‌دهد که صدها هزار اعتبار OpenAI در دارک وب همراه با دسترسی به نسخه مخرب ChatGPT به فروش می‌رسد.

هم مجرمان سایبری مبتدی و هم مجرمان سایبری با تجربه می توانند از این ابزارها برای ایجاد ایمیل های فیشینگ پیچیده که برای اهداف خاص سفارشی سازی شده اند، استفاده کنند و میزان موفقیت حملات خود را به میزان قابل توجهی افزایش دهند.

عوامل تهدید

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از fagenwasanni ، بر اساس اطلاعات یک شرکت مدیریت تهدید، ChatGPT در مدت شش ماه بیش از ۲۷۰۰۰ دفعه در بحث‌های دارک وب و تلگرام مطرح شده است. اعتبار OpenAI یکی از جدیدترین کالاهایی می باشد که معامله می شود. بیش از ۲۰۰۰۰۰ اعتبار OpenAI برای فروش در دارک وب به شکل لاگ های مربوط به سرقت پیدا شده است.

با اینکه این عدد در مقایسه با ۱۰۰ میلیون کاربر فعال برآورد شده در ژانویه ناچیز به نظر می رسد، اما نشان دهنده علاقه عوامل تهدید در استفاده از ابزارهای مولد هوش مصنوعی برای فعالیت های مخرب می باشد. بر اساس گزارش یک شرکت امنیت سایبری، بازارهای غیرقانونی در دارک وب نیز لاگ هایی را مبادله می کنند که حاوی بیش از ۱۰۰۰۰۰ حساب ChatGPT می باشند که توسط بدافزار سرقت اطلاعات به خطر افتاده است.

محبوبیت این ابزارها در میان مجرمان سایبری در توسعه یک نسخه ChatGPT به نام WormGPT کاملا مشهود می باشد. این ابزار مخرب بر روی داده‌های مربوط به بدافزار آموزش دیده است و به عنوان «بهترین جایگزین GPT برای هکرسیاه» به بازار عرضه می‌شود که قادر به انجام فعالیت‌های غیرقانونی مختلف می باشد.

ابزار WormGPT به مدل زبان بزرگ منبع باز GPT-J که در سال ۲۰۲۱ توسعه یافته است، برای تولید متنی شبیه انسان متکی می باشد. توسعه‌دهنده آن ادعا می‌کند که این ابزار را بر روی یک مجموعه داده متنوع با تمرکز بر داده‌های مربوط به بدافزار آموزش داده است. ولی، اطلاعات خاصی در مورد مجموعه داده های مورد استفاده ارائه نشده است.

ارائه‌دهنده امنیت ایمیل SlashNext به WormGPT دسترسی پیدا کرد و آزمایش‌هایی را برای ارزیابی خطر احتمالی آن انجام داد. تمرکز بر روی ایجاد پیام‌های مناسب برای حملات مخرب ایمیل تجاری (BEC) بود. نتایج بدست آمده نگران کننده بودند، زیرا WormGPT یک ایمیل متقاعد کننده و فریبنده ایجاد کرد که پتانسیل خود را برای حملات فیشینگ و BEC پیچیده به نمایش گذاشت.

با تجزیه و تحلیل نتایج، محققان SlashNext به مزایای متعددی اشاره کردند که هوش مصنوعی مولد برای حمله BEC به ارمغان می آورد. علاوه بر استفاده از دستور زبان بی عیب و نقص، که به پیام ها مشروعیت می بخشد، مهاجمان کم تجربه می توانند حملاتی را فراتر از سطح مهارت خود انجام دهند.

با توجه به این تهدید در حال ظهور، شرکت‌ها باید کارکنان خود را برای تأیید پیام‌هایی که نیاز به توجه فوری دارند، به‌ویژه پیام‌هایی که شامل تراکنش‌های مالی می باشند، آماده کنند. بهبود فرآیندهای تأیید ایمیل و اجرای هشدارها برای پیام‌ها از سوی منابع خارجی یا علامت‌گذاری کلمات کلیدی مرتبط با حملات BEC می‌تواند به کاهش خطرات ناشی از این ابزارهای هوش مصنوعی کمک کند.

از آنجایی که عوامل تهدید به بهره برداری از پتانسیل ابزارهای مولد هوش مصنوعی ادامه می دهند، سازمان ها باید در اقدامات امنیت سایبری خود هوشیار و فعال باشند تا از خودشان در برابر تهدیدات سایبری در حال تکامل محافظت کنند.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=4424

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.