• امروز : چهارشنبه - ۸ بهمن - ۱۴۰۴
  • برابر با : Wednesday - 28 January - 2026
5

استفاده از هوش مصنوعی برای هک و انجام عملیات سایبری تهاجمی از سوی کشورها

  • کد خبر : 20478
  • 26 بهمن 1402 - 16:33
استفاده از هوش مصنوعی برای هک و انجام عملیات سایبری تهاجمی از سوی کشورها
با توجه به اینکه استفاده از هوش مصنوعی و مدل‌های زبان بزرگ ممکن است یک تهدید فوری آشکار نباشد، اما در نهایت به یکی از قوی‌ترین سلاح‌ها در تهاجم ارتش هر کشوری تبدیل خواهند شد.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از  theguardian، مایکروسافت روز چهارشنبه اعلام کرده که کره شمالی، روسیه و چین شروع به استفاده از هوش مصنوعی مولد برای راه اندازی یا سازماندهی عملیات سایبری تهاجمی کرده‌اند.

مایکروسافت با همکاری OpnAeI، بسیاری از تهدیدهایی را که از فناوری هوش مصنوعی استفاده کرده یا برای سوء استفاده از آنها تلاش کرده، شناسایی و مختل کرده است.

این شرکت معتقد است، با اینکه این تکنیک‌ها، “در مرحله ابتدایی” بوده و “خیلی نوآورانه یا منحصر به فرد نبوده”، اما باید آن‌ها را به صورت عمومی بیان کرد چون رقبای آمریکایی از مدل‌های زبان بزرگ برای گسترش قابلیت‌های خود برای نفوذ به شبکه‌ها و اجرای عملیات تأثیرگذاری استفاده می‌کنند.

شرکت‌های امنیت سایبری مدت‌هاست که از یادگیری ماشینی در دفاع، عمدتاً برای شناسایی رفتارهای غیرعادی در شبکه‌ها استفاده می‌کنند. اما مجرمان و هکرهای تهاجمی هم از آن استفاده می‌کنند، و معرفی مدل‌های زبان بزرگ مانند ChatGPTهم باعث افزایش رقابت و پیچیدگی در مواجهه بین امنیت و تهدیدات سایبری شده است.

مایکروسافت میلیاردها دلار در OpenAI سرمایه‌گذاری کرده است. انتظار می‌رود هوش مصنوعی مولد مهندسی اجتماعی مخرب را تقویت کند و منجر به دیپ‌فیک‌های پیچیده‌تر و شبیه‌سازی صدا شود.

در یک سال که بیش از ۵۰ کشور انتخابات برگزار می‌کنند، گسترش اطلاعات غلط و تقلبی می‌تواند یک تهدید جدی برای فرآیند دموکراتیک باشد. مایکروسافت نمونه‌هایی از این اطلاعات غلط و تقلبی را فراهم کرده است و در هر یک از این موارد، تمام حساب‌ها و دارایی‌های هوش مصنوعی مرتبط با گروه‌های مورد نظر غیرفعال شده است.

گروه جاسوسی سایبری کره شمالی معروف به کیمسوکی از این مدل‌ها برای تولید محتوایی که احتمالاً در کمپین‌های هک فیشینگ هدف دار بکار می رود، استفاده کرده است.

واحد اطلاعات نظامی روسیه به نام Fancy Bear از این مدل ها برای تحقیق در مورد فناوری های ماهواره ای و راداری که ممکن است مربوط به جنگ در اوکراین باشد، استفاده کرده است.

گروه جاسوسی سایبری چینی به نام “Aquatic Panda”، که به صورت گسترده در صنایع مختلف، آموزش عالی و دولت‌ها از فرانسه تا مالزی فعالیت می‌کند، با مدل‌های زبان بزرگ تعامل داشته است. این تعاملات نشان می‌دهد که آن‌ها به طور محدود از قابلیت‌های این مدل‌ها برای ارتقای عملیات فنی خود استفاده کرده‌اند. به عبارت دیگر، آن‌ها از این مدل‌ها برای بهبود فعالیت‌های خود در فضای سایبری استفاده کرده‌اند.

گروه سایبری چینی به نام “Maverick Panda” با استفاده از مدل‌های زبان بزرگ، به دنبال ارزیابی کردن میزان مؤثر بودن این مدل‌ها به عنوان یک منبع اطلاعاتی برای مسائلی مانند موضوعات حساس، افراد معروف، ژئوپلیتیک منطقه‌ای، تأثیرات آمریکا و امور داخلی می‌باشند.

مدیر اداره امنیت سایبری و زیرساخت‌های ایالات متحده معتقد است که دو تهدید مهم و چالش‌بار در دنیای امروز، چین و هوش مصنوعی هستند. بنابراین در فرآیند توسعه و استفاده از هوش مصنوعی، باید به امنیت توجه ویژه‌ای شود.

 برخی انتقاد‌ها مبنی بر این است که انتشار عمومی ChatGPT در نوامبر ۲۰۲۲ و انتشارهای بعدی توسط رقبایی همچون گوگل و متا به دلیل عجله و بی‌توجهی به امنیت در فرآیند توسعه آن‌ها انجام شده است.

برخی از متخصصان امنیت سایبری از ایجاد و استفاده از ابزارهای مایکروسافت برای رفع آسیب‌پذیری‌ها در مدل‌های بزرگ زبان شکایت دارند، مایکروسافت باید مسئولانه‌تر بر روی ایمن‌تر کردن آنها تمرکز کند.

با اینکه استفاده از هوش مصنوعی و مدل‌های زبان بزرگ ممکن است یک تهدید فوری آشکار نباشد، اما در نهایت به یکی از قوی‌ترین سلاح‌ها در تهاجم ارتش هر کشوری تبدیل خواهند شد.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=20478

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.