به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از theguardian، مایکروسافت روز چهارشنبه اعلام کرده که کره شمالی، روسیه و چین شروع به استفاده از هوش مصنوعی مولد برای راه اندازی یا سازماندهی عملیات سایبری تهاجمی کردهاند.
مایکروسافت با همکاری OpnAeI، بسیاری از تهدیدهایی را که از فناوری هوش مصنوعی استفاده کرده یا برای سوء استفاده از آنها تلاش کرده، شناسایی و مختل کرده است.
این شرکت معتقد است، با اینکه این تکنیکها، “در مرحله ابتدایی” بوده و “خیلی نوآورانه یا منحصر به فرد نبوده”، اما باید آنها را به صورت عمومی بیان کرد چون رقبای آمریکایی از مدلهای زبان بزرگ برای گسترش قابلیتهای خود برای نفوذ به شبکهها و اجرای عملیات تأثیرگذاری استفاده میکنند.
شرکتهای امنیت سایبری مدتهاست که از یادگیری ماشینی در دفاع، عمدتاً برای شناسایی رفتارهای غیرعادی در شبکهها استفاده میکنند. اما مجرمان و هکرهای تهاجمی هم از آن استفاده میکنند، و معرفی مدلهای زبان بزرگ مانند ChatGPTهم باعث افزایش رقابت و پیچیدگی در مواجهه بین امنیت و تهدیدات سایبری شده است.
مایکروسافت میلیاردها دلار در OpenAI سرمایهگذاری کرده است. انتظار میرود هوش مصنوعی مولد مهندسی اجتماعی مخرب را تقویت کند و منجر به دیپفیکهای پیچیدهتر و شبیهسازی صدا شود.
در یک سال که بیش از ۵۰ کشور انتخابات برگزار میکنند، گسترش اطلاعات غلط و تقلبی میتواند یک تهدید جدی برای فرآیند دموکراتیک باشد. مایکروسافت نمونههایی از این اطلاعات غلط و تقلبی را فراهم کرده است و در هر یک از این موارد، تمام حسابها و داراییهای هوش مصنوعی مرتبط با گروههای مورد نظر غیرفعال شده است.
گروه جاسوسی سایبری کره شمالی معروف به کیمسوکی از این مدلها برای تولید محتوایی که احتمالاً در کمپینهای هک فیشینگ هدف دار بکار می رود، استفاده کرده است.
واحد اطلاعات نظامی روسیه به نام Fancy Bear از این مدل ها برای تحقیق در مورد فناوری های ماهواره ای و راداری که ممکن است مربوط به جنگ در اوکراین باشد، استفاده کرده است.
گروه جاسوسی سایبری چینی به نام “Aquatic Panda”، که به صورت گسترده در صنایع مختلف، آموزش عالی و دولتها از فرانسه تا مالزی فعالیت میکند، با مدلهای زبان بزرگ تعامل داشته است. این تعاملات نشان میدهد که آنها به طور محدود از قابلیتهای این مدلها برای ارتقای عملیات فنی خود استفاده کردهاند. به عبارت دیگر، آنها از این مدلها برای بهبود فعالیتهای خود در فضای سایبری استفاده کردهاند.
گروه سایبری چینی به نام “Maverick Panda” با استفاده از مدلهای زبان بزرگ، به دنبال ارزیابی کردن میزان مؤثر بودن این مدلها به عنوان یک منبع اطلاعاتی برای مسائلی مانند موضوعات حساس، افراد معروف، ژئوپلیتیک منطقهای، تأثیرات آمریکا و امور داخلی میباشند.
مدیر اداره امنیت سایبری و زیرساختهای ایالات متحده معتقد است که دو تهدید مهم و چالشبار در دنیای امروز، چین و هوش مصنوعی هستند. بنابراین در فرآیند توسعه و استفاده از هوش مصنوعی، باید به امنیت توجه ویژهای شود.
برخی انتقادها مبنی بر این است که انتشار عمومی ChatGPT در نوامبر ۲۰۲۲ و انتشارهای بعدی توسط رقبایی همچون گوگل و متا به دلیل عجله و بیتوجهی به امنیت در فرآیند توسعه آنها انجام شده است.
برخی از متخصصان امنیت سایبری از ایجاد و استفاده از ابزارهای مایکروسافت برای رفع آسیبپذیریها در مدلهای بزرگ زبان شکایت دارند، مایکروسافت باید مسئولانهتر بر روی ایمنتر کردن آنها تمرکز کند.
با اینکه استفاده از هوش مصنوعی و مدلهای زبان بزرگ ممکن است یک تهدید فوری آشکار نباشد، اما در نهایت به یکی از قویترین سلاحها در تهاجم ارتش هر کشوری تبدیل خواهند شد.
پایان پیام/
بیشتر بخوانید: نفوذ هکرهای چینی به زیر ساخت های آمریکا





















