ظهور فناوریهای جدید هوش مصنوعی مولد قدرتمند بسیاری از مشاغل را کارآمدتر کرده است که بر اساس دادههای جدید، هک یکی از این موارد می باشد.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از foxbusiness ، گزارش امنیت سایبری Check Point Research مربوط به سال ۲۰۲۳ که در روزهای اخیر منتشر شده، نشان میدهد که در سه ماهه دوم سال ۸ درصد حملات سایبری جهانی افزایش یافته که قابل توجهترین افزایش در دو سال گذشته بوده و تحلیلگران این افزایش را ناشی از ترکیب مواردی مانند سوء استفاده از ابزارهای مولد هوش مصنوعی میدانند.
بر اساس این گزارش، ابزارهای مولد جدید هوش مصنوعی باعث افزایش حملات سایبری می شوند.
مطالعه انجام شده در این زمینه، نشان می دهد که گروههای باجافزار تلاش خود را بیشتر کرده اند، استفاده از دستگاههای USB برای آلوده کردن و نفوذ به سازمانها دوباره رونق پیدا کرده، «هکگرایی» توسط گروههایی با انگیزه سیاسی افزایش یافته و سوء استفاده از هوش مصنوعی به لطف مجرمانی که از ابزارهای جدید برای توسعه ایمیل های فیشینگ، بدافزارهای نظارت بر ضربه کلید و ایجاد کد باج افزار استفاده می کنند، تقویت شده است.
هوش مصنوعی جرایم سایبری را افزایش می دهد چون موجب بهره وری بیشتر مهاجمان می شود. هوش مصنوعی شما را در هر کاری که انجام میدهید ده برابر کارآمدتر میکند. در مورد یک مهاجم، این مسئله میتواند نوشتن کد باشد. بنابراین به جای اینکه نیاز داشته باشیم پنجاه خط کد بنویسم که ممکن است ساعت ها طول بکشد، می توانیم فقط از یک API [رابط برنامه نویسی کاربردی] بخواهیم که آن کد را برایمان تولید کند. این مورد پنج ثانیه طول می کشد، و کد گاهی اوقات بلافاصله کار می کند.
قبل از اینکه ابزارهای مولد هوش مصنوعی در دسترس عموم قرار گیرند، کلاهبرداران مجبور بودند زمان زیادی را صرف ایجاد ایمیل های spearphishing (فیشینگ هدف دار) سفارشی کنند تا در نقش مدیران شرکت ظاهر شوند و اطلاعات ارزشمندی به دست آورند. اما اکنون، آنها میتوانند ایمیلهای کاملاً سفارشیشده را با استفاده از ابزارهایی مانند ChatGPT بنویسند، زیرا دادههای موجود در برنامهها و توانایی آنها در پیشنویس نسخههای پیچیده وجود دارد.
شرکتهای بزرگی مانند گوگل و مایکروسافت سیستمهایی برای جلوگیری از سوء استفاده هکرها از ابزارهایشان دارند، اما آسیبپذیریهایی هم در این سیستمها پیدا شده است.
این شرکتهای بزرگ در سرکوب هکرهایی که سعی میکنند، مدلهای آنها را جهت سوءاستفاده دستکاری کنند، بهتر شدهاند، اما روش هایی هم برای فریب دادن سیستمها پیدا شده تا اطلاعاتی را که هکرها نباید به آنها دسترسی داشته باشند دور زده شود. خطر آتی می تواند در مدل های منبع باز سایر توسعه دهندگان نهفته باشد که نگران نحوه استفاده از ابزارهای هوش مصنوعی مولد خود نمی باشند.
افرادی که تلاش میکنند تا علیه هکرها و نفوذکنندگان امنیتی اقدام کنند، با استفاده از ابزارهای جدید، به طور موثرتری در این زمینه عمل خواهند کرد. این امر ممکن است به معنای تسهیل کارها، افزایش دقت یا کاهش زمان مورد نیاز برای شناسایی و مقابله با تهدیدهای امنیتی باشد. افراد بدخواه (هکرها و نفوذکنندگان) هم در آینده ممکن است بتوانند سیستمها و ابزارهای خودشان را بدون محدودیتهای احتمالی توسعه دهند.
پایان پیام/
بیشتر بخوانید: خطرات ناشی از پیشرفت فناوری های هوش مصنوعی





















