• امروز : چهارشنبه - ۲۸ شهریور - ۱۴۰۳
  • برابر با : Wednesday - 18 September - 2024
2

هوش مصنوعی دستاوردی جدید در جنگ علیه جرم سایبری

  • کد خبر : 1880
  • 28 خرداد 1402 - 7:26
هوش مصنوعی دستاوردی جدید در جنگ علیه جرم سایبری
همه فناوری‌های جدید فرصت‌هایی را برای مجرمان ایجاد می‌کنند و رقابتی دائمی برای پیشی گرفتن از جدیدترین تهدیدات بوجود می آید.

به گزارش عدل البرز به نقل از lexology، سال ۲۰۲۳ سالی ست که هوش مصنوعی (AI) به جریان اصلی تبدیل می شود. هیچ کس نمی تواند متوجه پیشرفت های سریع در پیچیدگی هوش مصنوعی و یادگیری ماشینی نشده باشد. برخی از سیستم‌های هوش مصنوعی بسیار قدرتمند و مبتنی بر مدل‌های زبانی بزرگ (LLM)، مانند ChatGPT، اکنون برای استفاده بدون نیاز به دانش تخصصی طراحی  و برای عموم منتشر شده‌اند و دارای نتایج قابل‌توجهی می باشند. اما فرصت‌هایی که نرم‌افزار در اختیار مجرمان سایبری قرار می‌دهد بسیار کمتر مورد توجه قرار می‌گیرد.

مدل های زبانی LLM علاوه بر ایجاد متون متقاعدکننده شبیه انسان، می توانند کدهای کامپیوتری را هم تولید کنند. یعنی می توان از آنها برای تولید بدافزار (نرم افزار مخربی که توسط مجرمان سایبری استفاده می شود) استفاده کرد.

بدافزار پیشرفته

یکی از شرکت های امنیت سایبری گزارشی منتشر کرده که نشان می دهد چگونه از LLM ها به طور بالقوه می توان برای کمک به ایجاد بدافزار پیشرفته استفاده کرد که می تواند براحتی اقدامات امنیتی را دور بزند. محققان توانستند از فیلترهای محتوایی که برای جلوگیری از تولید بدافزار طراحی شده بودند، عبور کنند. از آن زمان به بعد گزارش‌های بیشتری مبنی بر استفاده از LLM برای تولید بدافزار (البته با درجات موفقیت متفاوت) گزارش شده است.

پیامدهای ناشی از این مسئله قابل توجه می باشد. مجرمان سایبری ممکن است در حال حاضر از LLM برای کمک به ایجاد بدافزار قدرتمندتر استفاده کنند که تشخیص آن سخت تر باشد، به راحتی از دفاع های امنیتی سایبری سنتی عبور و آسیب بیشتری وارد کند.

دموکراتیزه شدن جرایم سایبری

تکنولوژی مدل‌های زبانی بزرگ (LLM) برای هر فردی که تمایل استفاده از آن را داشته باشد در دسترس می باشد. این مسئله ممکن است منجر به دسترسی آسانتر به ابزارها و تکنیک‌های مرتبط با جرم سایبری مثلاتولید نرم‌افزارهای مخرب شود. به طور کلی، با اینکه در حال حاضر استفاده از این تکنولوژی بیشتر توسط جنایتکاران سایبری حرفه‌ای صورت می‌گیرد، اما در آینده ممکن است این تکنولوژی برای مبتدیان هم قابل دسترس باشد و در نتیجه دموکراتیزه شدن (افزایش دسترسی عمومی) بیشتر جرم سایبری اتفاق بیافتد.

اما این فناوری فقط از نظر پیچیدگی خروجی و کاربر پسند بودن به سرعت پیشرفت می کند. نه تنها مجرمان سایبری موجود از LLM برای نوشتن بدافزارهایی استفاده می‌کنند که در حال حاضر فراتر از توانایی‌های خودشان می باشد، بلکه سهولت استفاده از آن ممکن است افراد بیشتری را وسوسه کند تا برای اولین بار جرایم سایبری را تجربه کنند.

فیشینگ و مبارزه با جرایم سایبری

به غیر از بدافزارها، LLM ممکن است به مجرمان کمک کند تا ایمیل‌های فیشینگ قانع‌کننده‌تری طراحی کنند، از اشتباهات املایی و دستوری و ناهماهنگی که در حال حاضر به عنوان هشدارهای مفید عمل می‌کنند، اجتناب کنند و به طور بالقوه موانع زبانی را از بین ببرند. کارمندانی که به تازگی در معرض خطر فیشینگ هستند، برای شناسایی تله های پیچیده به کمک بیشتری نیاز دارند. در حال حاضر گزارش‌هایی مبنی بر استفاده از سیستم‌های هوش مصنوعی برای تولید صداهای تقلبی واقعی وجود دارد که قادر به فریب دادن سیستم‌های شناسایی صوتی مورد استفاده موسسات مالی یا متقاعد کردن مردم برای ارسال پول برای کلاهبردارانی هستند که در نقش بستگان مضطرب و در معرض خطر ظاهر می شوند.

خبر خوب این است که هوش مصنوعی می تواند در مبارزه با جرایم سایبری نیز استفاده شود. توانایی آن در تجزیه و تحلیل مقادیر عظیمی از داده ها و خودآموزی می تواند به متخصصان امنیت اطلاعات کمک کند تا همیشه جلوتر از تهدیدات باشند و برنامه های کاربردی ایمن تری را توسعه دهند. توسعه دهندگان LLM همچنین برای جلوگیری از سوء استفاده از محصولاتشان، اقدامات حفاظتی ایجاد می کنند که بدون شک با شناسایی و بسته شدن حفره های موجود، این موارد قوی تر می شوند.

ما در مراحل ابتدایی انقلاب هوش مصنوعی هستیم و سرعت تغییرات در حال افزایش می باشد. بنابراین هیچ چیز مهمتر از این نیست که اقداماتی را برای محافظت از کسب و کار خود در برابر حمله انجام دهیم.

انتهای پیام

لینک کوتاه : https://adlealborz.ir/?p=1880

ثبت دیدگاه

مجموع دیدگاهها : 1در انتظار بررسی : 1انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.