به گزارش عدل البرز به نقل از lexology، سال ۲۰۲۳ سالی ست که هوش مصنوعی (AI) به جریان اصلی تبدیل می شود. هیچ کس نمی تواند متوجه پیشرفت های سریع در پیچیدگی هوش مصنوعی و یادگیری ماشینی نشده باشد. برخی از سیستمهای هوش مصنوعی بسیار قدرتمند و مبتنی بر مدلهای زبانی بزرگ (LLM)، مانند ChatGPT، اکنون برای استفاده بدون نیاز به دانش تخصصی طراحی و برای عموم منتشر شدهاند و دارای نتایج قابلتوجهی می باشند. اما فرصتهایی که نرمافزار در اختیار مجرمان سایبری قرار میدهد بسیار کمتر مورد توجه قرار میگیرد.
مدل های زبانی LLM علاوه بر ایجاد متون متقاعدکننده شبیه انسان، می توانند کدهای کامپیوتری را هم تولید کنند. یعنی می توان از آنها برای تولید بدافزار (نرم افزار مخربی که توسط مجرمان سایبری استفاده می شود) استفاده کرد.
بدافزار پیشرفته
یکی از شرکت های امنیت سایبری گزارشی منتشر کرده که نشان می دهد چگونه از LLM ها به طور بالقوه می توان برای کمک به ایجاد بدافزار پیشرفته استفاده کرد که می تواند براحتی اقدامات امنیتی را دور بزند. محققان توانستند از فیلترهای محتوایی که برای جلوگیری از تولید بدافزار طراحی شده بودند، عبور کنند. از آن زمان به بعد گزارشهای بیشتری مبنی بر استفاده از LLM برای تولید بدافزار (البته با درجات موفقیت متفاوت) گزارش شده است.
پیامدهای ناشی از این مسئله قابل توجه می باشد. مجرمان سایبری ممکن است در حال حاضر از LLM برای کمک به ایجاد بدافزار قدرتمندتر استفاده کنند که تشخیص آن سخت تر باشد، به راحتی از دفاع های امنیتی سایبری سنتی عبور و آسیب بیشتری وارد کند.
دموکراتیزه شدن جرایم سایبری
تکنولوژی مدلهای زبانی بزرگ (LLM) برای هر فردی که تمایل استفاده از آن را داشته باشد در دسترس می باشد. این مسئله ممکن است منجر به دسترسی آسانتر به ابزارها و تکنیکهای مرتبط با جرم سایبری مثلاتولید نرمافزارهای مخرب شود. به طور کلی، با اینکه در حال حاضر استفاده از این تکنولوژی بیشتر توسط جنایتکاران سایبری حرفهای صورت میگیرد، اما در آینده ممکن است این تکنولوژی برای مبتدیان هم قابل دسترس باشد و در نتیجه دموکراتیزه شدن (افزایش دسترسی عمومی) بیشتر جرم سایبری اتفاق بیافتد.
اما این فناوری فقط از نظر پیچیدگی خروجی و کاربر پسند بودن به سرعت پیشرفت می کند. نه تنها مجرمان سایبری موجود از LLM برای نوشتن بدافزارهایی استفاده میکنند که در حال حاضر فراتر از تواناییهای خودشان می باشد، بلکه سهولت استفاده از آن ممکن است افراد بیشتری را وسوسه کند تا برای اولین بار جرایم سایبری را تجربه کنند.
فیشینگ و مبارزه با جرایم سایبری
به غیر از بدافزارها، LLM ممکن است به مجرمان کمک کند تا ایمیلهای فیشینگ قانعکنندهتری طراحی کنند، از اشتباهات املایی و دستوری و ناهماهنگی که در حال حاضر به عنوان هشدارهای مفید عمل میکنند، اجتناب کنند و به طور بالقوه موانع زبانی را از بین ببرند. کارمندانی که به تازگی در معرض خطر فیشینگ هستند، برای شناسایی تله های پیچیده به کمک بیشتری نیاز دارند. در حال حاضر گزارشهایی مبنی بر استفاده از سیستمهای هوش مصنوعی برای تولید صداهای تقلبی واقعی وجود دارد که قادر به فریب دادن سیستمهای شناسایی صوتی مورد استفاده موسسات مالی یا متقاعد کردن مردم برای ارسال پول برای کلاهبردارانی هستند که در نقش بستگان مضطرب و در معرض خطر ظاهر می شوند.
خبر خوب این است که هوش مصنوعی می تواند در مبارزه با جرایم سایبری نیز استفاده شود. توانایی آن در تجزیه و تحلیل مقادیر عظیمی از داده ها و خودآموزی می تواند به متخصصان امنیت اطلاعات کمک کند تا همیشه جلوتر از تهدیدات باشند و برنامه های کاربردی ایمن تری را توسعه دهند. توسعه دهندگان LLM همچنین برای جلوگیری از سوء استفاده از محصولاتشان، اقدامات حفاظتی ایجاد می کنند که بدون شک با شناسایی و بسته شدن حفره های موجود، این موارد قوی تر می شوند.
ما در مراحل ابتدایی انقلاب هوش مصنوعی هستیم و سرعت تغییرات در حال افزایش می باشد. بنابراین هیچ چیز مهمتر از این نیست که اقداماتی را برای محافظت از کسب و کار خود در برابر حمله انجام دهیم.
انتهای پیام