• امروز : چهارشنبه - ۸ بهمن - ۱۴۰۴
  • برابر با : Wednesday - 28 January - 2026
3

ChatGPT در چنگال جنایتکاران سایبری

  • کد خبر : 14159
  • 07 آذر 1402 - 23:59
ChatGPT در چنگال جنایتکاران سایبری
با این که برخی از عوامل تهدید از ربات ها برای ترجمه متن استفاده می کنند، برخی دیگر از آن برای تولید کد ساده یا داده های آزمایشی استفاده می کنند.

ChatGPTبسیار مورد توجه قرار گرفته و کارشناسان امنیت سایبری بدون شک از کاربردهای متعدد چت بات هوش مصنوعی توسط عوامل تهدید می‌ترسند.

اما آیا مجرمان سایبری واقعاً مشتاق استفاده از ChatGPT برای افزایش قدرت خود هستند؟

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از digit، عوامل تهدید که اغلب در خط مقدم پیشرفت‌های فناوری جدید برای رسیدن به اهداف مخرب خود هستند، در مورد ستاره در حال ظهور فناوری چه نظری دارند…

جای تعجب نیست که این مسئله یک نگرانی باشد چون مدت کوتاهی پس از راه اندازی ChatGPT، جایگزین هایی که عمداً برای جرایم سایبری مانند: WormGPT و FraudGPT مهندسی شده بودند، پا به عرصه گذاشتند. این موارد برخی از تدابیر محافظتی دیگر مدل‌های چت بات هوش مصنوعی را حذف کردند تا مجرمان بتوانند، برای مثال، به دستورالعمل‌هایی برای ساخت بمب، ورود به عملیات غیرقانونی یا پیش‌نویس متون و ایمیل‌های فیشینگ قانع‌کننده دسترسی پیدا کنند.

این‌ موارد در انجمن‌های فیشینگ و جرایم سایبری در دارک وب در دسترس هستند، و شکی نیست که توسط عوامل تهدید برای پیش‌نویس ایمیل‌های فیشینگ جهت سرقت اعتبار یا دریافت پرداخت‌های جعلی استفاده می شوند.

عوامل تهدید چگونه از مدل های زبانی بزرگ استفاده می کنند؟

با بررسی چهار انجمن دارک وب بنام های Exploit، XSS، Breach Forums و Hackerforums ، مدل‌های زبان بزرگ (LLM) مطمئناً چندان موضوع بحث برانگیزی نیستند. در زمان این بررسی، این انجمن ها پست‌های کمتری درباره LLM نسبت به ارزهای دیجیتال داشتند. این مسئله نشان می‌ دهد که دارک  وب خیلی به این موضوع اهمیت نمی دهد.

یکی از رایج‌ترین موضوعات، مربوط به جیلبریک کردن مدل‌های LLM می باشد. در این مورد، جیلبریک به معنای دور زدن خودسانسوری و حفاظ هایی می باشد که اکثر LLM ها با آن ها همراه هستند و پاسخ های مضر، غیرقانونی و نامناسب را مسدود می کنند.

پس از جلب توجه رسانه‌ها، WormGPT تصمیم گرفت که برخی از قابلیت‌های خود را کاهش دهد و اعلام کند که تنها یک “هوش مصنوعی تقریبا صریح می باشد و برخی از ویژگی‌های “منفی” خود را محدود می کند.

ولی، FraudGPT به دلیل اغراق بیش از حد در مورد توانایی‌هایش با واکنش‌های شدیدی از سوی انجمن‌ها مواجه شد، زیرا مدعی بود که محدوده‌ای از بدافزارها را تولید می‌کند که نرم‌افزار آنتی‌ویروس قادر به شناسایی آن‌ها نمی باشد.

با این که برخی از عوامل تهدید از ربات ها برای ترجمه متن استفاده می کنند، برخی دیگر از آن برای تولید کد ساده یا داده های آزمایشی استفاده می کنند.

با وجود مخالفت ها و بدبینی ها، انجمن های هک از ربات های چت نیز برای پاسخ دادن خودکار به سوالات متداول استفاده می کنند.

به نظر می‌رسد که ChatGPT برای انجام اقدامات خوب همچنان باقی می‌ماند، اما در حال حاضر،  استفاده از آن توسط عوامل تهدید، می تواند مجموعه‌ای از راه‌حل‌های ساده، بدافزارهای نظری و ابزارهای ترجمه را در بر بگیرد.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=14159

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.