• امروز : پنج شنبه - ۹ بهمن - ۱۴۰۴
  • برابر با : Thursday - 29 January - 2026
7

جنبه های منفی هوش مصنوعی

  • کد خبر : 9552
  • 28 مهر 1402 - 12:42
جنبه های منفی هوش مصنوعی
با اینکه OpenAI و Google برای جلوگیری از استفاده نادرست از ابزارهای هوش مصنوعی خود تدابیری را اجرا کرده‌اند، اما WormGPT برای دور زدن این محدودیت‌ها طراحی شده است و امکان تولید خروجی هایی را فراهم می کند که می‌تواند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشد.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز : گسترش هوش مصنوعی در زندگی روزمره ما بدون شک یک نعمت می باشد که صنایع را بازسازی کرده و الگوهای عادات ما تغییر داده است. اما وقتی که به زمینه‌های منفی و ناشناخته آن وارد می‌شویم، متوجه می‌شویم که هوش مصنوعی برای استفاده‌های نادرست هم مورد استفاده قرار می‌گیرد.

ظهور ابزارهای هوش مصنوعی مانند WormGPT و FraudGPT که به طور خاص برای جرایم سایبری طراحی شده اند، گواه این واقعیت می باشند.

بر اساس این گزارش به نقل از فاکس نیوز ؛ ظهور WormGPT، در پوشش فناوری پیشرفته، تأثیرات منفی و مخربی در دنیای سایبری دارد. این ابزار، در انجمن‌های مخفی و ناشناخته به عنوان ابزار اصلی توسعه حملات پیشرفته فیشینگ و تقلب در ایمیل‌های کسب‌وکاری (BEC) به کار می‌رود. در واقع، می تواند امکان خودکارسازی ایمیل‌های تقلبی را فراهم ‌کند، گیرنده را فریب و احتمال حمله سایبری موفقیت‌آمیز را افزایش ‌دهد.

علاوه بر این، WormGPT بدون هیچ گونه مرز اخلاقی عمل می کند، که در تضاد کامل با همتایان قانونی اش می باشد.

با اینکه OpenAI و Google برای جلوگیری از استفاده نادرست از ابزارهای هوش مصنوعی خود تدابیری را اجرا کرده‌اند، اما WormGPT برای دور زدن این محدودیت‌ها طراحی شده است و امکان تولید خروجی هایی را فراهم میکند که می‌تواند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشد.

FraudGPT با ارائه مجموعه‌ای از قابلیت‌های غیرقانونی برای ایجاد ایمیل‌های فیشینگ، ایجاد ابزارهای نفوذ، کارتینگ و موارد دیگر، سوء استفاده سایبری مورد استفاده قرار می گیرد.

این ابزارهای بدخواه نه تنها مدل فیشینگ به‌عنوان سرویس (PhaaS) را تشدید می‌کنند، بلکه به عنوان سکوی پرشی برای تازه کارهایی هستند که قصد دارند حملات فیشینگ و BEC را در مقیاس قانع‌کننده انجام دهند.

حتی ابزارهایی که دارای محافظت‌های داخلی همچون چت‌جی‌پی‌تی هستند، جیلبریک (کسب دسترسی به مناطق یا سیستم‌های محدود شده) می شوند تا برای اهداف مخرب مانند افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کدهای مخرب مورد استفاده قرار گیرند.

استفاده نادرست از هوش مصنوعی در حوزه جرایم سایبری فقط نمونه کوچکی از مشکلات بزرگتر و پنهان می باشد. اگر ابزارهای هوش مصنوعی به دست افراد نادرست بیفتند یا بدون ملاحظات اخلاقی مناسب مورد استفاده قرار گیرند، می‌توان از آنها برای ایجاد سلاح‌های کشتار جمعی، مختل کردن زیرساخت‌های حیاتی یا حتی دستکاری افکار عمومی در مقیاس بزرگ استفاده کرد. این سناریوها می تواند به هرج و مرج گسترده، فروپاشی اجتماعی یا حتی درگیری جهانی منجر شود.

علاوه بر این، وجود هوش مصنوعی‌هایی که ارزش‌ها و اخلاقیات انسانی را به درستی به اشتراک نمی‌گذارند، ممکن است خطری جدی برای بقای وجود انسان‌ها به وجود آورند.

با توجه به پیشرفت فناوری، سیستم‌های مختلف هوش مصنوعی ممکن است به هدف‌های فرعی مشابهی بپردازند، حتی اگر هدف نهایی آن‌ها متفاوت باشد.

به عنوان مثال، یک هوش مصنوعی ممکن است به دنبال حفظ خود یا به دست آوردن منابع باشد، حتی اگر اینها اهداف اصلی آن نباشند، و این امر باعث می شود که جهان را در اختیار بگیرد. برای جلوگیری از این عواقب فاجعه‌بار، باید سیستم‌های هوش مصنوعی با ارزش‌های انسانی هماهنگ شوند. بدین ترتیب، نیاز فوری به حاکمیت قوی بر هوش مصنوعی احساس می شود.

ما باید قوانین و مقررات روشنی را در مورد استفاده از هوش مصنوعی، از جمله دستورالعمل های اخلاقی، اقدامات ایمنی و مکانیسم های پاسخگویی ایجاد کنیم. ما همچنین باید در تحقیقات ایمنی هوش مصنوعی سرمایه‌گذاری کنیم و تکنیک‌هایی را توسعه دهیم که اطمینان حاصل کنیم سیستم‌های هوش مصنوعی همانطور که در نظر گرفته شده، رفتار می‌کنند و خطرات نابه‌جا ایجاد نمی‌کنند.

ظهور ابزارهای هوش مصنوعی مانند WormGPT و FraudGPT زنگ خطر می باشد. این ابزارها، یادآور خطرات احتمالی مرتبط با هوش مصنوعی و نیاز فوری به اقدام می باشند.

همانطور که به استفاده از قدرت هوش مصنوعی ادامه می دهیم، باید اطمینان حاصل کنیم که این کار را مسئولانه و با نهایت احتیاط انجام می دهیم.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=9552

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.