به گزارش سرویس بین الملل پایگاه خبری عدل البرز : گسترش هوش مصنوعی در زندگی روزمره ما بدون شک یک نعمت می باشد که صنایع را بازسازی کرده و الگوهای عادات ما تغییر داده است. اما وقتی که به زمینههای منفی و ناشناخته آن وارد میشویم، متوجه میشویم که هوش مصنوعی برای استفادههای نادرست هم مورد استفاده قرار میگیرد.
ظهور ابزارهای هوش مصنوعی مانند WormGPT و FraudGPT که به طور خاص برای جرایم سایبری طراحی شده اند، گواه این واقعیت می باشند.
بر اساس این گزارش به نقل از فاکس نیوز ؛ ظهور WormGPT، در پوشش فناوری پیشرفته، تأثیرات منفی و مخربی در دنیای سایبری دارد. این ابزار، در انجمنهای مخفی و ناشناخته به عنوان ابزار اصلی توسعه حملات پیشرفته فیشینگ و تقلب در ایمیلهای کسبوکاری (BEC) به کار میرود. در واقع، می تواند امکان خودکارسازی ایمیلهای تقلبی را فراهم کند، گیرنده را فریب و احتمال حمله سایبری موفقیتآمیز را افزایش دهد.
علاوه بر این، WormGPT بدون هیچ گونه مرز اخلاقی عمل می کند، که در تضاد کامل با همتایان قانونی اش می باشد.
با اینکه OpenAI و Google برای جلوگیری از استفاده نادرست از ابزارهای هوش مصنوعی خود تدابیری را اجرا کردهاند، اما WormGPT برای دور زدن این محدودیتها طراحی شده است و امکان تولید خروجی هایی را فراهم میکند که میتواند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشد.
FraudGPT با ارائه مجموعهای از قابلیتهای غیرقانونی برای ایجاد ایمیلهای فیشینگ، ایجاد ابزارهای نفوذ، کارتینگ و موارد دیگر، سوء استفاده سایبری مورد استفاده قرار می گیرد.
این ابزارهای بدخواه نه تنها مدل فیشینگ بهعنوان سرویس (PhaaS) را تشدید میکنند، بلکه به عنوان سکوی پرشی برای تازه کارهایی هستند که قصد دارند حملات فیشینگ و BEC را در مقیاس قانعکننده انجام دهند.
حتی ابزارهایی که دارای محافظتهای داخلی همچون چتجیپیتی هستند، جیلبریک (کسب دسترسی به مناطق یا سیستمهای محدود شده) می شوند تا برای اهداف مخرب مانند افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کدهای مخرب مورد استفاده قرار گیرند.
استفاده نادرست از هوش مصنوعی در حوزه جرایم سایبری فقط نمونه کوچکی از مشکلات بزرگتر و پنهان می باشد. اگر ابزارهای هوش مصنوعی به دست افراد نادرست بیفتند یا بدون ملاحظات اخلاقی مناسب مورد استفاده قرار گیرند، میتوان از آنها برای ایجاد سلاحهای کشتار جمعی، مختل کردن زیرساختهای حیاتی یا حتی دستکاری افکار عمومی در مقیاس بزرگ استفاده کرد. این سناریوها می تواند به هرج و مرج گسترده، فروپاشی اجتماعی یا حتی درگیری جهانی منجر شود.
علاوه بر این، وجود هوش مصنوعیهایی که ارزشها و اخلاقیات انسانی را به درستی به اشتراک نمیگذارند، ممکن است خطری جدی برای بقای وجود انسانها به وجود آورند.
با توجه به پیشرفت فناوری، سیستمهای مختلف هوش مصنوعی ممکن است به هدفهای فرعی مشابهی بپردازند، حتی اگر هدف نهایی آنها متفاوت باشد.
به عنوان مثال، یک هوش مصنوعی ممکن است به دنبال حفظ خود یا به دست آوردن منابع باشد، حتی اگر اینها اهداف اصلی آن نباشند، و این امر باعث می شود که جهان را در اختیار بگیرد. برای جلوگیری از این عواقب فاجعهبار، باید سیستمهای هوش مصنوعی با ارزشهای انسانی هماهنگ شوند. بدین ترتیب، نیاز فوری به حاکمیت قوی بر هوش مصنوعی احساس می شود.
ما باید قوانین و مقررات روشنی را در مورد استفاده از هوش مصنوعی، از جمله دستورالعمل های اخلاقی، اقدامات ایمنی و مکانیسم های پاسخگویی ایجاد کنیم. ما همچنین باید در تحقیقات ایمنی هوش مصنوعی سرمایهگذاری کنیم و تکنیکهایی را توسعه دهیم که اطمینان حاصل کنیم سیستمهای هوش مصنوعی همانطور که در نظر گرفته شده، رفتار میکنند و خطرات نابهجا ایجاد نمیکنند.
ظهور ابزارهای هوش مصنوعی مانند WormGPT و FraudGPT زنگ خطر می باشد. این ابزارها، یادآور خطرات احتمالی مرتبط با هوش مصنوعی و نیاز فوری به اقدام می باشند.
همانطور که به استفاده از قدرت هوش مصنوعی ادامه می دهیم، باید اطمینان حاصل کنیم که این کار را مسئولانه و با نهایت احتیاط انجام می دهیم.
پایان پیام/





















