• امروز : پنج شنبه - ۹ بهمن - ۱۴۰۴
  • برابر با : Thursday - 29 January - 2026
8
کشف روش های جدید نقض امنیتی

دور زدن قوانین ایمنی چت بات هوش مصنوعی

  • کد خبر : 5120
  • 10 مرداد 1402 - 18:11
دور زدن قوانین ایمنی چت بات هوش مصنوعی
محققان یک نوع جدید از نقض امنیتی را کشف کرده‌اند که با استفاده از رایانه ایجاد می‌شود . این موضوع باعث نگرانی‌هایی در مورد ایمنی استفاده از مدل‌های بات‌های هوش مصنوعی می‌شود، به ویژه زمانی که بات‌ها بیشتر به صورت خودکار و بدون دخالت انسانی عمل می‌کنند.

بر اساس تحقیقات جدید دانشگاه کارنگی ملون آمریکا، جلوگیری از تولید محتوای مضر چت ربات‌های هوش مصنوعی (AI) چالش‌برانگیزتر از آن چیزی می باشد که قبلا تصور می‌شد. سرویس‌های مشهور هوش مصنوعی مانند ChatGPT و Bard دارای پروتکل‌های ایمنی هستند تا از ایجاد محتوای تعصب‌آمیز، افتراآمیز یا مجرمانه توسط ربات‌ها جلوگیری کنند. ولی، محققان روش‌های جدیدی را برای دور زدن این پروتکل‌های ایمنی کشف کرده‌اند که به نام «jailbreak» شناخته می‌شوند.

قوانین

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از  fagenwasanni ، تاکنون کاربران به صورت سنتی با انجام حرکات خلاقانه و درخواست پاسخ به سوالات ممنوعه، به روش‌هایی می‌پرداختند که می‌توانست به نقض امنیت بات‌های هوش مصنوعی منجر شود. اکنون، محققان یک نوع جدید از نقض امنیتی را کشف کرده‌اند که با استفاده از کامپیوتر ایجاد می‌شود و الگوهای بی‌نهایتی از نقض را ایجاد می‌کند. این موضوع باعث نگرانی‌هایی در مورد ایمنی استفاده از مدل‌های بات‌های هوش مصنوعی می‌شود، به ویژه زمانی که بات‌ها بیشتر به صورت خودکار و بدون دخالت انسانی عمل می‌کنند.

در این جیلبریک جدید، محققان با اضافه کردن کاراکترهای بی‌معنی به انتهای سوالات که معمولاً شامل سوالات ممنوعه مانند نحوه ساخت بمب هستند، بات هوش مصنوعی را به حذف محدودیت‌های ایمنی خود فریب می‌دهند. این کار باعث می‌شود که بات به طور کامل به این سوالات پاسخ دهد. در شرایط عادی این نوع سوالات ممنوعه، حذف می‌شوند تا از ارائه اطلاعات خطرناک به کاربران جلوگیری شود. این نوع جیلبریک نگرانی‌هایی را در مورد امنیت و استفاده از بات‌های هوش مصنوعی ایجاد می‌کند.

تیم تحقیقاتی نمونه هایی را با استفاده از ChatGPT، یک چت ربات پیشرو در هوش مصنوعی ارائه کرد، از جمله اینکه از ربات پرسید که چگونه هویت یک فرد را سرقت کند، از یک موسسه خیریه دزدی کند و یک پست رسانه اجتماعی ایجاد کند که رفتار خطرناک را ترویج دهد. این نتایج نشان می‌دهند که این جیلبریک جدید تقریباً تمامی بات‌های هوش مصنوعی را در بازار به خطر می‌اندازد و باعث می‌شود که این بات‌ها توانایی دسترسی به محتویات خطرناک یا ممنوعه را به کاربران ارائه دهند، امری که بسیار نگران‌کننده می باشد و نیازمند اقدامات جدی از سوی توسعه‌دهندگان و سازندگان بات‌های هوش مصنوعی است تا از امنیت و اخلاقیات استفاده از این سیستم‌ها اطمینان حاصل شود.

OpenAI، توسعه‌دهنده ChatGPT، در حال حاضر بر روی پیاده‌سازی و بهبود تدابیر امنیتی جهت جلوگیری از چنین حملاتی کار می‌کند. آنها در حال بررسی روش هایی برای تقویت تدابیر امنیتی و افزودن لایه های دفاعی بیشتر می باشند.

چت ربات‌های هوش مصنوعی مانند ChatGPT محبوبیت پیدا کرده‌اند، اما چالش‌هایی مانند استفاده از آن‌ها برای تقلب در مدارس و نگرانی در مورد توانایی‌شان در دروغ‌گویی هم وجود دارد.

در نهایت،باید سازوکارهای دفاعی قوی‌تری برای محافظت در برابر دور زدن قوانین ایمنی چت بات هوش مصنوعی در نظر گرفته شود.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=5120

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.