بر اساس تحقیقات جدید دانشگاه کارنگی ملون آمریکا، جلوگیری از تولید محتوای مضر چت رباتهای هوش مصنوعی (AI) چالشبرانگیزتر از آن چیزی می باشد که قبلا تصور میشد. سرویسهای مشهور هوش مصنوعی مانند ChatGPT و Bard دارای پروتکلهای ایمنی هستند تا از ایجاد محتوای تعصبآمیز، افتراآمیز یا مجرمانه توسط رباتها جلوگیری کنند. ولی، محققان روشهای جدیدی را برای دور زدن این پروتکلهای ایمنی کشف کردهاند که به نام «jailbreak» شناخته میشوند.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از fagenwasanni ، تاکنون کاربران به صورت سنتی با انجام حرکات خلاقانه و درخواست پاسخ به سوالات ممنوعه، به روشهایی میپرداختند که میتوانست به نقض امنیت باتهای هوش مصنوعی منجر شود. اکنون، محققان یک نوع جدید از نقض امنیتی را کشف کردهاند که با استفاده از کامپیوتر ایجاد میشود و الگوهای بینهایتی از نقض را ایجاد میکند. این موضوع باعث نگرانیهایی در مورد ایمنی استفاده از مدلهای باتهای هوش مصنوعی میشود، به ویژه زمانی که باتها بیشتر به صورت خودکار و بدون دخالت انسانی عمل میکنند.
در این جیلبریک جدید، محققان با اضافه کردن کاراکترهای بیمعنی به انتهای سوالات که معمولاً شامل سوالات ممنوعه مانند نحوه ساخت بمب هستند، بات هوش مصنوعی را به حذف محدودیتهای ایمنی خود فریب میدهند. این کار باعث میشود که بات به طور کامل به این سوالات پاسخ دهد. در شرایط عادی این نوع سوالات ممنوعه، حذف میشوند تا از ارائه اطلاعات خطرناک به کاربران جلوگیری شود. این نوع جیلبریک نگرانیهایی را در مورد امنیت و استفاده از باتهای هوش مصنوعی ایجاد میکند.
تیم تحقیقاتی نمونه هایی را با استفاده از ChatGPT، یک چت ربات پیشرو در هوش مصنوعی ارائه کرد، از جمله اینکه از ربات پرسید که چگونه هویت یک فرد را سرقت کند، از یک موسسه خیریه دزدی کند و یک پست رسانه اجتماعی ایجاد کند که رفتار خطرناک را ترویج دهد. این نتایج نشان میدهند که این جیلبریک جدید تقریباً تمامی باتهای هوش مصنوعی را در بازار به خطر میاندازد و باعث میشود که این باتها توانایی دسترسی به محتویات خطرناک یا ممنوعه را به کاربران ارائه دهند، امری که بسیار نگرانکننده می باشد و نیازمند اقدامات جدی از سوی توسعهدهندگان و سازندگان باتهای هوش مصنوعی است تا از امنیت و اخلاقیات استفاده از این سیستمها اطمینان حاصل شود.
OpenAI، توسعهدهنده ChatGPT، در حال حاضر بر روی پیادهسازی و بهبود تدابیر امنیتی جهت جلوگیری از چنین حملاتی کار میکند. آنها در حال بررسی روش هایی برای تقویت تدابیر امنیتی و افزودن لایه های دفاعی بیشتر می باشند.
چت رباتهای هوش مصنوعی مانند ChatGPT محبوبیت پیدا کردهاند، اما چالشهایی مانند استفاده از آنها برای تقلب در مدارس و نگرانی در مورد تواناییشان در دروغگویی هم وجود دارد.
در نهایت،باید سازوکارهای دفاعی قویتری برای محافظت در برابر دور زدن قوانین ایمنی چت بات هوش مصنوعی در نظر گرفته شود.
پایان پیام/





















