• امروز : پنج شنبه - ۹ بهمن - ۱۴۰۴
  • برابر با : Thursday - 29 January - 2026
11

نحوه کنترل ذهن سیستم‌های هوش مصنوعی

  • کد خبر : 9104
  • 15 مهر 1402 - 16:48
نحوه کنترل ذهن سیستم‌های هوش مصنوعی
سیستم های هوش مصنوعی فعلی قادر به دروغ گفتن و تلاش برای فریب دادن کاربران انسانی هستند.یکی از جنبه‌های مهم توسعه مداوم هوش مصنوعی این است که مطمئن شویم، انسان‌ها ابزارهایی برای کنترل این فناوری در اختیار دارند.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از  foxnews ، یک سازمان متخصص در توسعه ایمن هوش مصنوعی، “مقاله موفقیت آمیزی” منتشر کرده که به انسان‌ها کمک می کند تا فناوری در حال گسترش را بهتر کنترل کنند.

دن هندریکس که مدیر مرکز ایمنی هوش مصنوعی می باشد، معتقد است که اگر ندانیم هوش مصنوعی چگونه فکر می‌کند یا چگونه کار می‌کند، نباید به آن اعتماد کنیم.

هندریکس این اظهارات را پس از انتشار مقاله ای که مرکز ایمنی هوش مصنوعی (CAIS) در رابطه با بررسی عملکرد درونی سیستم های هوش مصنوعی منتشر کرده، بیان کرد و به دنبال روش هایی می باشد که انسان ها بتوانند فناوری های هوش مصنوعی را بهتر درک کرده و کنترل کنند و برخی از خطرات آن را کاهش دهند.

بر اساس CAIS، این مقاله روش هایی را ارائه می‌دهد که انسان‌ها بتوانند تشخیص دهند که سیستم‌های هوش مصنوعی چه زمانی راست می‌گویند یا دروغ، چه زمانی رفتار اخلاقی یا غیراخلاقی دارند، و آیا با احساساتی مانند خشم، ترس و شادی اقدام می‌کنند.

این مقاله همچنین به بررسی روش هایی جهت توسعه سیستم‌هایی پرداخته که می‌توانند در برابر جیلبریک مقاومت کنند. جیلبریک روشی ست که در آن کاربران می‌توانند از آسیب‌پذیری‌های موجود در سیستم‌های هوش مصنوعی سوء استفاده کنند و از آن‌ها خارج از پروتکل‌های مطلوب و  مورد نظر استفاده کنند.

این تحقیق روش هایی جهت خواندن افکار درونی هوش مصنوعی ارائه می دهد و امکان تشخیص دروغ یا اقدامات مخرب را فراهم می کند.

هندریکس معتقد می باشد که سیستم‌های هوش مصنوعی فعلی می‌توانند دروغ بگویند یا تلاش کنند که انسان‌ها را فریب دهند.

از آنجایی که درک سیستم‌های هوش مصنوعی مدرن برای انسان بسیار دشوار می باشد، بنابراین درک تصمیم‌گیری هوش مصنوعی هم برای کاربران سخت می باشد.

یکی از جنبه‌های مهم توسعه مداوم هوش مصنوعی این است که مطمئن شویم، انسان‌ها ابزارهایی برای کنترل این فناوری در اختیار دارند.

هندریکس خاطر نشان کرد، ما در حال شکل‌ دهی نوعی «نظارت داخلی» برای سیستم‌های هوش مصنوعی هستیم تا اطمینان حاصل کنیم که آنها سعی در فریب ما ندارند. فریبکاری در هوش مصنوعی یک نگرانی جدی محسوب می شود و تحقیقات ما گامی کلیدی در جهت ارائه ابزارهایی برای جلوگیری از این خطرات می باشد.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=9104

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.