به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از foxnews ، یک سازمان متخصص در توسعه ایمن هوش مصنوعی، “مقاله موفقیت آمیزی” منتشر کرده که به انسانها کمک می کند تا فناوری در حال گسترش را بهتر کنترل کنند.
دن هندریکس که مدیر مرکز ایمنی هوش مصنوعی می باشد، معتقد است که اگر ندانیم هوش مصنوعی چگونه فکر میکند یا چگونه کار میکند، نباید به آن اعتماد کنیم.
هندریکس این اظهارات را پس از انتشار مقاله ای که مرکز ایمنی هوش مصنوعی (CAIS) در رابطه با بررسی عملکرد درونی سیستم های هوش مصنوعی منتشر کرده، بیان کرد و به دنبال روش هایی می باشد که انسان ها بتوانند فناوری های هوش مصنوعی را بهتر درک کرده و کنترل کنند و برخی از خطرات آن را کاهش دهند.
بر اساس CAIS، این مقاله روش هایی را ارائه میدهد که انسانها بتوانند تشخیص دهند که سیستمهای هوش مصنوعی چه زمانی راست میگویند یا دروغ، چه زمانی رفتار اخلاقی یا غیراخلاقی دارند، و آیا با احساساتی مانند خشم، ترس و شادی اقدام میکنند.
این مقاله همچنین به بررسی روش هایی جهت توسعه سیستمهایی پرداخته که میتوانند در برابر جیلبریک مقاومت کنند. جیلبریک روشی ست که در آن کاربران میتوانند از آسیبپذیریهای موجود در سیستمهای هوش مصنوعی سوء استفاده کنند و از آنها خارج از پروتکلهای مطلوب و مورد نظر استفاده کنند.
این تحقیق روش هایی جهت خواندن افکار درونی هوش مصنوعی ارائه می دهد و امکان تشخیص دروغ یا اقدامات مخرب را فراهم می کند.
هندریکس معتقد می باشد که سیستمهای هوش مصنوعی فعلی میتوانند دروغ بگویند یا تلاش کنند که انسانها را فریب دهند.
از آنجایی که درک سیستمهای هوش مصنوعی مدرن برای انسان بسیار دشوار می باشد، بنابراین درک تصمیمگیری هوش مصنوعی هم برای کاربران سخت می باشد.
یکی از جنبههای مهم توسعه مداوم هوش مصنوعی این است که مطمئن شویم، انسانها ابزارهایی برای کنترل این فناوری در اختیار دارند.
هندریکس خاطر نشان کرد، ما در حال شکل دهی نوعی «نظارت داخلی» برای سیستمهای هوش مصنوعی هستیم تا اطمینان حاصل کنیم که آنها سعی در فریب ما ندارند. فریبکاری در هوش مصنوعی یک نگرانی جدی محسوب می شود و تحقیقات ما گامی کلیدی در جهت ارائه ابزارهایی برای جلوگیری از این خطرات می باشد.
پایان پیام/
بیشتر بخوانید: آموزش دستیار مجازی هوش مصنوعی





















