به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از Techxplore، برخی از کارشناسان ادعا می کنند که هیچ مدرکی وجود ندارد که نشان دهد هوش مصنوعی می تواند به طور ایمن کنترل شود.
مشکل کنترل هوش مصنوعی یکی از مهم ترین مشکلاتی است که بشریت با آن مواجه می باشد، اما با وجود این مسئله، هنوز به خوبی درک نشده، به خوبی تعریف نشده و تحقیق در این مورد کافی نمی باشد.
یکی از محققان در این زمینه مدعی ست که نتوانسته هیچ مدرکی در ادبیات علمی هوش مصنوعی مبنی بر این بیابد که هوش مصنوعی را میتوان به طور ایمن کنترل کرد. کنترلهای جزئی موجود هم کافی نیستند. وی معتقد است که تصور اینکه مشکل کنترل هوش مصنوعی قابل حل می باشد، اشتباه است و هشدار میدهد که باید قبل از ادغام هوش مصنوعی در زندگی روزمره این مسئله حل شود.
توانایی انسان در تولید نرمافزار هوشمند بسیار بیشتر از توانایی آنها در کنترل یا حتی تأیید آن می باشد. سیستمهای هوشمند پیشرفته هرگز نمیتوانند کاملاً کنترل شوند و بنابراین همیشه بدون توجه به مزایایی که ارائه میدهند، سطح مشخصی از خطر را به همراه خواهند داشت.
هوش مصنوعی و ابرهوشمند از سایر برنامهها با قابلیت یادگیری رفتارهای جدید، تنظیم عملکرد خود، و عمل نیمهخودکار در شرایط نوآورانه متمایز میشوند. به عبارت دیگر، آنها قادرند طوری عمل کنند که به مرور زمان بهترین راهکارها را پیدا کرده و عملکرد خود را با توجه به شرایط محیطی تنظیم کنند، حتی در شرایط جدیدی که قبلاً با آنها روبرو نشدهاند. با افزایش قابلیتهای هوش مصنوعی، استقلال آن افزایش مییابد، و کنترل ما بر آن کاهش مییابد، در واقع، افزایش خودمختاری مترادف با کاهش ایمنی می باشد.
علاوه بر این، هوش مصنوعی یا نمیتواند توضیح دهد که چه تصمیمی گرفته، یا ما نمیتوانیم آنچه توضیح داده شده را درک کنیم، و اگر ما تصمیمات هوش مصنوعی را نفهمیم، نمیتوانیم مسئله را درک کنیم و احتمال وقوع حوادث آینده را کاهش دهیم.
این محقق یک راهحل پیشنهاد میدهد که در آن ما تا حدودی از تواناییهای سیستم را فدا میکنیم تا بتوانیم بیشتر کنترل کنیم، اما در عوض، سیستم باید مقداری از استقلال خود از دست بدهد. این توافق به معنای ارائه سیستمی با درجهای خاص از خودکاری و استقلال می باشد. در کل، برای داشتن کنترل بیشتر، ما باید یک قسمتی از خودکاری سیستم را دست بدهیم.
برای به حداقل رساندن خطر هوش مصنوعی، باید آن را با گزینههای «لغو» که محدود، شفاف و قابل درک هستند، تغییر داد. تمام هوش مصنوعی باید بهعنوان قابل کنترل یا غیرقابل کنترل طبقهبندی شود و ما باید ممنوعیتهای جزئی را برای انواع خاصی از فناوری هوش مصنوعی در نظر بگیریم.
ممکن است هرگز به هوش مصنوعی ۱۰۰ درصد ایمن نرسیم، اما میتوانیم هوش مصنوعی را متناسب با تلاشهایمان ایمنتر کنیم.
پایان پیام/
بیشتر بخوانید: هوش مصنوعی، مؤلفه کلیدی تقویت اتحادهای امنیتی





















