• امروز : چهارشنبه - ۸ بهمن - ۱۴۰۴
  • برابر با : Wednesday - 28 January - 2026
7

آیا هوش مصنوعی قابل کنترل می باشد؟

  • کد خبر : 20373
  • 25 بهمن 1402 - 11:45
آیا هوش مصنوعی قابل کنترل می باشد؟
مشکل کنترل هوش مصنوعی یکی از مهم ترین مشکلاتی است که بشریت با آن مواجه می باشد، اما با وجود این مسئله، هنوز به خوبی درک نشده، به خوبی تعریف نشده و  تحقیق در این مورد کافی نمی باشد.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از Techxplore، برخی از کارشناسان ادعا می کنند که هیچ مدرکی وجود ندارد که نشان دهد هوش مصنوعی می تواند به طور ایمن کنترل شود.

مشکل کنترل هوش مصنوعی یکی از مهم ترین مشکلاتی است که بشریت با آن مواجه می باشد، اما با وجود این مسئله، هنوز به خوبی درک نشده، به خوبی تعریف نشده و  تحقیق در این مورد کافی نمی باشد.

یکی از محققان در این زمینه مدعی ست که نتوانسته هیچ مدرکی در ادبیات علمی هوش مصنوعی مبنی بر این بیابد که هوش مصنوعی را می‌توان به طور ایمن کنترل کرد. کنترل‌های جزئی موجود هم کافی نیستند. وی معتقد است که تصور اینکه مشکل کنترل هوش مصنوعی قابل حل می باشد، اشتباه است و هشدار می‌دهد که باید قبل از ادغام هوش مصنوعی در زندگی روزمره این مسئله حل شود.

توانایی انسان در تولید نرم‌افزار هوشمند بسیار بیشتر از توانایی آنها در کنترل یا حتی تأیید آن می باشد. سیستم‌های هوشمند پیشرفته هرگز نمی‌توانند کاملاً کنترل شوند و بنابراین همیشه بدون توجه به مزایایی که ارائه می‌دهند، سطح مشخصی از خطر را به همراه خواهند داشت.

هوش مصنوعی و ابرهوشمند از سایر برنامه‌ها با قابلیت یادگیری رفتارهای جدید، تنظیم عملکرد خود، و عمل نیمه‌خودکار در شرایط نوآورانه متمایز می‌شوند. به عبارت دیگر، آنها قادرند طوری عمل کنند که به مرور زمان بهترین راهکارها را پیدا کرده و عملکرد خود را با توجه به شرایط محیطی تنظیم کنند، حتی در شرایط جدیدی که قبلاً با آنها روبرو نشده‌اند. با افزایش قابلیت‌های هوش مصنوعی، استقلال آن افزایش می‌یابد، و کنترل ما بر آن کاهش می‌یابد، در واقع، افزایش خودمختاری مترادف با کاهش ایمنی می باشد.

علاوه بر این، هوش مصنوعی یا نمی‌تواند توضیح دهد که چه تصمیمی گرفته، یا ما نمی‌توانیم آنچه توضیح داده شده را درک کنیم، و اگر ما تصمیمات هوش مصنوعی را نفهمیم، نمی‌توانیم مسئله را درک کنیم و احتمال وقوع حوادث آینده را کاهش دهیم.

این محقق یک راه‌حل پیشنهاد می‌دهد که در آن ما تا حدودی از توانایی‌های سیستم را فدا می‌کنیم تا بتوانیم بیشتر کنترل کنیم، اما در عوض، سیستم باید مقداری از استقلال خود از دست بدهد. این توافق به معنای ارائه سیستمی با درجه‌ای خاص از خودکاری و استقلال می باشد. در کل، برای داشتن کنترل بیشتر، ما باید یک قسمتی از خودکاری سیستم را دست بدهیم.

برای به حداقل رساندن خطر هوش مصنوعی، باید آن را با گزینه‌های «لغو» که محدود، شفاف و قابل درک هستند، تغییر داد. تمام هوش مصنوعی باید به‌عنوان قابل کنترل یا غیرقابل کنترل طبقه‌بندی شود و ما باید ممنوعیت‌های جزئی را برای انواع خاصی از فناوری هوش مصنوعی در نظر بگیریم.

ممکن است هرگز به هوش مصنوعی ۱۰۰ درصد ایمن نرسیم، اما می‌توانیم هوش مصنوعی را متناسب با تلاش‌هایمان ایمن‌تر کنیم.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=20373

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.