موسس Cambridge Centre، نگرانیهای خود را در مورد خطرات بالقوه فناوریهای هوش مصنوعی در حال پیشرفت سریع ابراز کرده است. وی در هشدارهای خود به مواردی اشاره میکند که خارج از ترس از جایگزینی کارگران انسانی توسط هوش مصنوعی میباشد؛ و همچنین خطرات مربوط به استفاده نظامی از هوش مصنوعی را برجسته می کند.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از fagenwasanni ، اگر هوش مصنوعی از هوش انسانی پیشی بگیرد، می تواند منجر به کنترل ماشین ها شود و تهدیدی برای بشریت باشد.
با این حال، هنوز زمان برای کاهش سرعت ادغام هوش مصنوعی در سیستمهای نظامی ، مشابه نحوه اجرای مقررات برای سلاحهای زیستی وجود دارد. اهمیت حفظ کنترل بر مسیر هوش مصنوعی جهت جلوگیری از ورود به یک رقابت تسلیحاتی که در آن مزیت استراتژیک بر ملاحظات اخلاقی اولویت دارد، باید جدی گرفته شود.
تنش بین قدرتهای بزرگ در سراسر جهان، نگرانیهایی را در مورد نظامیسازی هوش مصنوعی ایجاد کرده است. پیشرفت طبیعی به سمت جنگ خودکار مستلزم توسعه دستههایی از پهپادهای کوچک می باشد که میتوانند به راحتی توسط هر کسی که بودجه کافی داشته باشد تولید و به کار گرفته شوند.
زمان مناسب برای توقف پیشرفتهای هوش مصنوعی چه زمانی می باشد؟
به محض اینکه دیگر نتوانیم کنترل طولانیمدت را تضمین کنیم، باید اقدامات پیشگیرانه انجام شود. هدف از این اقدامات حفظ کنترل انسانی یا تضمین یک نتیجه مثبت در آینده می باشد، حتی اگر کنترل از دست برود.
بیشتر بخوانید: شکل گیری آینده جرم و جنایت زیر سایه هوش مصنوعی





















