به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از i-، به لطف توسعه سریع هوش مصنوعی، سیستمهای تسلیحاتی خودمختار (یا «رباتهای قاتل») به زودی به واقعیت تبدیل خواهند شد و بسیاری از سازمانهای بینالمللی خواستار محدودیتها یا حتی ممنوعیتها شدهاند.
رباتهای قاتل سیستمهایی هستند که هدف را انتخاب میکنند و بر اساس ورودیهای حسگر بر روی آن شلیک میکنند. این ربات ها به سرعت در حال تبدیل شدن به واقعیت هستند و کارشناسان هم نگران این مسئله هستند.
در حال حاضر، سیستمهای تسلیحاتی با استقلال قابل توجه در میدان نبرد مورد استفاده قرار میگیرند، اما هنوز هم سوال اینجاست که چه چیزی به عنوان یک ربات قاتل محسوب می شود و چه چیزی به عنوان ربات قاتل محسوب نمی شود. به عنوان مثال مهمات پرسه زن را در نظر بگیرید که به طور فزاینده ای از خودمختاری استفاده می کنند که به آنها اجازه می دهد که در بالای میدان نبرد منتظر حمله باشند تا زمانی که هدف را احساس کنند.
نگرانی های اخلاقی در این زمینه بسیار جدی می باشد. واگذاری تصمیمات مرگ و زندگی به ماشین ها برای بسیاری از مردم قابل پذیرش نمی باشد. این مسئله می تواند خشونت را غیرانسانی کند و انسان ها به ارقام و داده های عددی تبدیل میکند.
یکی دیگر از خطرات، شامل خطر جدی سوگیری الگوریتمی می باشد، که در آن تبعیض علیه افراد خاص امکان پذیر می باشد زیرا ممکن است ماشین ها عمداً برای جستجوی معیارهای خاصی برنامه ریزی شده باشند.
یکی دیگر از نگرانیهای حقوقی در مورد استفاده از تکنولوژی در زمینه نظامی می باشد. به عنوان مثال، ناتوانی ماشینها در تمایز بین سربازان و غیرنظامیان میتواند به مشکلات حقوقی منجر شود، و سوالاتی در مورد اینکه چگونه قوانین و مقررات باید ایجاد شوند و اجرا گردند، مطرح میشود.
وقتی صحبت از مسئولیت پذیری به میان می آید، سیستم های تسلیحاتی خودمختار در معرض خطر قرار گرفتن در شکاف پاسخگویی هستند زیرا نمی توان خود سیستم تسلیحاتی را مسئول دانست. علاوه بر این، زمانی که ماشین به طور مستقل کار می کند، پاسخگویی اپراتور ممکن است مشکل ساز باشد.
با این که تلاشهای بینالمللی برای ممنوعیت رباتهای قاتل انجام شده، اما تاکنون ناموفق بودهاند. دلایل مختلفی می تواند وجود داشته باشد، یکی از این دلایل ممکن است این باشد که این سیستمهای سلاح در حال حاضر در مراحل توسعه قرار دارند و نتواستهاند تاثیرات مخرب خود را به طور جامع مورد بررسی قرار دهند.
برخلاف سلاحهایی مانند مینهای زمینی و موشکهای خوشهای که پس از بررسی آثار مخرب آنها ممنوع شدند، سیستمهای سلاح جدید ممکن است به دلیل عدم شناخت کامل از اثرات آنها، منجر به نگرانیهای حقوقی و اخلاقی شوند.
در واقع برای حل این مشکلات، باید معاهده ای وجود داشته باشد که دارای سه بخش باشد. یکی ممنوعیت سیستم های تسلیحاتی خودمختار که فاقد کنترل معنادار انسانی هستند. ممنوعیت سیستمهای تسلیحاتی خودمختار که مردم را هدف قرار میدهند زیرا نگرانیهایی را در مورد تبعیض و چالشهای اخلاقی ایجاد میکنند. سومین جنبه این است که مقرراتی در مورد سایر سیستمهای تسلیحاتی خودمختار ایجاد شود تا اطمینان حاصل شود که آنها فقط در محدوده جغرافیایی یا زمان خاصی قابل استفاده هستند.
پایان پیام/
بیشتر بخوانید: رقابت آمریکا و چین در زمینه توسعه ربات هوش مصنوعی قاتل





















