به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از hls.com، دولت استرالیا در هفته اخیر، راهبرد و سیاستهای خود را در زمینه نظارت بر هوش مصنوعی به منظور اطمینان از ایمنی و مسئولیتپذیری آن اعلام کرده است.
دولت استرالیا قصد دارد به جای ادامه مسیر اتحادیه اروپا و تصویب یک مقررات هوش مصنوعی، بر روی مناطق پرخطر اجرای هوش مصنوعی با بیشترین پتانسیل آسیب (سیستم قضایی، نظارتی، خودروهای خودران و …) تمرکز کند.
این ابتکار سؤالات زیادی را ایجاد کرده ، مانند اینکه مناطق پرخطر چگونه تعریف می شوند و چه کسی این تصمیم را می گیرد، آیا برنامه های کاربردی هوش مصنوعی کم خطر با مقررات مشابهی مواجه می شوند، و اینکه چگونه سازمانها میتوانند برای تشخیص خطرات مرتبط با فناوریهای هوش مصنوعی جدید و کاربردهای جدید ابزارهای هوش مصنوعی در آینده بدون یک شورای مشاوره دائمی آن را پیشبینی کنند؟
با این وجود، یادآوری این نکته ضروری ست که ارزیابی «ریسک» در فناوریهای جدید مسئله جدیدی نیست و دارای بسیاری از اصول، دستورالعملها و مقررات موجود می باشد که میتواند برای رفع نگرانیهای مربوط به ابزارهای هوش مصنوعی تطبیق داده شود.
یکی از مشکلات مهم مقررات هوش مصنوعی این است که ابزارهای زیادی در حال حاضر در خانهها و محلهای کار استرالیایی استفاده میشود، بدون اینکه تدابیر محافظتی نظارتی برای مدیریت ریسکها وجود داشته باشد. و در حالی که مصرفکنندگان و سازمانها به راهنمایی در مورد پذیرش مناسب ابزارهای هوش مصنوعی برای مدیریت ریسکها نیاز دارند، اما بسیاری از کاربردها خارج از حوزههای «پرخطر» می باشند.
این مسئله منجر به چالش در تعریف محیط های «پرخطر» می شود. مفهوم «ریسک» مفهومی نسبی و طیفی می باشد. خطر توسط خود ابزار یا محیطی که در آن استفاده می شود تعیین نمی شود، بلکه از عوامل زمینه ای ناشی می شود که احتمال آسیب را ایجاد می کند. علاوه بر این، خطرات ناشی از افراد و سازمانهایی که از ابزارهای هوش مصنوعی استفاده میکنند باید در کنار خطرات ناشی از خود فناوری مدیریت شوند.
دولت استرالیا اعلام کرده که هیئت مشاوره ای متخصص در مورد خطرات هوش مصنوعی به عضویت و تخصص متنوع از سراسر صنعت (از بخش ها و اندازه های مختلف شرکت)، دانشگاه (کارشناسان محاسبات هوش مصنوعی و دانشمندان علوم اجتماعی)، جامعه مدنی و حرفه حقوقی نیاز دارد.
گام بعدی تصمیمگیری بر روی این مسئله می باشد که دولت چگونه میخواهد این خطرات بالقوه هوش مصنوعی آینده را مدیریت کند. یک نهاد مشاور دائمی میتواند خطرات فناوریهای آینده و استفادههای جدید از ابزارهای موجود را مدیریت کند. چنین نهادی همچنین میتواند به مصرفکنندگان و محلهای کار در مورد کاربردهای هوش مصنوعی در سطوح پایینتر خطر، به ویژه در مواردی که مقررات محدود یا بدون مقررات وجود دارد، توصیه های لازم را ارائه دهد.
پایان پیام/





















