• امروز : پنج شنبه - ۹ بهمن - ۱۴۰۴
  • برابر با : Thursday - 29 January - 2026
7

سیاست‌های دولت استرالیا در زمینه نظارت بر هوش مصنوعی

  • کد خبر : 18870
  • 02 بهمن 1402 - 9:18
سیاست‌های دولت استرالیا در زمینه نظارت بر هوش مصنوعی
دولت استرالیا قصد دارد به جای ادامه مسیر اتحادیه اروپا و تصویب یک مقررات هوش مصنوعی، بر روی مناطق پرخطر اجرای هوش مصنوعی با بیشترین پتانسیل آسیب (سیستم قضایی، نظارتی، خودروهای خودران و ...) تمرکز کند.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از  hls.com، دولت استرالیا در هفته‌ اخیر، راهبرد و سیاست‌های خود را در زمینه نظارت بر هوش مصنوعی به منظور اطمینان از ایمنی و مسئولیت‌پذیری آن اعلام کرده است.

دولت استرالیا قصد دارد به جای ادامه مسیر اتحادیه اروپا و تصویب یک مقررات هوش مصنوعی، بر روی مناطق پرخطر اجرای هوش مصنوعی با بیشترین پتانسیل آسیب (سیستم قضایی، نظارتی، خودروهای خودران و …) تمرکز کند.

این ابتکار سؤالات زیادی را ایجاد کرده ، مانند اینکه مناطق پرخطر چگونه تعریف می شوند و چه کسی این تصمیم را می گیرد، آیا برنامه های کاربردی هوش مصنوعی کم خطر با مقررات مشابهی مواجه می شوند، و اینکه چگونه سازمان‌ها می‌توانند برای تشخیص خطرات مرتبط با فناوری‌های هوش مصنوعی جدید و کاربردهای جدید ابزارهای هوش مصنوعی در آینده بدون یک شورای مشاوره دائمی آن را پیش‌بینی کنند؟

با این وجود، یادآوری این نکته ضروری ست که ارزیابی «ریسک» در فناوری‌های جدید مسئله جدیدی نیست و دارای بسیاری از اصول، دستورالعمل‌ها و مقررات موجود می باشد که می‌تواند برای رفع نگرانی‌های مربوط به ابزارهای هوش مصنوعی تطبیق داده شود.

یکی از مشکلات مهم مقررات هوش مصنوعی این است که ابزارهای زیادی در حال حاضر در خانه‌ها و محل‌های کار استرالیایی استفاده می‌شود، بدون اینکه تدابیر محافظتی نظارتی برای مدیریت ریسک‌ها وجود داشته باشد. و در حالی که مصرف‌کنندگان و سازمان‌ها به راهنمایی در مورد پذیرش مناسب ابزارهای هوش مصنوعی برای مدیریت ریسک‌ها نیاز دارند، اما بسیاری از کاربردها خارج از حوزه‌های «پرخطر» می باشند.

این مسئله منجر به چالش در تعریف محیط های «پرخطر» می شود. مفهوم «ریسک» مفهومی نسبی و طیفی می باشد. خطر توسط خود ابزار یا محیطی که در آن استفاده می شود تعیین نمی شود، بلکه از عوامل زمینه ای ناشی می شود که احتمال آسیب را ایجاد می کند. علاوه بر این، خطرات ناشی از افراد و سازمان‌هایی که از ابزارهای هوش مصنوعی استفاده می‌کنند باید در کنار خطرات ناشی از خود فناوری مدیریت شوند.

دولت استرالیا اعلام کرده که هیئت مشاوره ای متخصص در مورد خطرات هوش مصنوعی به عضویت و تخصص متنوع از سراسر صنعت (از بخش ها و اندازه های مختلف شرکت)، دانشگاه (کارشناسان محاسبات هوش مصنوعی و دانشمندان علوم اجتماعی)، جامعه مدنی و حرفه حقوقی نیاز دارد.

گام بعدی تصمیم‌گیری بر روی این مسئله می باشد که دولت چگونه می‌خواهد این خطرات بالقوه هوش مصنوعی آینده را مدیریت کند. یک نهاد مشاور دائمی می‌تواند خطرات فناوری‌های آینده و استفاده‌های جدید از ابزارهای موجود را مدیریت کند. چنین نهادی همچنین می‌تواند به مصرف‌کنندگان و محل‌های کار در مورد کاربردهای هوش مصنوعی در سطوح پایین‌تر خطر، به ویژه در مواردی که مقررات محدود یا بدون مقررات وجود دارد، توصیه های لازم را ارائه دهد.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=18870

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.