• امروز : پنج شنبه - ۱۰ خرداد - ۱۴۰۳
  • برابر با : Thursday - 30 May - 2024
0

مفهوم قانون پیشنهادی اتحادیه اروپا برای تنظیم هوش مصنوعی از دیدگاه مصرف کنندگان

  • کد خبر : 21767
  • 24 اسفند 1402 - 19:29
مفهوم قانون پیشنهادی اتحادیه اروپا برای تنظیم هوش مصنوعی از دیدگاه مصرف کنندگان
یک تعریف اولیه از هوش مصنوعی شامل یک سیستم کامپیوتری می باشد که وظایفی را که معمولاً با سطوح هوش انسانی مرتبط می باشد، انجام می‌دهد، مانند نوشتن مقاله یا کشیدن یک تصویر.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از   theguardian، روز چهارشنبه، قانون پیشنهادی هوش مصنوعی اتحادیه اروپا توسط پارلمان اروپا تأیید شد که نقطه عطفی در تنظیم این فناوری محسوب می شود. این اقدام گام مهمی در جهت معرفی این قانون می باشد که اکنون به تایید رسمی وزرای کشورهای عضو اتحادیه اروپا نیاز دارد.

با توجه به اینکه این قانون در یک دوره سه ساله اجرا می شود، مصرف کنندگان متوجه تفاوت فوری نخواهند شد، اما به برخی نگرانی ها در مورد فناوری پاسخ داده خواهد شد.

کاربران می‌توانند اعتماد کنند که ابزارهای هوش مصنوعی که به آنها دسترسی دارند به دقت بررسی شده و برای استفاده ایمن هستند. این روند شبیه به کاربران برنامه های بانکی می باشد که می توانند اعتماد کنند که بانک اقدامات امنیتی سختگیرانه ای انجام داده تا آنها را قادر به استفاده ایمن از برنامه ها نماید.

این قانون به دلیل نقش بروکسل به عنوان یکی از مراجع تنظیم‌کننده و تأثیرگذار در زمینه فناوری، اهمیت دارد. به عنوان نمونه، تأثیر قابل توجهی که قانون حمایت از حریم خصوصی عمومی (GDPR) بر مدیریت داده‌های افراد داشته است، نشان می‌دهد که این قوانین می‌توانند تأثیر گذار باشند. به همین دلیل، قانون مرتبط با هوش مصنوعی هم می‌تواند تأثیر مشابهی داشته باشد.

بسیاری از کشورها اقدامات اتحادیه اروپا را با دقت مشاهده خواهند کرد. اگر این رویکرد اتحادیه اروپا موفقیت‌آمیز باشد، احتمالاً سایر کشورها هم از این رویکرد الهام می‌گیرند و آن را به کار می‌برند.

این لایحه، هوش مصنوعی را چگونه تعریف می کند؟

یک تعریف اولیه از هوش مصنوعی شامل یک سیستم کامپیوتری می باشد که وظایفی را که معمولاً با سطوح هوش انسانی مرتبط می باشد، انجام می‌دهد، مانند نوشتن مقاله یا کشیدن یک تصویر.

قانون مربوط به هوش مصنوعی دارای یک توضیح مفصل‌تر می باشد که فناوری هوش مصنوعی که تحت پوشش این قانون قرار می‌گیرد را به عنوان “یک سیستم مبتنی بر ماشین طراحی شده برای عمل با سطوح مختلفی از خودکاری” تعریف می‌کند. این توضیح به طور واضح به ابزارهایی مانند ChatGPT هم مربوط می‌شود که به طور خودکار و بدون نیاز به مداخله انسان عمل می‌کنند.

این سیستم ممکن است “پس از راه‌اندازی، تطبیق‌پذیری” را نشان دهد.  به عبارت دیگر، در طول فرآیند کار یاد می‌گیرد و از ورودی‌هایی که دریافت می‌کند استنباط می‌کند “که چگونه خروجی‌هایی مانند پیش‌بینی‌ها، محتوا، توصیه‌ها یا تصمیماتی که می‌توانند محیط‌های فیزیکی یا مجازی را تحت تأثیر قرار دهند، تولید کند. این تعریف نه تنها چت بات ها را شامل می‌شود، بلکه ابزارهای هوش مصنوعی دیگری هم را شامل می‌شود که برای مثال، برنامه های شغلی را بررسی می کند.

این قانون سیستم‌هایی را ممنوع می‌کند که «خطر غیرقابل قبول» دارند، اما ابزارهای هوش مصنوعی طراحی‌شده برای استفاده نظامی، دفاعی یا امنیت ملی را مستثنی می‌کند، موضوعی که بسیاری از حامیان ایمنی فناوری را نگران می‌کند. همچنین برای سیستم هایی که برای استفاده در تحقیقات علمی و نوآوری طراحی شده اند، اعمال نمی شود.

معاون سیاستگذاری در سازمان غیرانتفاعی آلمان معتقد است که ممکن است استثناء های امنیت ملی در قانون هوش مصنوعی به کشورهای عضو فرصتی برای دور زدن مقررات حیاتی هوش مصنوعی و ایجاد خطر بالای سوء استفاده ارائه دهد.

این لایحه چگونه با خطرات ناشی از هوش مصنوعی مقابله می کند؟

سیستم های خاصی ممنوع خواهند بود. این موارد شامل سیستم هایی می شود که به دنبال دستکاری افراد برای ایجاد آسیب هستند، مانند سیستم‌های «امتیاز اجتماعی» که افراد را بر اساس رفتار یا شخصیت اجتماعی طبقه‌بندی می‌کند. نظارت بر احساسات افراد در محیط کار یا مدارس؛ سیستم‌های “طبقه‌بندی بیومتریگ” که افراد را بر اساس داده‌های بیومتریک شان (اسکن شبکیه، تشخیص چهره، اثر انگشت) مرتب می‌کنند تا مواردی مانند نژاد، جهت‌گیری جنسی، نظرات سیاسی یا باورهای مذهبی را استنباط کنند؛ و ایجاد پایگاه‌های داده تشخیص چهره از طریق جمع‌آوری تصاویر چهره از اینترنت یا دوربین‌های مداربسته.

تشخیص چهره یک عامل بحث برانگیز در قانون بوده است. استفاده از سیستم‌های شناسایی بیومتریک لحظه ای  که فناوری تشخیص چهره را در جمعیت زنده پوشش می‌دهد، ممنوع می باشد، اما در شرایطی برای اجرای قانون مجاز می باشد. مجریان قانون می توانند از چنین فناوری برای یافتن یک فرد مفقود شده یا جلوگیری از حمله تروریستی استفاده کنند، اما آنها به تأیید مقامات نیاز دارند . البته در شرایط استثنایی می توان بدون تأیید قبلی از آن استفاده کرد.

این قانون یک دسته بندی ویژه برای سیستم های “پرخطر” دارد که قانونی است اما به دقت رعایت می شود. سیستم‌های مورد استفاده در زیرساخت‌های حیاتی مانند آب، گاز و برق، یا سیستم‌هایی که در زمینه‌هایی مانند آموزش، اشتغال، مراقبت‌های بهداشتی و بانکی مستقر شده‌اند، شامل می‌شوند. برخی از سیستم های اجرای قانون، عدالت و کنترل مرز هم تحت پوشش قرار خواهند گرفت. به عنوان مثال، سیستمی که برای تصمیم گیری در مورد پذیرش فردی در یک موسسه آموزشی استفاده می شود یا اینکه آیا شغلی پیدا می کند، پرخطر تلقی می شود.

این قانون مستلزم دقیق بودن این ابزارها، مشمول ارزیابی ریسک، نظارت انسانی و همچنین ثبت استفاده از آنها می باشد. شهروندان اتحادیه اروپا همچنین می توانند در مورد تصمیمات اتخاذ شده توسط این سیستم های هوش مصنوعی که آنها را تحت تأثیر قرار داده، توضیح بخواهند.

هوش مصنوعی مولد که اصطلاحی برای سیستم‌هایی ست که متن، تصویر، ویدئو و صوت قابل قبولی را از طریق اعلان‌های ساده تولید می‌کنند، توسط مقرراتی که قانون به آن سیستم‌های هوش مصنوعی «عمومی» می گوید، پوشش داده می‌شود.

یک رویکرد دو لایه وجود خواهد داشت. در سطح اول، همه توسعه دهندگان مدل باید از قانون حق نسخه برداری اتحادیه اروپا پیروی کنند و خلاصه های دقیقی از محتوای مورد استفاده برای آموزش مدل ارائه دهند. مشخص نیست که مدل‌های آموزش دیده چگونه می‌توانند مطابقت داشته باشند، و برخی از آنها در حال حاضر تحت فشار قانونی هستند. نیویورک تایمز از OpenAI و Getty Images از StabilityAI به اتهام نقض حق چاپ شکایت کرده اند. مدل‌های منبع باز، که به‌طور رایگان در دسترس عموم هستند، برخلاف مدل‌های « منبع بسته» مانند GPT-4 ، از الزامات کپی رایت معاف خواهند بود.

یک سطح سخت‌گیرانه‌تر برای مدل‌هایی که خطر سیستمیکی ایجاد می‌کنند، بر اساس ارزیابی هوش بیشتر که شبیه به انسان‌ها می باشد، اختصاص داده شده و انتظار می رود که شامل چت‌بات‌ها و تولیدکننده‌های تصویر باشد. این سیستم‌ها اقداماتی مانند گزارش کردن حوادث جدی ناشی از مدل‌ها، مانند مرگ یا نقض حقوق اساسی، و انجام “تست‌های مخالفتی” را که در آن متخصصان سعی می‌کنند از موانع امنیتی یک مدل عبور کنند، شامل می‌شود.

افراد، شرکت‌ها یا نهادهای عمومی که دیپ‌فیک منتشر می‌کنند باید مشخص کنند که آیا محتوا به‌طور مصنوعی تولید شده یا دستکاری شده است. اگر این کار برای کارهای هنری، خلاقانه یا طنز «ظاهرا» انجام شود، باز هم باید علامت گذاری شود، اما «به نحوی مناسب که مانع نمایش یا لذت بردن از اثر نشود.

متنی که توسط ربات‌های چت تولید می‌شود و «در مورد موضوعات مورد علاقه عمومی» به اطلاع عموم می‌رساند، باید به‌عنوان ساخته‌شده توسط هوش مصنوعی علامت‌گذاری شود، اما نه در جایی که تحت فرآیند بازبینی انسانی یا کنترل ویرایشی قرار گرفته باشد که محتوایی را که نظارت انسانی داشته مستثنی می‌کند. توسعه‌دهندگان سیستم‌های هوش مصنوعی همچنین باید اطمینان حاصل کنند که خروجی آن‌ها می‌تواند به‌عنوان ساخته‌شده توسط هوش مصنوعی، با علامت گذاری یا علامت‌گذاری محتوای دیگر، شناسایی شود.

این لایحه با واکنش های متفاوتی روبرو شده است. بزرگ‌ترین شرکت‌های فناوری به طور علنی از قانون حمایت می‌کنند، در حالی که نسبت به جزئیات محتاط هستند. آمازون اعلام کرده که متعهد به همکاری با اتحادیه اروپا «برای حمایت از توسعه ایمن، امن و مسئولانه فناوری هوش مصنوعی» می باشد، اما مارک زاکربرگ نسبت به مقررات بیش از حد هشدار داده است. رئیس امور اتحادیه اروپا معتقد است که پتانسیل عظیم هوش مصنوعی برای تقویت نوآوری اروپایی و ایجاد رقابت بسیار مهم می باشد.

یکی از مقامات ارشد یک شرکت آمریکایی هشدار داده که اتحادیه اروپا محدودیتی برای قدرت محاسباتی مورد استفاده برای آموزش مدل‌های هوش مصنوعی تعیین کرده است که بسیار کمتر از پیشنهادات مشابه در ایالات متحده می باشد. مدل هایی که با توان بیش از ۱۰ به توان ۲۵ “فلاپس” که معیاری برای سنجش قدرت محاسباتی ست آموزش داده شده اند، با الزامات سنگینی مواجه خواهند شد تا ثابت کنند که خطرات سیستم را ایجاد نمی کنند. این امر می تواند شرکت های اروپایی را وادار کند که به سادگی سهام خود را افزایش دهند و به سمت غرب حرکت کنند تا از محدودیت های اتحادیه اروپا جلوگیری کنند.

جریمه ها از ۷٫۵ میلیون یورو یا ۱٫۵ درصد از کل گردش مالی یک شرکت در سراسر جهان – هر کدام که بیشتر باشد – برای ارائه اطلاعات نادرست به قانون گذارها، تا ۱۵ میلیون یورو یا ۳ درصد از گردش مالی در سراسر جهان برای نقض برخی مفاد این قانون، مانند تعهدات شفافیت، متغیر می باشد. ۳۵ میلیون یورو یا ۷ درصد از گردش مالی برای استقرار یا توسعه ابزارهای ممنوعه هوش مصنوعی و همچنین جریمه های متناسب تری برای شرکت های کوچکتر و استارت آپ ها اعمال خواهد شد.

تعهدات پس از ۱۲ ماه اجرایی می شود، بنابراین در مقطعی از سال آینده، پس از تبدیل قانون، ممنوعیت برخی از مقوله ها پس از شش ماه لازم الاجرا می شود. ارائه دهندگان و استقرار سیستم های پرخطر سه سال فرصت دارند تا از آن پیروی کنند. همچنین یک دفتر جدید هوش مصنوعی اروپایی ایجاد خواهد شد که استانداردها را تعیین کرده و نهاد نظارتی اصلی برای مدل‌های GPAI خواهد بود.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=21767

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.