به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از theguardian، روز چهارشنبه، قانون پیشنهادی هوش مصنوعی اتحادیه اروپا توسط پارلمان اروپا تأیید شد که نقطه عطفی در تنظیم این فناوری محسوب می شود. این اقدام گام مهمی در جهت معرفی این قانون می باشد که اکنون به تایید رسمی وزرای کشورهای عضو اتحادیه اروپا نیاز دارد.
با توجه به اینکه این قانون در یک دوره سه ساله اجرا می شود، مصرف کنندگان متوجه تفاوت فوری نخواهند شد، اما به برخی نگرانی ها در مورد فناوری پاسخ داده خواهد شد.
کاربران میتوانند اعتماد کنند که ابزارهای هوش مصنوعی که به آنها دسترسی دارند به دقت بررسی شده و برای استفاده ایمن هستند. این روند شبیه به کاربران برنامه های بانکی می باشد که می توانند اعتماد کنند که بانک اقدامات امنیتی سختگیرانه ای انجام داده تا آنها را قادر به استفاده ایمن از برنامه ها نماید.
این قانون به دلیل نقش بروکسل به عنوان یکی از مراجع تنظیمکننده و تأثیرگذار در زمینه فناوری، اهمیت دارد. به عنوان نمونه، تأثیر قابل توجهی که قانون حمایت از حریم خصوصی عمومی (GDPR) بر مدیریت دادههای افراد داشته است، نشان میدهد که این قوانین میتوانند تأثیر گذار باشند. به همین دلیل، قانون مرتبط با هوش مصنوعی هم میتواند تأثیر مشابهی داشته باشد.
بسیاری از کشورها اقدامات اتحادیه اروپا را با دقت مشاهده خواهند کرد. اگر این رویکرد اتحادیه اروپا موفقیتآمیز باشد، احتمالاً سایر کشورها هم از این رویکرد الهام میگیرند و آن را به کار میبرند.
این لایحه، هوش مصنوعی را چگونه تعریف می کند؟
یک تعریف اولیه از هوش مصنوعی شامل یک سیستم کامپیوتری می باشد که وظایفی را که معمولاً با سطوح هوش انسانی مرتبط می باشد، انجام میدهد، مانند نوشتن مقاله یا کشیدن یک تصویر.
قانون مربوط به هوش مصنوعی دارای یک توضیح مفصلتر می باشد که فناوری هوش مصنوعی که تحت پوشش این قانون قرار میگیرد را به عنوان “یک سیستم مبتنی بر ماشین طراحی شده برای عمل با سطوح مختلفی از خودکاری” تعریف میکند. این توضیح به طور واضح به ابزارهایی مانند ChatGPT هم مربوط میشود که به طور خودکار و بدون نیاز به مداخله انسان عمل میکنند.
این سیستم ممکن است “پس از راهاندازی، تطبیقپذیری” را نشان دهد. به عبارت دیگر، در طول فرآیند کار یاد میگیرد و از ورودیهایی که دریافت میکند استنباط میکند “که چگونه خروجیهایی مانند پیشبینیها، محتوا، توصیهها یا تصمیماتی که میتوانند محیطهای فیزیکی یا مجازی را تحت تأثیر قرار دهند، تولید کند. این تعریف نه تنها چت بات ها را شامل میشود، بلکه ابزارهای هوش مصنوعی دیگری هم را شامل میشود که برای مثال، برنامه های شغلی را بررسی می کند.
این قانون سیستمهایی را ممنوع میکند که «خطر غیرقابل قبول» دارند، اما ابزارهای هوش مصنوعی طراحیشده برای استفاده نظامی، دفاعی یا امنیت ملی را مستثنی میکند، موضوعی که بسیاری از حامیان ایمنی فناوری را نگران میکند. همچنین برای سیستم هایی که برای استفاده در تحقیقات علمی و نوآوری طراحی شده اند، اعمال نمی شود.
معاون سیاستگذاری در سازمان غیرانتفاعی آلمان معتقد است که ممکن است استثناء های امنیت ملی در قانون هوش مصنوعی به کشورهای عضو فرصتی برای دور زدن مقررات حیاتی هوش مصنوعی و ایجاد خطر بالای سوء استفاده ارائه دهد.
این لایحه چگونه با خطرات ناشی از هوش مصنوعی مقابله می کند؟
سیستم های خاصی ممنوع خواهند بود. این موارد شامل سیستم هایی می شود که به دنبال دستکاری افراد برای ایجاد آسیب هستند، مانند سیستمهای «امتیاز اجتماعی» که افراد را بر اساس رفتار یا شخصیت اجتماعی طبقهبندی میکند. نظارت بر احساسات افراد در محیط کار یا مدارس؛ سیستمهای “طبقهبندی بیومتریگ” که افراد را بر اساس دادههای بیومتریک شان (اسکن شبکیه، تشخیص چهره، اثر انگشت) مرتب میکنند تا مواردی مانند نژاد، جهتگیری جنسی، نظرات سیاسی یا باورهای مذهبی را استنباط کنند؛ و ایجاد پایگاههای داده تشخیص چهره از طریق جمعآوری تصاویر چهره از اینترنت یا دوربینهای مداربسته.
تشخیص چهره یک عامل بحث برانگیز در قانون بوده است. استفاده از سیستمهای شناسایی بیومتریک لحظه ای که فناوری تشخیص چهره را در جمعیت زنده پوشش میدهد، ممنوع می باشد، اما در شرایطی برای اجرای قانون مجاز می باشد. مجریان قانون می توانند از چنین فناوری برای یافتن یک فرد مفقود شده یا جلوگیری از حمله تروریستی استفاده کنند، اما آنها به تأیید مقامات نیاز دارند . البته در شرایط استثنایی می توان بدون تأیید قبلی از آن استفاده کرد.
این قانون یک دسته بندی ویژه برای سیستم های “پرخطر” دارد که قانونی است اما به دقت رعایت می شود. سیستمهای مورد استفاده در زیرساختهای حیاتی مانند آب، گاز و برق، یا سیستمهایی که در زمینههایی مانند آموزش، اشتغال، مراقبتهای بهداشتی و بانکی مستقر شدهاند، شامل میشوند. برخی از سیستم های اجرای قانون، عدالت و کنترل مرز هم تحت پوشش قرار خواهند گرفت. به عنوان مثال، سیستمی که برای تصمیم گیری در مورد پذیرش فردی در یک موسسه آموزشی استفاده می شود یا اینکه آیا شغلی پیدا می کند، پرخطر تلقی می شود.
این قانون مستلزم دقیق بودن این ابزارها، مشمول ارزیابی ریسک، نظارت انسانی و همچنین ثبت استفاده از آنها می باشد. شهروندان اتحادیه اروپا همچنین می توانند در مورد تصمیمات اتخاذ شده توسط این سیستم های هوش مصنوعی که آنها را تحت تأثیر قرار داده، توضیح بخواهند.
هوش مصنوعی مولد که اصطلاحی برای سیستمهایی ست که متن، تصویر، ویدئو و صوت قابل قبولی را از طریق اعلانهای ساده تولید میکنند، توسط مقرراتی که قانون به آن سیستمهای هوش مصنوعی «عمومی» می گوید، پوشش داده میشود.
یک رویکرد دو لایه وجود خواهد داشت. در سطح اول، همه توسعه دهندگان مدل باید از قانون حق نسخه برداری اتحادیه اروپا پیروی کنند و خلاصه های دقیقی از محتوای مورد استفاده برای آموزش مدل ارائه دهند. مشخص نیست که مدلهای آموزش دیده چگونه میتوانند مطابقت داشته باشند، و برخی از آنها در حال حاضر تحت فشار قانونی هستند. نیویورک تایمز از OpenAI و Getty Images از StabilityAI به اتهام نقض حق چاپ شکایت کرده اند. مدلهای منبع باز، که بهطور رایگان در دسترس عموم هستند، برخلاف مدلهای « منبع بسته» مانند GPT-4 ، از الزامات کپی رایت معاف خواهند بود.
یک سطح سختگیرانهتر برای مدلهایی که خطر سیستمیکی ایجاد میکنند، بر اساس ارزیابی هوش بیشتر که شبیه به انسانها می باشد، اختصاص داده شده و انتظار می رود که شامل چتباتها و تولیدکنندههای تصویر باشد. این سیستمها اقداماتی مانند گزارش کردن حوادث جدی ناشی از مدلها، مانند مرگ یا نقض حقوق اساسی، و انجام “تستهای مخالفتی” را که در آن متخصصان سعی میکنند از موانع امنیتی یک مدل عبور کنند، شامل میشود.
افراد، شرکتها یا نهادهای عمومی که دیپفیک منتشر میکنند باید مشخص کنند که آیا محتوا بهطور مصنوعی تولید شده یا دستکاری شده است. اگر این کار برای کارهای هنری، خلاقانه یا طنز «ظاهرا» انجام شود، باز هم باید علامت گذاری شود، اما «به نحوی مناسب که مانع نمایش یا لذت بردن از اثر نشود.
متنی که توسط رباتهای چت تولید میشود و «در مورد موضوعات مورد علاقه عمومی» به اطلاع عموم میرساند، باید بهعنوان ساختهشده توسط هوش مصنوعی علامتگذاری شود، اما نه در جایی که تحت فرآیند بازبینی انسانی یا کنترل ویرایشی قرار گرفته باشد که محتوایی را که نظارت انسانی داشته مستثنی میکند. توسعهدهندگان سیستمهای هوش مصنوعی همچنین باید اطمینان حاصل کنند که خروجی آنها میتواند بهعنوان ساختهشده توسط هوش مصنوعی، با علامت گذاری یا علامتگذاری محتوای دیگر، شناسایی شود.
این لایحه با واکنش های متفاوتی روبرو شده است. بزرگترین شرکتهای فناوری به طور علنی از قانون حمایت میکنند، در حالی که نسبت به جزئیات محتاط هستند. آمازون اعلام کرده که متعهد به همکاری با اتحادیه اروپا «برای حمایت از توسعه ایمن، امن و مسئولانه فناوری هوش مصنوعی» می باشد، اما مارک زاکربرگ نسبت به مقررات بیش از حد هشدار داده است. رئیس امور اتحادیه اروپا معتقد است که پتانسیل عظیم هوش مصنوعی برای تقویت نوآوری اروپایی و ایجاد رقابت بسیار مهم می باشد.
یکی از مقامات ارشد یک شرکت آمریکایی هشدار داده که اتحادیه اروپا محدودیتی برای قدرت محاسباتی مورد استفاده برای آموزش مدلهای هوش مصنوعی تعیین کرده است که بسیار کمتر از پیشنهادات مشابه در ایالات متحده می باشد. مدل هایی که با توان بیش از ۱۰ به توان ۲۵ “فلاپس” که معیاری برای سنجش قدرت محاسباتی ست آموزش داده شده اند، با الزامات سنگینی مواجه خواهند شد تا ثابت کنند که خطرات سیستم را ایجاد نمی کنند. این امر می تواند شرکت های اروپایی را وادار کند که به سادگی سهام خود را افزایش دهند و به سمت غرب حرکت کنند تا از محدودیت های اتحادیه اروپا جلوگیری کنند.
جریمه ها از ۷٫۵ میلیون یورو یا ۱٫۵ درصد از کل گردش مالی یک شرکت در سراسر جهان – هر کدام که بیشتر باشد – برای ارائه اطلاعات نادرست به قانون گذارها، تا ۱۵ میلیون یورو یا ۳ درصد از گردش مالی در سراسر جهان برای نقض برخی مفاد این قانون، مانند تعهدات شفافیت، متغیر می باشد. ۳۵ میلیون یورو یا ۷ درصد از گردش مالی برای استقرار یا توسعه ابزارهای ممنوعه هوش مصنوعی و همچنین جریمه های متناسب تری برای شرکت های کوچکتر و استارت آپ ها اعمال خواهد شد.
تعهدات پس از ۱۲ ماه اجرایی می شود، بنابراین در مقطعی از سال آینده، پس از تبدیل قانون، ممنوعیت برخی از مقوله ها پس از شش ماه لازم الاجرا می شود. ارائه دهندگان و استقرار سیستم های پرخطر سه سال فرصت دارند تا از آن پیروی کنند. همچنین یک دفتر جدید هوش مصنوعی اروپایی ایجاد خواهد شد که استانداردها را تعیین کرده و نهاد نظارتی اصلی برای مدلهای GPAI خواهد بود.
پایان پیام/
بیشتر بخوانید: تصویب قانون هوش مصنوعی در سال ۲۰۲۴