قانونگذاران اروپایی به تصویب قانون هوش مصنوعی (AI Act) اتحادیه اروپا رای داده اند که می تواند محدودیت های بی سابقه ای را در مورد نحوه استفاده شرکت ها از هوش مصنوعی ایجاد کند.
به گزارش عدل البرز به نقل از cybernews ، قانون هوش مصنوعی، سیستمهایی را که دارای «سطح غیرقابل قبول خطر» هستند، مانند ابزارهای پلیسی پیشبینیکننده که قبلاً در چندین ایالت آمریکا وجود دارد، یا سیستمهای امتیازدهی اجتماعی، مانند آنچه در چین استفاده میشود، برای طبقهبندی افراد بر اساس رفتارشان ممنوع میکند.
این قانون، محدودیتهای جدیدی را برای «هوش مصنوعی پرخطر» تعیین میکند، مانند سیستمهایی که میتوانند بر رأیدهندگان تأثیر بگذارند یا به سلامت افراد آسیب برسانند.
قانون هوش مصنوعی (AI Act) با هدف محدود کردن تأثیرات و پتانسیل سیستمهای هوش مصنوعی مانند ChatGPT، از جمله مدلهای تولید محتوا به صورت خودکار، اقداماتی را پیشنهاد میکند. بر اساس این قانون، محتوایی که توسط این سیستمها ایجاد میشود باید مشخصهگذاری شود و به عنوان محتوای ساخته شده توسط هوش مصنوعی شناخته شود. به عبارت دیگر، این سیستمها باید بتوانند به صورت شفاف تشخیص داده شوند تا کاربران بفهمند که محتوایی که مشاهده میکنند، توسط یک سیستم هوش مصنوعی تولید شده است.
این پیشنهاد احتمالاً یکی از مهمترین پیشنهادات می باشد، زیرا ChatGPT و سایر رباتهای مبتنی بر هوش مصنوعی با استفاده از جمعآوری متن از اینترنت، اغلب از منابع دارای حق چاپ و همچنین از سایت های رسانه های اجتماعی مانند Reddit، گفتاری شبیه انسان ایجاد می کنند. Reddit در حال انتقال به روش اخذ هزینه برای استفاده از رابط برنامهنویسی برنامه (API) خود است. این اقدام تا حدی به دلیل این است که شرکتهای هوش مصنوعی مانند OpenAI برای آموزش سیستمهای خود از حجم زیادی از دادههای این سایت به صورت رایگان استفاده کردهاند.
اگر قانون هوش مصنوعی در اروپا به تصویب برسد (که هنوز باید با کشورهای عضو اتحادیه اروپا در شورای اروپا مورد بحث قرار گیرد)، این امکان دیگر در این منطقه وجود نخواهد داشت. تهدید به گونهای جدی است که OpenAI، سازنده ChatGPT، اعلام کرده است که ممکن است مجبور شود از اروپا کنار بگیرد (البته این شرکت بعدها تصمیم خود را تغییر داده است).
اتحادیه اروپا سال ها صرف توسعه قوانین مرتبط با هوش مصنوعی خود کرده است. کمیسیون اروپا برای اولین بار بیش از دو سال پیش پیشنهادی را منتشر کرد و در ماههای اخیر آن را اصلاح کرد تا به نگرانیهای جدیدی که با پیشرفتهای اخیر در هوش مصنوعی ایجاد شده است، رسیدگی کند.
هوش مصنوعی سوالات زیادی را از نظر اجتماعی، اخلاقی و اقتصادی مطرح می کند. اما اکنون وقت توقف نمی باشد. بلکه باید سریع اقدام کنیم و مسئولیت پذیری باشیم.
یکی از مسائلی که ممکن است حین بررسی جزئیات این لایحه در شورای اروپا مشکل ساز شود، تشخیص چهره و نظارت بیومتریک می باشد. برخی از قانونگذاران در پارلمان اروپا خواهان ممنوعیت کامل هستند، در حالی که برخی از کشورهای اتحادیه اروپا استثنایی را برای اهداف امنیت ملی، دفاعی و نظامی ترجیح می دهند.
به گفته Washington Post این اقدام همچنان موقعیت اروپا را بهعنوان قانونگذار جهانی فناوری جهانی مستحکم میکند. اصلاحات جدید، در صورت تصویب، بر سیاست گذاری فناوری در سراسر جهان تأثیر خواهد گذاشت.
آیا یک ناظر جهانی فعلی در حوزه فناوری وجود دارد؟
این مسئله یک چالش برای قدرت برخی از شرکتهای فناوری محسوب می شود. با این حال، ممکن است همچنان از یک مسیر برخورد اجتناب شود، زیرا برخی از شرکت های جهانی می توانند اقدامات خود را از قبل تنظیم کنند.
شرکت مایکروسافت اعلام کرده است که حقوق و محرمانگی اطلاعاتی که در قوانین حفاظت از اطلاعات عمومی اروپا (GDPR) وجود دارد، را به تمام مشتریان خود در سراسر جهان تعمیم خواهد داد. این اقدام به این معنی است که مایکروسافت قصد دارد استانداردها و حقوق حفاظت از اطلاعات را به صورت گستردهتری اعمال کند و از طرفی باعث کاهش تفاوتها در حفاظت اطلاعاتی بین کشورها و مناطق مختلف شود.
مقررات حفاظت از داده های عمومی یک مقررات در قانون اتحادیه اروپا در مورد حفاظت از داده ها و حریم خصوصی در این منطقه می باشد. بسیاری از شرکتهای فناوری آمریکایی قوانین حفظ حریم خصوصی دادههای اتحادیه اروپا را مشکلساز میدانند.
در ماه مه گوگل، چت بات Bard خود را در بیش از ۱۸۰ کشور و منطقه در سراسر جهان راه اندازی کرد اما اتحادیه اروپا را پشت سر گذاشت. پس از آن قرار بود روز بزرگ هفته گذشته فرا برسد، اما پس از آن که کمیسیون حفاظت از داده های ایرلند، که GDPR را اجرا می کند، درخواست ارزیابی حریم خصوصی داد، به تعویق افتاد.
Digital Europe، یک سازمان تجاری که نماینده کسبوکارهای اروپایی است که در تلاش برای رونق فناوریهای دیجیتال هستند، رأی پارلمان اروپا را «گامی مهم در جهت تنظیم یک کتاب قواعد هوش مصنوعی اروپایی» توصیف کرده است.
این سازمان هشدار داده “منطقی می باشد که افرادی که از کاربردهای پرخطر استفاده میکنند، بیشترین تعهدات را داشته باشند. خودارزیابی مورد استقبال قرار گرفته و به شرکتها انعطاف لازم را میدهد. ولی، در مورد مقامات ملی، منابع بیشتری برای استخدام کارشناسان هوش مصنوعی و مقابله با حجم مورد انتظار کارها لازم می باشد.
پایان پیام/