در حوزه هوش مصنوعی (AI)، این سوال مطرح می شود که آیا می توان به شرکت های فناوری جهت خود تنظیمی اعتماد کرد؟ اخیراً هفت شرکت بزرگ هوش مصنوعی در ملاقات با رئیس جمهور آمریکا تعهدات عمومی خود را نسبت به ایمنی و شفافیت اعلام کردند. علاوه بر این، گوگل، آنتروپیک، مایکروسافت و OpenAI گروهی را تشکیل دادهاند که به بررسی قابلیتهای قویتر هوش مصنوعی و ایجاد بهترین شیوهها برای کنترل آن اختصاص دارد.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از fagenwasanni ، با این که این تعهدات بیانگر گامی در جهت درست و مناسب می باشد اما سابقه صنعت در پرداختن به اثرات منفی رسانه های اجتماعی، نگرانی هایی را در مورد اثربخشی آنها بدون مداخله نظارتی ایجاد می کند. وقتی در مورد هوش مصنوعی صحبت میکنیم، چالش اصلی این است که چگونه یک چارچوب نظارتی و قوانینی ایجاد کنیم که بتواند تعهدات و مسئولیتها را از شرکتها و توسعهدهندگان هوش مصنوعی اجرا کند، بدون این که نوآوریها و پیشرفتها در زمینه هوش مصنوعی را مختل کند. همچنین این چارچوب باید قابلیت تطبیق با پیشرفتهای هوش مصنوعی را داشته باشد و بهروزرسانیهای لازم را در این زمینه انجام دهد. به این ترتیب، میتوان با اطمینان از رشد هوش مصنوعی بهره برد و در عین حال مسائل امنیتی و اخلاقی را نیز به حداقل رساند.
تعدادی از شرکتهای بزرگ فناوری ایالات متحده آمریکا در جلسه ای در کاخ سفید متعهد شدند که از ایمنی محصولات خود از طریق آزمایشهای امنیتی دقیق قبل از انتشار چه در داخل و چه در خارج اطمینان حاصل کنند. آنها همچنین متعهد شدند که اطلاعات مربوط به مدیریت ریسک را در سراسر صنعت و دولت به اشتراک بگذارند. علاوه بر این، آنها اعلام کردند که قصد تسهیل شناسایی آسیبپذیریها توسط شخص ثالث در سیستمهای هوش مصنوعی خود دارند و از “نشانگذاری” دیجیتالی استفاده کنند تا کاربران را از محتوای تولیدشده توسط هوش مصنوعی آگاه کنند.
با این که این مراحل نشان دهنده اهداف مثبت می باشد، اما تا حد زیادی با رویه های موجود یا برنامه ریزی شده توسط شرکت ها هماهنگ می باشند. لازم به توضیح می باشد که هیچ وعده صریحی برای افشای دادههایی که مدلهای هوش مصنوعی بر اساس آنها آموزش داده میشوند وجود ندارد. البته این موضوع در قوانین آتی مربوط به هوش مصنوعی در اتحادیه اروپا مورد بررسی قرار گرفته است. مایکروسافت پیشنهاد ایجاد یک ثبتنام اختیاری برای سیستمهای هوش مصنوعی با ریسک بالا را اعلام کرده است که میتواند به عنوان ارزش افزوده در نظر گرفته شود.
کمیسیون تجارت فدرال ایالات متحده آمریکا با اشاره به نقض احتمالی قوانین مصرف کننده، اعلام کرده است که در صورت عدم انجام تعهدات خود، ممکن است علیه شرکت های فناوری اقدام قانونی کند. با این حال، مبهم بودن این تعهدات ممکن است مراحل قانونی را پیچیده کند. بر اساس پیشبینی ها یک فرمان اجرایی از سوی کاخ سفید میتواند با تمرکز بر محدود کردن دستیابی به برنامهها و مؤلفههای هوش مصنوعی توسط چین و سایر رقبا، اهمیت بیشتری به این تعهدات بدهد.
در نهایت، قانونگذاری ضروری می باشد، اما باید با چالش های مربوط به ماهیت به سرعت در حال تکامل هوش مصنوعی مقابله کند. اتحادیه اروپا با پیشنهاد قانون هوش مصنوعی رویکرد مستقیم تری اتخاذ کرده است، اما نگرانی هایی در مورد تأثیر آن بر رقابت پذیری اتحادیه اروپا و عدم رسیدگی به مسائل مهم مطرح شده است. در مقابل، کنگره آمریکا به توافق دوحزبی و تخصص کافی برای قانونگذاری در حوزه هوش مصنوعی نیاز دارد که این امر اعتمادسازی را دشوارتر می کند. چاک شومر رهبر اکثریت سنا قصد دارد در ماههای آینده جلسات آموزشی برای سناتورها برگزار کند تا بتوانند مفاهیم هوش مصنوعی را بهبود ببخشند.
مقررات موثر هوش مصنوعی مستلزم همکاری نزدیک با بخش فناوری می باشد. بسیاری از باهوشترین ذهنهای هوش مصنوعی، که در پیشبینی ریسکها مهارت دارند، توسط این شرکتها استخدام میشوند. با این حال، مشارکت کارشناسان خارجی برای اطمینان از اینکه قانونگذاران توسط خودی های صنعت فریب نخواهند خورد، بسیار مهم تلقی می شود.
بخش فناوری باید تمایل به تعامل سازنده داشته باشد. پس از واکنش شدید علیه شرکت هایی مانند فیس بوک متا به دلیل جنبه های منفی رسانه های اجتماعی، آنها اکنون برای همکاری با مقامات انگیزه دارند. در واقع، موفق ترین شرکت ها در صنعت هوش مصنوعی شرکت هایی هستند که مسئولیت را در اولویت قرار می دهند.
با توجه به ماهیت دگرگونکننده این فناوری، رویکردهای نوآورانه برای تنظیم مقررات به منظور حفظ کنترل بر هوش مصنوعی مورد نیاز می باشد.
پایان پیام/





















