به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از theguardian، بر اساس یک گزارش جدید، حزب کارگر (در انگلیس) قصد دارد شرکتهای هوش مصنوعی را مجبور به اشتراک گذاری نتایج آزمایشهای جادهای فناوری شان کند؛ زیرا مقامات نظارتی و سیاستمداران نتوانستهاند بر پلتفرمهای رسانه های اجتماعی کنترلی داشته باشند.
این حزب قصد دارد توافق آزمایش داخلی بین شرکتهای تکنولوژی و دولت را با یک نظام قانونی جایگزین کند. در این چارچوب قانونی، شرکتهای هوش مصنوعی مجبور خواهند شد تا دادههای آزمایش خود را با مقامات به اشتراک بگذارند.
پیتر کایل که در حال حاضر نماینده حوزه فناوری در انگلیس می باشد، اعلام کرده که نمایندگان قانونگذار و نظامهای نظارتی در زمینه رسانههای اجتماعی با تأخیر عمل کردهاند و حزب کارگر باید اطمینان حاصل کند که این اشتباه در مورد هوش مصنوعی تکرار نمیشود.
وی معتقد است، شرکتهایی که در زمینه فناوری هوش مصنوعی فعالیت میکنند، تحت دولت کارگر موظف می باشند تا شفافتر عمل کنند.
پیتر کایل اظهار کرد که آنها از یک سیستم کد آزاد به یک کد قانونی در حوزه فناوری منتقل میشوند. بنابراین، شرکتهایی که در تحقیق و توسعه فعالیت میکنند مجبور خواهند بود تا تمامی دادههای آزمایش را منتشر کنند و جزئیات آزمایشات خود را بیان کنند، تا بتوان بررسی کرد که فناوری به چه سمتی در حال پیشروی می باشد.
در افتتاحیه اجلاس جهانی ایمنی هوش مصنوعی در نوامبر، ریشی سوناک با شرکتهای پیشرو هوش مصنوعی، از جمله گوگل و توسعهدهنده OpenAI، برای همکاری در آزمایش مدلهای پیشرفته هوش مصنوعی قبل و بعد از استقرار آنها، به توافقی داوطلبانه رسید. بر اساس پیشنهادات کارگری، شرکتهای هوش مصنوعی باید بر اساس یک نظام قانونی به دولت اعلام کنند که آیا قصد توسعه سیستمهای هوش مصنوعی با قابلیتی بالاتر از حد مشخصی را دارند و نیاز به آزمایشهای ایمنی با “نظارت مستقل” دارند یا خیر.
توافقنامه آزمایشی نشست سران هوش مصنوعی توسط اتحادیه اروپا و ۱۰ کشور از جمله ایالات متحده، بریتانیا، ژاپن، فرانسه و آلمان حمایت شد. شرکتهای فناوری که با آزمایش مدلهای خود موافقت کردهاند عبارتند از گوگل، OpenAI، آمازون، مایکروسافت و متا.
پیتر کایل، اعلام کرد که نتایج آزمایشها به انستیتوی ایمنی هوش مصنوعی انگلیس که به تازگی تأسیس شده ، کمک می کند تا به عموم اطمینان داده شود که به طور مستقل بررسی می شود که در بخشهای پیشتاز هوش مصنوعی چه اتفاقی میافتد. در واقع، از نتایج آزمایشها برای تضمین ایمنی و شفافیت در توسعه و استفاده از فناوری هوش مصنوعی استفاده می شود و این اطمینان به جامعه داده می شود که فعالیتهای این حوزه مورد نظارت و ارزیابی قرار میگیرند.
برخی از این فناوری ها تأثیر قابل توجهی بر محل کار، جامعه و فرهنگ خواهد داشت.
پایان پیام/
بیشتر بخوانید: رقابت برای رهبری در حوزه فناوری هوش مصنوعی





















