به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از theguardian، شرکتی که به موسسه ایمنی هوش مصنوعی دولت کمک میکند، معتقد است که بریتانیا باید تلاش کند استانداردهای جهانی برای آزمون هوش مصنوعی را به جای اینکه سعی کند کلیه بررسیها را به تنهایی انجام دهد، تعیین کند.
این موسسه تازه تاسیس ، به دلیل کار پیشرو در جهان در زمینه ایمنی هوش مصنوعی به بررسی دقیق مجموعهای از مدلهای هوش مصنوعی و فناوری که زیربنای چت باتهایی مانند ChatGPT می باشد، می پردازد.
ریشی سوناک در سال گذشته، تشکیل موسسه ایمنی هوش مصنوعی (AISI) را قبل از اجلاس جهانی ایمنی هوش مصنوعی اعلام کرد که تعهد همکاری از سوی شرکتهای فناوری بزرگ با اتحادیه اروپا و ۱۰ کشور دیگر، از جمله بریتانیا، آمریکا، فرانسه و ژاپن، در زمینه آزمون مدلهای پیشرفته هوش مصنوعی قبل و بعد از پیادهسازی تضمین می کرد.
بریتانیا به دلیل کار پیشرفته خود در زمینه ایمنی هوش مصنوعی، که توسط تأسیس مؤسسه بر آن تأکید شده، نقش برجسته ای در این توافقنامه دارد.
این باور وجود دارد که این موسسه باید رهبر جهانی در تعیین استانداردهای آزمون باشد.
تکنولوژی به سرعت در حال پیشرفت می باشد. بنابراین، این موسسه باید استانداردهایی را وضع کند که سایر دولت ها و شرکت ها بتوانند از آن پیروی کنند، مانند “red teaming”، که در آن متخصصان به جای انجام تمام کارها، استفاده نادرست از یک مدل هوش مصنوعی را شبیه سازی می کنند.
دولت ممکن است در موقعیتی قرار بگیرد که همه چیز را بررسی کند و اقدامات امنیتی را به شکلی مستقل و با تکیه بر تیمهای تحلیلی (تیم قرمز) انجام دهد.
این موسسه به عنوان یک تنظیم کننده استانداردهای بینالمللی میتواند استانداردهای بسیار برجستهای را تعیین کند به طوری که دولتها و شرکتهای دیگر بتوانند آن استانداردها را به شکل تیم قرمز ارزیابی کنند. بنابراین، این دیدگاه یک دیدگاه قابل مقیاس و بلندمدت برای نگهداشتن این موارد ایمن می باشد.
بر اساس گزارش فایننشال تایمز، شرکتهای بزرگ هوش مصنوعی، دولت بریتانیا را تحت فشار قرار میدهند تا آزمایشهای ایمنی خود را برای سیستمهای هوش مصنوعی سرعت ببخشد. امضاکنندگان توافقنامه آزمایش داوطلبانه شامل گوگل، ChatGPT ، مایکروسافت و متا هستند.
ایالات متحده همچنین اعلام کرده است که یک موسسه ایمنی هوش مصنوعی راهاندازی خواهد کرد که در برنامه آزمونی که در اجلاس در Bletchley Park اعلام شده، نقش خواهد داشت.
اخیرا دولت بایدن یک ائتلاف را اعلام کرد تا به کاخ سفید کمک کند تا اهدافی که در فرمان اجرایی مربوط به امنیت هوش مصنوعی در اکتبر تعیین شده را دنبال کند. این اهداف شامل توسعه راهنمایی برای نشانهگذاری محتوای تولیدشده توسط هوش مصنوعی می باشد. اعضای این ائتلاف که در موسسه آمریکا مستقر خواهد شد، شامل متا، گوگل، اپل و OpenAI میشود.
دپارتمان علم، نوآوری و فناوری بریتانیا اعلام کرده که دولتهای سراسر جهان «باید نقشی کلیدی» در آزمایش مدلهای هوش مصنوعی ایفا کنند.
بریتانیا این اقدام را از طریق اولین موسسه ایمنی هوش مصنوعی در جهان که در حال انجام ارزیابی ها، تحقیقات و به اشتراک گذاری اطلاعات و ارتقای درک جمعی از ایمنی هوش مصنوعی در سراسر جهان هستند، انجام می دهد.
پایان پیام/





















