• امروز : چهارشنبه - ۸ بهمن - ۱۴۰۴
  • برابر با : Wednesday - 28 January - 2026
5

نقش مؤسسه ایمنی هوش مصنوعی در بریتانیا

  • کد خبر : 20200
  • 24 بهمن 1402 - 13:40
نقش مؤسسه ایمنی هوش مصنوعی در بریتانیا
بر اساس گزارش فایننشال تایمز، شرکت‌های بزرگ هوش مصنوعی، دولت بریتانیا را تحت فشار قرار می‌دهند تا آزمایش‌های ایمنی خود را برای سیستم‌های هوش مصنوعی سرعت ببخشد.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از  theguardian، شرکتی که به موسسه ایمنی هوش مصنوعی دولت کمک می‌کند، معتقد است که بریتانیا باید تلاش کند استانداردهای جهانی برای آزمون هوش مصنوعی را به جای اینکه سعی کند کلیه بررسی‌ها را به تنهایی انجام دهد، تعیین کند.

این موسسه تازه تاسیس ، به دلیل کار پیشرو در جهان در زمینه ایمنی هوش مصنوعی به بررسی دقیق مجموعه‌ای از مدل‌های هوش مصنوعی و فناوری که زیربنای چت باتهایی مانند ChatGPT می باشد، می پردازد.

ریشی سوناک در سال گذشته، تشکیل موسسه ایمنی هوش مصنوعی (AISI) را قبل از اجلاس جهانی ایمنی هوش مصنوعی اعلام کرد که تعهد همکاری از سوی شرکت‌های فناوری بزرگ با اتحادیه اروپا و ۱۰ کشور دیگر، از جمله بریتانیا، آمریکا، فرانسه و ژاپن، در زمینه آزمون مدل‌های پیشرفته هوش مصنوعی قبل و بعد از پیاده‌سازی تضمین می کرد.

بریتانیا به دلیل کار پیشرفته خود در زمینه ایمنی هوش مصنوعی، که توسط تأسیس مؤسسه بر آن تأکید شده، نقش برجسته ای در این توافقنامه دارد.

این باور وجود دارد که این موسسه باید رهبر جهانی در تعیین استانداردهای آزمون باشد.

تکنولوژی به سرعت در حال پیشرفت می باشد. بنابراین، این موسسه باید استانداردهایی را وضع کند که سایر دولت ها و شرکت ها بتوانند از آن پیروی کنند، مانند “red teaming”، که در آن متخصصان به جای انجام تمام کارها، استفاده نادرست از یک مدل هوش مصنوعی را شبیه سازی می کنند.

دولت ممکن است در موقعیتی قرار بگیرد که همه چیز را بررسی کند و اقدامات امنیتی را به شکلی مستقل و با تکیه بر تیم‌های تحلیلی (تیم قرمز) انجام دهد.

این موسسه به عنوان یک تنظیم کننده استانداردهای بین‌المللی می‌تواند استانداردهای بسیار برجسته‌ای را تعیین کند به طوری که دولت‌ها و شرکت‌های دیگر بتوانند آن استانداردها را به شکل تیم قرمز ارزیابی کنند. بنابراین، این دیدگاه یک دیدگاه قابل مقیاس و بلندمدت برای نگه‌داشتن این موارد ایمن می باشد.

بر اساس گزارش فایننشال تایمز، شرکت‌های بزرگ هوش مصنوعی، دولت بریتانیا را تحت فشار قرار می‌دهند تا آزمایش‌های ایمنی خود را برای سیستم‌های هوش مصنوعی سرعت ببخشد. امضاکنندگان توافقنامه آزمایش داوطلبانه شامل گوگل، ChatGPT ، مایکروسافت و متا هستند.

ایالات متحده همچنین اعلام کرده است که یک موسسه ایمنی هوش مصنوعی راه‌اندازی خواهد کرد که در برنامه آزمونی که در اجلاس در Bletchley Park اعلام شده، نقش خواهد داشت.

اخیرا دولت بایدن یک ائتلاف را اعلام کرد تا به کاخ سفید کمک کند تا اهدافی که در فرمان اجرایی مربوط به امنیت هوش مصنوعی در اکتبر تعیین شده را دنبال کند. این اهداف شامل توسعه راهنمایی برای نشانه‌گذاری محتوای تولیدشده توسط هوش مصنوعی می باشد. اعضای این ائتلاف که در موسسه آمریکا مستقر خواهد شد، شامل متا، گوگل، اپل و OpenAI می‌شود.

دپارتمان علم، نوآوری و فناوری بریتانیا اعلام کرده که دولت‌های سراسر جهان «باید نقشی کلیدی» در آزمایش مدل‌های هوش مصنوعی ایفا کنند.

بریتانیا این اقدام را از طریق اولین موسسه ایمنی هوش مصنوعی در جهان که در حال انجام ارزیابی ها، تحقیقات و به اشتراک گذاری اطلاعات و ارتقای درک جمعی از ایمنی هوش مصنوعی در سراسر جهان هستند، انجام می دهد.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=20200

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.