• امروز : پنج شنبه - ۹ بهمن - ۱۴۰۴
  • برابر با : Thursday - 29 January - 2026
10

پروژه جدید متا برای ایجاد مقررات ایمنی هوش مصنوعی

  • کد خبر : 15439
  • 19 آذر 1402 - 1:06
پروژه جدید متا برای ایجاد مقررات ایمنی هوش مصنوعی
ایمنی هوش مصنوعی به سرعت در حال تبدیل شدن به یک موضوع مهم می باشد، زیرا مدل‌های هوش مصنوعی مولد با سرعتی سریع تکامل می‌یابند و کارشناسان در مورد خطرات ناشی از ایجاد سیستم‌هایی هشدار می‌دهند که به طور بالقوه می‌توانند خودشان فکر کنند.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از socialmediatoday، متا ابتکار جدیدی را برای ایجاد پارامترهای مورد توافق پیرامون ملاحظات امنیت سایبری در توسعه مدل‌های زبان بزرگ (LLM) و ابزارهای هوش مصنوعی اعلام کرده است، که امیدوار است توسط صنعت به عنوان گامی کلیدی در جهت تسهیل امنیت بیشتر هوش مصنوعی مورد استفاده قرار گیرد.

این پروژه که با نام “Purple Llama” شناخته می‌شود، هدفش گردآوری “ابزارها و ارزیابی‌هایی می باشد که به جامعه کمک کند تا با مدل‌های هوش مصنوعی مولد منبع باز به‌طور مسئولانه رفتار کند.

هدف پروژه Purple Llama ایجاد اولین مجموعه ارزیابی ایمنی امنیت سایبری در سطح صنعت برای LLMها می باشد.

هدف متا از ایجاد این نسخه اولیه، ارائه ابزارهایی می باشد که به مقابله با طیف وسیعی از خطرات ذکر شده در تعهدات کاخ سفید در زمینه توسعه هوش مصنوعی مسئول کمک می کند.

دستورالعمل اخیر ایمنی هوش مصنوعی کاخ سفید از توسعه‌دهندگان می‌خواهد تا استانداردها و آزمایش‌هایی را برای اطمینان از ایمن بودن سیستم‌های هوش مصنوعی، محافظت از کاربران در برابر دستکاری مبتنی بر هوش مصنوعی و سایر ملاحظاتی که می‌تواند مانع از تسلط سیستم‌های هوش مصنوعی بر جهان شود، ایجاد کنند.

پارامترهای محرک در پروژه Purple Llama متا

CyberSec Eval – معیارهای ارزیابی ایمنی سایبری مورد توافق صنعت برای LLM ها

Llama Guard – چارچوبی برای محافظت در برابر خروجی های بالقوه خطرناک هوش مصنوعی.

این ابزارها می توانند تعداد LLMهایی را که کدهای ناامن تولید شده توسط هوش مصنوعی را پیشنهاد می کنند، کاهش دهند و کارایی آنها را برای دشمنان سایبری به حدالقل برسانند.

Purple Llama با اعضای ائتلاف تازه تاسیس هوش مصنوعی که متا در رهبری آن نقش دارد، همکاری خواهد کرد. همچنین مایکروسافت، AWS، Nvidia و Google Cloud هم به عنوان شرکای بنیادین در این بخش حضور دارند.

ایمنی هوش مصنوعی به سرعت در حال تبدیل شدن به یک موضوع مهم می باشد، زیرا مدل‌های هوش مصنوعی مولد با سرعتی سریع تکامل می‌یابند و کارشناسان در مورد خطرات ناشی از ایجاد سیستم‌هایی هشدار می‌دهند که به طور بالقوه می‌توانند خودشان فکر کنند.

مدت هاست، ترس از این مسئله مطرح شده که روزی، ماشین‌هایی ایجاد می‌ شود که می‌توانند نسبت به انسان بهتر فکر کنند، به طور مؤثر انسان‌ها را منسوخ می‌کنند، و  بر این سیاره مسلط شوند. در حال حاضر، با پیشرفت ابزارهای هوش مصنوعی، این ترس‌ها هم بیشتر شده، و اگر به طور کامل میزان خروجی‌های احتمالی چنین فرآیندهایی را درک نکنیم، در واقع ممکن است مشکلات قابل توجهی ناشی از توسعه هوش مصنوعی وجود داشته باشد.

حتی اگر توسعه دهندگان آمریکایی سرعت پیشرفت خود را کند کنند، این مسئله به این معنا نیست که محققان در بازارهای دیگر از همان قوانین پیروی می کنند. و اگر دولت‌های غربی پیشرفت شان را محدود کنند، این مسئله می‌تواند به یک تهدید وجودی تبدیل شود، زیرا رقبای نظامی سیستم‌های هوش مصنوعی پیشرفته‌تری می‌سازند.

همکاری بیشتر صنعت در مورد اقدامات و قوانین ایمنی که پس از آن اطمینان حاصل می شود که تمام خطرات مربوطه ارزیابی و در نظر گرفته می شوند، در این زمینه موثر می باشد.

پایان پیام/

بیشتر بخوانید: تشکیل ائتلاف هوش مصنوعی

لینک کوتاه : https://adlealborz.ir/?p=15439

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.