به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از socialmediatoday، متا ابتکار جدیدی را برای ایجاد پارامترهای مورد توافق پیرامون ملاحظات امنیت سایبری در توسعه مدلهای زبان بزرگ (LLM) و ابزارهای هوش مصنوعی اعلام کرده است، که امیدوار است توسط صنعت به عنوان گامی کلیدی در جهت تسهیل امنیت بیشتر هوش مصنوعی مورد استفاده قرار گیرد.
این پروژه که با نام “Purple Llama” شناخته میشود، هدفش گردآوری “ابزارها و ارزیابیهایی می باشد که به جامعه کمک کند تا با مدلهای هوش مصنوعی مولد منبع باز بهطور مسئولانه رفتار کند.
هدف پروژه Purple Llama ایجاد اولین مجموعه ارزیابی ایمنی امنیت سایبری در سطح صنعت برای LLMها می باشد.
هدف متا از ایجاد این نسخه اولیه، ارائه ابزارهایی می باشد که به مقابله با طیف وسیعی از خطرات ذکر شده در تعهدات کاخ سفید در زمینه توسعه هوش مصنوعی مسئول کمک می کند.
دستورالعمل اخیر ایمنی هوش مصنوعی کاخ سفید از توسعهدهندگان میخواهد تا استانداردها و آزمایشهایی را برای اطمینان از ایمن بودن سیستمهای هوش مصنوعی، محافظت از کاربران در برابر دستکاری مبتنی بر هوش مصنوعی و سایر ملاحظاتی که میتواند مانع از تسلط سیستمهای هوش مصنوعی بر جهان شود، ایجاد کنند.
پارامترهای محرک در پروژه Purple Llama متا
CyberSec Eval – معیارهای ارزیابی ایمنی سایبری مورد توافق صنعت برای LLM ها
Llama Guard – چارچوبی برای محافظت در برابر خروجی های بالقوه خطرناک هوش مصنوعی.
این ابزارها می توانند تعداد LLMهایی را که کدهای ناامن تولید شده توسط هوش مصنوعی را پیشنهاد می کنند، کاهش دهند و کارایی آنها را برای دشمنان سایبری به حدالقل برسانند.
Purple Llama با اعضای ائتلاف تازه تاسیس هوش مصنوعی که متا در رهبری آن نقش دارد، همکاری خواهد کرد. همچنین مایکروسافت، AWS، Nvidia و Google Cloud هم به عنوان شرکای بنیادین در این بخش حضور دارند.
ایمنی هوش مصنوعی به سرعت در حال تبدیل شدن به یک موضوع مهم می باشد، زیرا مدلهای هوش مصنوعی مولد با سرعتی سریع تکامل مییابند و کارشناسان در مورد خطرات ناشی از ایجاد سیستمهایی هشدار میدهند که به طور بالقوه میتوانند خودشان فکر کنند.
مدت هاست، ترس از این مسئله مطرح شده که روزی، ماشینهایی ایجاد می شود که میتوانند نسبت به انسان بهتر فکر کنند، به طور مؤثر انسانها را منسوخ میکنند، و بر این سیاره مسلط شوند. در حال حاضر، با پیشرفت ابزارهای هوش مصنوعی، این ترسها هم بیشتر شده، و اگر به طور کامل میزان خروجیهای احتمالی چنین فرآیندهایی را درک نکنیم، در واقع ممکن است مشکلات قابل توجهی ناشی از توسعه هوش مصنوعی وجود داشته باشد.
حتی اگر توسعه دهندگان آمریکایی سرعت پیشرفت خود را کند کنند، این مسئله به این معنا نیست که محققان در بازارهای دیگر از همان قوانین پیروی می کنند. و اگر دولتهای غربی پیشرفت شان را محدود کنند، این مسئله میتواند به یک تهدید وجودی تبدیل شود، زیرا رقبای نظامی سیستمهای هوش مصنوعی پیشرفتهتری میسازند.
همکاری بیشتر صنعت در مورد اقدامات و قوانین ایمنی که پس از آن اطمینان حاصل می شود که تمام خطرات مربوطه ارزیابی و در نظر گرفته می شوند، در این زمینه موثر می باشد.
پایان پیام/
بیشتر بخوانید: تشکیل ائتلاف هوش مصنوعی





















