کنترل پسماند صنعتی و گازهای آلاینده در اولویت شورای شهر کرج
بررسی ظرفیتهای مغفول صنایع شوینده و رنگ و رزین در البرز
درمان ۱۵۰۰ بیمار دیابتی با پلاسمادرمانی در استان البرز
روکش آسفالت ۱۱۶ کیلومتر از راههای البرز در ۱۰ ماه اخیر
ضبط دو دستگاه گنجیاب در عملیات پلیس کرج
هشدار رئیس کل دادگستری البرز درباره عواقب «صدور چک بدون پشتوانه
حذف ایستگاه مترو المهدی توجیه فنی ندارد
نظارت نامحسوس بر مراکز معاینه فنی البرز تشدید میشود
در میان نگرانیها درباره احتمال ایجاد سلاحها یا انجام حملات جمعی توسط هوش مصنوعی و مدلهای زبانی بزرگ (LLMs)، یک گروه از متخصصان مجموعهای از دادهها را ایجاد کرده اند که نه تنها یک روش برای بررسی اینکه آیا یک مدل هوش مصنوعی اطلاعات خطرناک دارد یا خیر را ارائه میدهد، بلکه راهی را برای حذف آن اطلاعات در حالی که قسمت زیادی از مدل را تغییر نمیدهد، هم فراهم میکند. این مجموعه داده پروکسی سلاحهای کشتار جمعی (WMDP) نامیده میشود.
به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از Cybernews، با گسترش و دسترسی فزاینده به فناوری هوش مصنوعی، آیا ممکن است فردی با پول کافی به آزمایشگاهی که قادر به احیای ویروس ها و طاعون خطرناک می باشد، دسترسی پیدا کند؟ بر اساس یک مطالعه جدید، اگرچه فناوری هوش مصنوعی فعلی قادر به برنامهریزی […]
در یک مطالعه جدید، تأثیر بالقوه این حملات و همچنین تکنیک هایی را که می تواند از این مدل ها در برابر آنها محافظت کند، بررسی شده است. این مطالعه، یک تکنیک جدید الهام گرفته از روانشناسی را معرفی می کند که می تواند به محافظت از چت بات های مبتنی بر LLM در برابر حملات سایبری کمک کند.
این هوش مصنوعی توسط چتبات ChatGPT طراحی شده و می تواند متنی با صدای طبیعی از طریق دستور کوتاه نوشته شده توسط کاربر ایجاد کند.
طبق گزارش، دانشمندان از سوی نیروهای پشتیبانی استراتژیک (SSP) که به عنوان بخشی از ارتش آزادی بخش خلق چین (PLA) تشکیل شده، در حال آموزش یک سیستم هوش مصنوعی نظامی برای پیشبینی اقدامات احتمالی دشمن هستند.