به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از Cybernews، با گسترش و دسترسی فزاینده به فناوری هوش مصنوعی، آیا ممکن است فردی با پول کافی به آزمایشگاهی که قادر به احیای ویروس ها و طاعون خطرناک می باشد، دسترسی پیدا کند؟
بر اساس یک مطالعه جدید، اگرچه فناوری هوش مصنوعی فعلی قادر به برنامهریزی یک حمله سلاح بیولوژیکی نمی باشد، اما ممکن است در آینده نزدیک تغییر کند و خطر جدیدی را ایجاد کند. در طول این مطالعه چندین تیم بر روی ایجاد برنامههای عملیاتی برای حمله بیولوژیکی کار کردند. برخی از تیمها هم از LLM (مدل زبانی بزرگ) استفاده کردند و برخی دیگر فقط به اینترنت دسترسی داشتند. سپس طرحها از نظر قابلیت اجرا مورد ارزیابی قرار گرفتند و از ۱ تا ۹ امتیاز گرفتند (۱ به معنای یک برنامه کاملاً غیرقابل اجرا و ۹ به معنای یک برنامه بدون نقص و کاملاً قابل دستیابی می باشد).
بر اساس گزارش، پانزده تیم به مدت چندین هفته کار کردند و از عوامل مخرب تقلید کردند و مدلهای هوش مصنوعی را در سناریوهای پرخطر بررسی کردند. این مقاله به این نتیجه رسید که میانگین دوام برنامه های عملیاتی تولید شده با کمک LLMها از نظر آماری غیرقابل تمایز با طرح هایی ست که بدون کمک LLM ایجاد شده اند، و هیچ یک از طرح ها از نظر مبنایی به اندازه کافی دقیق برای یک عامل مخرب که بتواند یک برنامه را اجرا کند و حمله بیولوژیکی موثری را انجام دهد، نمی باشد و امتیاز رضایت بخشی به دست نیاورده است.
تیم هایی که با LLM کار می کنند، کمی امتیاز بالاتر نسبت به تیم هایی داشتند که فقط از اینترنت استفاده می کردند. طبق گزارشها، LLMها برخی «خروجیهای ناخوشایند» را ارائه میکنند، اما معمولاً اطلاعاتی را که قبلاً به صورت آنلاین در دسترس می باشد را فراهم می کنند.
وظایف مرتبط با برنامهریزی حملات با سلاحهای بیولوژیکی احتمالاً خارج از تواناییهای موجود LLMها قرار دارند. ولی این مطالعه هنوز قطعی نیست و خطر حملات بیولوژیکی با استفاده از LLM ها را کاملاً رد نمی کند و برای ارزیابی دقیق تر نیاز به آزمایش بیشتری دارد.
با اینکه یافتهها نشان میدهد که LLMهای موجود به طور معنیداری قابلیت برنامهریزی حمله سلاحهای بیولوژیکی را افزایش نمیدهند، اما نمیتوان احتمال یک تهدید بیولوژیکی ناشناخته و جدی را که توسط LLMها به پیش رانده یا حتی ایجاد شده را رد کرد. با توجه به زمان بیشتر، مهارتهای پیشرفته، منابع اضافی یا انگیزههای بالا، یک عامل غیردولتی مخرب میتواند توسط یک LLM موجود یا در آینده برای برنامهریزی یا اجرای یک حمله سلاح بیولوژیکی تحریک شود.
در نهایت، با توجه به تکامل سریع هوش مصنوعی، نظارت بر پیشرفتهای آینده در فناوری LLM و خطرات بالقوه مرتبط با کاربرد آن در برنامهریزی حمله سلاحهای بیولوژیکی مهم تلقی می شود.
پایان پیام/
بیشتر بخوانید: ارتباط با خدا با گردنبند هوش مصنوعی !





















