اف بی آی آمریکا به آنچه؛ تلاش های دشمنان خارجی برای استفاده از هوش مصنوعی به عنوان بخشی از کمپین های نفوذ و سایر فعالیت های مخرب و همچنین علاقه آنها جهت آسیب رساندن به نرم افزارهای هوش مصنوعی تجاری و سرقت قابلیت های فناوری در حال ظهور نامیده ، اظهار نگرانی نموده است.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از therecord ، دو خطر اصلی که آژانس FBI مشاهده میکند، “عدم همخطی مدل” و یا حرکت نرمافزارهای هوش مصنوعی به سمت نتایج ناخواسته در طول فرآیند توسعه یا استقرار، و “سوءاستفاده مستقیم از هوش مصنوعی” برای کمک به سایر عملیاتها می باشد. نخستین خطر، “عدم همخطی مدل” می باشد و به این معناست که این احتمال وجود دارد که نرمافزارهای هوش مصنوعی به طرز ناخواستهای توسعه یابند یا مورد استقرار قرار گیرند که باعث تولید نتایج غیرمطلوب و مضر شوند. به عبارت دیگر، اگر مدل هوش مصنوعی به درستی با هدفها یا ارزشهای مورد نظر همخطی نشود، ممکن است نتایجی تولید کند که مضر یا مخرب باشد.
اما خطر دوم، “سوءاستفاده مستقیم از هوش مصنوعی”، به معنای این است که از فناوری هوش مصنوعی میتوان به نحوهایی استفاده نادرست و ناعادلانهای کرد که باعث صدمهزدن به دیگران یا نقض استانداردها و اصول اخلاقی و قانونی شود. این مشکل نشان میدهد که لازم است در توسعه، استقرار و نظارت بر سیستمهای هوش مصنوعی برای اطمینان از همخطی با هدفهای موردنظر و جلوگیری از استفاده آن برای اهداف مخرب و غیراخلاقی، دقت و اهتمام لازم اعمال شود.
بنا به اعلام این نهاد ؛ عوامل خارجی به طور فزاینده ای شرکت ها، دانشگاه ها و مراکز تحقیقاتی دولتی ایالات متحده را بخاطر پیشرفت های هوش مصنوعی، مانند الگوریتم ها، تخصص داده ها، زیرساخت های محاسباتی و حتی مردم، هدف قرار داده اند و اطلاعات را جمع آوری می کنند.
مهارت و استعداد، یکی از جنبه های اصلی در زنجیره تامین هوش مصنوعی محسوب می شود که دشمنان به آن نیاز دارند.
به دنبال هشدار مدیر افبیآی مبنی بر استفاده چین از فناوری هوش مصنوعی، مقامهای ایالات متحده معتقدند که نظام چین مالکیت معنوی را سرقت کرده و از طریق روشهای غیرقانونی دادههای خارجی را جمعآوری میکند. به نظر میرسد که این مقامات نگران استفاده چین از هوش مصنوعی بهعنوان یک ابزار برای سو استفاده از دانش و فناوری ایالات متحده می باشد.
علاوه بر تهدیدهای دولت ملی، مقامات آمریکایی و محققان امنیت سایبری می گویند که مجرمان از هوش مصنوعی به عنوان یک نیروی چند برابری جهت تولید کدهای مخرب، ایجاد ایمیل های فیشینگ متقاعدکننده، توسعه بدافزارهای پیشرفته، کد مهندسی معکوس و ایجاد «محتوای ساختگی» مانند دیپ فیک استفاده می کنند.
هوش مصنوعی برخی از موانع فنی را به میزان قابل توجهی کاهش داده است و به افرادی که تجربه یا تخصص فنی محدودی دارند، اجازه می دهد تا کدهای مخرب بنویسند و فعالیت های سایبری سطح پایین را به صروت همزمان انجام دهند.
با اینکه هوش مصنوعی فعلا در تولید کد پیشرفته نمی باشد، اما به عوامل ماهر کمک کرده تا فرآیند توسعه بدافزار را تسریع ببخشند، حملات جدیدی ایجاد کنند و گزینههای تحویل قانعکنندهتر و مهندسی اجتماعی مؤثر را فعال کنند.





















