به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از foxnews، پس از اینکه مایکروسافت فاش کرد که عوامل دولتی کشورهای رقیب از این فناوری برای آموزش عوامل خود استفاده میکنند، ایالات متحده باید تصمیم بگیرد که چگونه میخواهد به هوش مصنوعی (AI) اجازه دسترسی عمومی را بدهد که به طور بالقوه بر سیاستهای کلی حفاظت از دادهها تأثیر میگذارد.
فیل سیگل که بنیانگذار سازمان غیرانتفاعی هوش مصنوعی مرکز آمادگی پیشرفته و شبیهسازی تهدیدها می باشد، اظهار داشته که باید تصمیم بگیرند که آیا این موارد را برای همه به طور آسان و قابل دسترس نگه دارند که به معنای وجود عوامل خوب و بد می باشد، یا اینکه باید به روش دیگری عمل کنند.
OpenAI در پست وبلاگی اعلام کرده که چند عامل مخرب وابسته به دولت را شناسایی کرده: دو عامل چینی به نامهای Charcoal Typhoon و Salmon Typhoon، یک عامل کرهشمالی به نام Sandstorm و دو عامل روسی به نامهای Emerald Sleet و Forest Blizzard
این گروهها از سرویسهای OpenAI برای جستجوی اطلاعات منبع باز، ترجمه، یافتن خطاهای کدگذاری و اجرای وظایف کدگذاری اولیه استفاده میکنند. به عنوان مثال، دو گروه وابسته به چین، ظاهراً مقالات فنی را ترجمه کرده اند، کدها را اشکال زدایی کرده اند، اسکریپت ها را تولید کرده اند و نحوه پنهان کردن فرآیندها در سیستم های الکترونیکی مختلف را بررسی کرده اند.
در پاسخ، OpenAI یک رویکرد چند جانبه برای مبارزه با چنین استفاده های مخربی از ابزارهای شرکت، از جمله “نظارت و ایجاد اختلال در” عوامل مخرب از طریق فناوری جدید برای شناسایی و قطع فعالیت عوامل، همکاری بیشتر با سایر پلتفرمهای هوش مصنوعی برای شناسایی فعالیتهای مخرب و بهبود شفافیت عمومی پیشنهاد کرد.
همچنان که در مورد بسیاری از اکوسیستمهای دیگر هم وجود دارد، تعداد انگشت شماری از عوامل مخرب وجود دارند که نیاز به توجه مداوم دارند تا بقیه بتوانند از مزایای این اکوسیستم بهره مند شوند. با اینکه OpenAI برای به حداقل رساندن سوء استفاده احتمالی توسط چنین عوامل مخربی تلاش می کند، اما نمی تواند به طور کامل تمام عوامل مخرب را حذف کند.
این شرکت با ادامه فعالیتهای نوآورانه، تحقیقات، همکاری و اشتراکگذاری، سعی میکند که برای عوامل مخرب دشوارتر شود که در اکوسیستم دیجیتال ناشناخته بمانند و تجربه کاربری هم برای همه بهتر شود.
بر اساس دیدگاه سیگل، این اقدامات، هر چند با نیت خوبی انجام میشوند، در نهایت موثر نخواهند بود، زیرا زیرساختهای لازم برای داشتن تأثیر قابل توجه وجود ندارد. در واقع، او معتقد است که تنها انجام این اقدامات کافی نیست و برای رسیدن به تأثیر مطلوب، باید زیرساختهای لازم هم فراهم شود.
سیگل همچنین به ضرورت تصمیمگیری برای اینکه آیا این سیستم باید به صورت کامل باز باشد، به این معنا که همه به آسانی به آن دسترسی داشته باشند، یا مانند سیستم بانکی عمل کند که در آن، مکانیسمهایی برای محافظت و کنترل امنیتی وجود دارد تا از وقوع رخدادهای ناخواسته جلوگیری شود، اشاره می کند.
مایکروسافت، در یک پست وبلاگ جداگانه، بر روی برخی اقدامات اضافی دفاعی، به ویژه “اعلان” برای سایر ارائهدهندگان خدمات هوش مصنوعی تأکید کرده است. این اعلان به دیگر ارائهدهندگان کمک میکند تا فعالیت و دادههای مرتبط را شناسایی کنند و بلافاصله بر روی همان کاربران و فرآیندهای مشابه واکنش نشان دهند.
مایکروسافت و OpenAI با وعده ارائه “دفاعهای تکمیلی”، به همراه کمک از سوی موسسه MITRE برای توسعه تدابیر مقابلهای در برابر “چشم انداز در حال تحول عملیات سایبری تحت تأثیر هوش مصنوعی”، قصد دارند تا سیستمهای مهم هوش مصنوعی را حفاظت کنند. این تدابیر شامل مجموعهای از اقدامات و راهکارهاست که به منظور مقابله با حملات سایبری و فعالیتهای مخربی است که از هوش مصنوعی بهره میبرند، طراحی و پیادهسازی میشود.
در چند سال اخیر، در اکوسیستم تهدیدات، یک الگوی ثابت مشاهده شده که عوامل تهدید با روند فناوریها همگام شده اند و اقدامات خود را در هماهنگی با آنها انجام میدهند. به عبارت دیگر، همسویی عوامل تهدید با روند پیشرفت فناوری قابل مشاهده می باشد.
فرایندهای توصیف شده تنها بخشی از فعالیتهایی هستند که عوامل مخرب انجام میدهند، و این بخاطر عدم وجود سیستمهای کنونی برای کشف تمامیت فعالیتهاست. زیرا هکرها ممکن است از تکنیکهای جاسوسی و حتی “سایر اشکال فناوری” استفاده کنند تا به اهداف خود برسند.
سیگل معتقد است که برای انجام کارهای مورد نیاز، نیاز به همکاری با دولت یا سایر نهادهایی که قبلاً در زمینههای مشابه فعالیت داشتهاند، وجود دارد.
پایان پیام/
بیشتر بخوانید: ایجاد چت بات های مخرب هوش مصنوعی





















