به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از Techxplore، ابزارهای هوش مصنوعی برای عموم مردم (ChatGPT، Bard، Dall-E) به طور گسترده برای انجام بسیاری از کارهای روزمره مورد استفاده قرار می گیرند، اما کاربران با اهداف مخرب می توانند از این فناوری ها سوء استفاده کرده و آن ها را خراب کنند و حتی چت بات های هوش مصنوعی خود را برای پشتیبانی از هک و کلاهبرداری ایجاد می کنند.
روش های مختلفی وجود دارد که در آن سیستم های هوش مصنوعی مولد می توانند توسط مجرمان استفاده شوند. به عنوان مثال، توانایی ChatGPT برای ایجاد محتوای مناسب بر اساس چند دستور ساده، می تواند به راحتی برای ساخت کلاهبرداری های متقاعد کننده و پیام های فیشینگ و توزیع گسترده آنها مورد سوء استفاده قرار گیرد. موارد بسیاری ثبت شده است که در جوامع هک مخفی مجرمان از ChatGPT برای کلاهبرداری و ایجاد نرم افزار برای سرقت اطلاعات یا حتی ایجاد باج افزار استفاده می کنند.
هکرها از این اقدامات فراتر رفته و انواع مخرب LLM ها را ایجاد کرده اند. دو مثال WormGPT و FraudGPT هستند که میتوانند بدافزار ایجاد کنند، آسیبپذیریهای امنیتی را در سیستمها پیدا کنند، در مورد روشهای کلاهبرداری به افراد توصیه کنند، از هک پشتیبانی کنند و دستگاههای الکترونیکی افراد را در معرض خطر قرار دهند. نوع جدیدتر Love-GPT می باشد که برای کلاهبرداری های عاشقانه استفاده می شود. پروفایل های دوستیابی جعلی ایجاد می کند که قادر به چت کردن با قربانیان ناآگاه در Tinder، Bumble و سایر برنامه ها هستند.
یک خطر بزرگ در رابطه با استفاده از چت بات ها و ابزارهای مبتنی بر LLM، مسئله حفظ حریم خصوصی و اعتماد می باشد. هرچه افراد بیشتری از ابزارهای هوش مصنوعی استفاده کنند، خطر اشتراک گذاری اطلاعات شخصی و محرمانه شرکت بیشتر می شود. این روند مشکل ساز می باشد زیرا LLM ها از هر ورودی داده به عنوان بخشی از مجموعه داده های آموزشی آینده خود استفاده می کنند و ممکن است آن داده های محرمانه را با دیگران به اشتراک بگذارند.
محققان قبلاً ثابت کردهاند که ChatGPT میتواند مکالمات کاربر را فاش کند و دادههای مورد استفاده برای آموزش مدل در پشت پرده آن را فاش کند. این ها آسیبپذیریهایی هستند که حریم خصوصی شخص یا دادههای محرمانه یک کسبوکار را به خطر میاندازد.
در مقیاس وسیعتر، این پدیده میتواند به عدم اعتماد به هوش مصنوعی کمک کند، زیرا بسیاری از شرکتهای بزرگ (از جمله اپل و آمازون) استفاده از ChatGPT را به عنوان یک اقدام پیشگیرانه ممنوع کردهاند.
از آنجایی که ChatGPT و LLM های مشابه نشان دهنده آخرین پیشرفت های هوش مصنوعی هستند، بنابراین برای استفاده آزادانه در دسترس همه هستند. کاربران باید از خطرات آن آگاه باشند و بدانند چگونه می توانند از این فناوری ها به طور ایمن در خانه یا در محل کار خانه استفاده کنند.
وقتی صحبت از اقدامات ایمنی به میان می آید، کارشناسان توصیه می کنند مراقب محتوایی که با ابزارهای هوش مصنوعی به اشتراک می گذاریم، باشیم و از به اشتراک گذاری هرگونه اطلاعات حساس یا خصوصی خودداری کنیم. آنها همچنین یادآوری میکنند که ابزارهای هوش مصنوعی کامل نیستند و گاهی اوقات پاسخهای نادرست یا ساختگی ارائه میدهند، که باید هنگام در نظر گرفتن استفاده از آنها در تنظیمات حرفهای به خاطر داشته باشیم.
پایان پیام/
بیشتر بخوانید: افزایش نگرانی ها از تاثیرات مخرب هوش مصنوعی





















