• امروز : چهارشنبه - ۸ بهمن - ۱۴۰۴
  • برابر با : Wednesday - 28 January - 2026
4

ایجاد چت بات های مخرب هوش مصنوعی

  • کد خبر : 20448
  • 26 بهمن 1402 - 20:50
ایجاد چت بات های مخرب هوش مصنوعی
روش های مختلفی وجود دارد که در آن سیستم های هوش مصنوعی مولد می توانند توسط مجرمان استفاده شوند. به عنوان مثال، توانایی ChatGPT برای ایجاد محتوای مناسب بر اساس چند دستور ساده، می تواند به راحتی برای ساخت کلاهبرداری های متقاعد کننده و پیام های فیشینگ و توزیع گسترده آنها مورد سوء استفاده قرار گیرد.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از  Techxplore، ابزارهای هوش مصنوعی برای عموم مردم (ChatGPT، Bard، Dall-E) به طور گسترده برای انجام بسیاری از کارهای روزمره مورد استفاده قرار می گیرند، اما کاربران با اهداف مخرب می توانند از این فناوری ها سوء استفاده کرده و آن ها را خراب کنند و حتی چت بات های هوش مصنوعی خود را برای پشتیبانی از هک و کلاهبرداری ایجاد می کنند.

روش های مختلفی وجود دارد که در آن سیستم های هوش مصنوعی مولد می توانند توسط مجرمان استفاده شوند. به عنوان مثال، توانایی ChatGPT برای ایجاد محتوای مناسب بر اساس چند دستور ساده، می تواند به راحتی برای ساخت کلاهبرداری های متقاعد کننده و پیام های فیشینگ و توزیع گسترده آنها مورد سوء استفاده قرار گیرد. موارد بسیاری ثبت شده است که در جوامع هک مخفی مجرمان از ChatGPT برای کلاهبرداری و ایجاد نرم افزار برای سرقت اطلاعات یا حتی ایجاد باج افزار استفاده می کنند.

هکرها  از این اقدامات فراتر رفته و انواع مخرب LLM ها را ایجاد کرده اند. دو مثال WormGPT و FraudGPT هستند که می‌توانند بدافزار ایجاد کنند، آسیب‌پذیری‌های امنیتی را در سیستم‌ها پیدا کنند، در مورد روش‌های کلاهبرداری به افراد توصیه کنند، از هک پشتیبانی کنند و دستگاه‌های الکترونیکی افراد را در معرض خطر قرار دهند. نوع جدیدتر Love-GPT می باشد که برای کلاهبرداری های عاشقانه استفاده می شود. پروفایل های دوستیابی جعلی ایجاد می کند که قادر به چت کردن با قربانیان ناآگاه در Tinder، Bumble و سایر برنامه ها هستند.

یک خطر بزرگ در رابطه با استفاده از چت بات ها و ابزارهای مبتنی بر LLM، مسئله حفظ حریم خصوصی و اعتماد می باشد. هرچه افراد بیشتری از ابزارهای هوش مصنوعی استفاده کنند، خطر اشتراک گذاری اطلاعات شخصی و محرمانه شرکت بیشتر می شود. این روند مشکل ساز می باشد زیرا LLM ها از هر ورودی داده به عنوان بخشی از مجموعه داده های آموزشی آینده خود استفاده می کنند و ممکن است آن داده های محرمانه را با دیگران به اشتراک بگذارند.

محققان قبلاً ثابت کرده‌اند که ChatGPT می‌تواند مکالمات کاربر را فاش کند و داده‌های مورد استفاده برای آموزش مدل در پشت پرده آن را فاش کند. این ها آسیب‌پذیری‌هایی هستند که حریم خصوصی شخص یا داده‌های محرمانه یک کسب‌وکار را به خطر می‌اندازد.

در مقیاس وسیع‌تر، این پدیده می‌تواند به عدم اعتماد به هوش مصنوعی کمک کند، زیرا بسیاری از شرکت‌های بزرگ (از جمله اپل و آمازون) استفاده از ChatGPT را به عنوان یک اقدام پیشگیرانه ممنوع کرده‌اند.

از آنجایی که ChatGPT و LLM های مشابه نشان دهنده آخرین پیشرفت های هوش مصنوعی هستند، بنابراین برای استفاده آزادانه در دسترس همه هستند. کاربران باید از خطرات آن آگاه باشند و بدانند چگونه می توانند از این فناوری ها به طور ایمن در خانه یا در محل کار خانه استفاده کنند.

وقتی صحبت از اقدامات ایمنی به میان می آید، کارشناسان توصیه می کنند مراقب محتوایی که با ابزارهای هوش مصنوعی به اشتراک می گذاریم، باشیم و از به اشتراک گذاری هرگونه اطلاعات حساس یا خصوصی خودداری کنیم. آنها همچنین یادآوری می‌کنند که ابزارهای هوش مصنوعی کامل نیستند و گاهی اوقات پاسخ‌های نادرست یا ساختگی ارائه می‌دهند، که باید هنگام در نظر گرفتن استفاده از آنها در تنظیمات حرفه‌ای به خاطر داشته باشیم.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=20448

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.