• امروز : چهارشنبه - ۸ بهمن - ۱۴۰۴
  • برابر با : Wednesday - 28 January - 2026
1
استفاده عوامل تهدید از هوش مصنوعی،

ملاحظات کلیدی امنیت سایبری برای سازمان هایی که از هوش مصنوعی مولد استفاده می کنند

  • کد خبر : 4433
  • 02 مرداد 1402 - 19:10
ملاحظات کلیدی امنیت سایبری برای سازمان هایی که از هوش مصنوعی مولد استفاده می کنند
عوامل تهدید سایبری ممکن است از هوش مصنوعی مولد برای پیشبرد طرح های خود استفاده کنند.

هوش مصنوعی مولد توجه عموم را به خود جلب کرده است و ظاهرا قرار است که شیوه زندگی و کار ما را متحول کند. ولی، این فناوری شامل تعدادی از ملاحظات مهم امنیت سایبری و حفظ حریم خصوصی برای سازمان ها می شود. در این بخش به بررسی ۴ مورد از برجسته‌ترین ملاحظات و مراحل رسیدگی به مسائل می پردازیم.

افزایش تهدیدات سایبری

هوش مصنوعی مولد

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از jdsupra ، عوامل تهدید سایبری ممکن است از هوش مصنوعی مولد برای پیشبرد طرح های خود استفاده کنند. استفاده‌های بالقوه از این ابزار نامحدود هستند و شامل ایجاد بدافزار برای سوء استفاده از آسیب‌پذیری‌های ناشناخته قبلی (یا «روز صفر»)، ایجاد وب‌سایت‌های مخربی که مشروع به نظر می‌رسند، شخصی‌سازی ایمیل‌های فیشینگ و تولید داده‌های فیک می شود. علاوه بر این، مدل‌های هوش مصنوعی یک کسب‌وکار می‌توانند خطرات سو استفاده را ایجاد کنند.

کاهش این خطر ؛

برای کاهش این خطر، سازمان ها باید تمرکز خود را بر روی امنیت سایبری مضاعف کنند. آن‌ها می‌توانند با اصول اولیه مانند تهیه پیش‌نویس، آزمایش یک طرح واکنش به حادثه، انجام ارزیابی‌های ریسک که این تهدیدات نوظهور را در نظر می‌گیرند و امنیت سایبری را به یک تمرکز در سطح سازمانی تبدیل می‌کنند، شروع کنند. به عنوان بخشی از این روند آماده سازی، سازمان ها باید شناسایی و اقدام علیه دامنه های تقلبی که دامنه های قانونی آنها را جعل می کنند، در نظر بگیرند. در مورد امنیت مدل‌های هوش مصنوعی یک کسب‌وکار، ممکن است لازم باشد تا بر روی اصلاح منظم مدل‌های شخص ثالث، رفع اشکال هر مدل داخلی و آموزش کارمندان برای استفاده قابل قبول تمرکز کنند.

رعایت حریم خصوصی به طور کلی؛

 ایالت ها قوانین جدیدی را برای حفظ حریم خصوصی به صورت تقریبا ماهانه تصویب می کنند. این قوانین نحوه جمع آوری، پردازش و اشتراک گذاری داده های مصرف کننده را تنظیم و حقوق مصرف کننده جدید را مشخص می کنند. این قوانین اغلب الزامات افشا و رضایت، حقوق انصراف و تعهدات قراردادی را تعیین می کنند.

هوش مصنوعی مولد تأثیرات مهمی بر روی مطابقت با قوانین حریم خصوصی دارد، به ویژه در دو مورد زیر:

پردازش خودکار اطلاعات شخصی: اگر ابزارها و سیستم‌های هوش مصنوعی مولد از اطلاعات شخصی مصرف‌کنندگان برای تصمیم‌گیری خودکار استفاده کنند، ممکن است با قوانین حریم خصوصی متعارض شوند. برخی از قوانین حریم خصوصی ممکن است نیازمند حصول موافقت صریح مصرف‌کننده برای استفاده از اطلاعات شخصی جهت اهداف خاص باشند، و استفاده از هوش مصنوعی برای تصمیم‌گیری خودکار ممکن است نیازمند انجام تغییراتی در مجوزها و رویه‌های مطابقت باشد.

در برخی از قوانین حریم خصوصی ایالتی، مفهوم “فروش” یا “به اشتراک گذاشته شدن” اطلاعات شخصی تعریف می‌شود و شرکت‌ها ممکن است ملزم به اطلاع رسانی به مصرف‌کنندگان و ارائه امکانات انصراف از این نوع فعالیت‌ها شوند.

علاوه بر این، برخی از تنظیم‌کننده‌ها، مانند کمیته ملی روابط کاری، شروع به ارائه راهنمایی در مورد استفاده از مدل‌های هوش مصنوعی برای نظارت بر محل کار کرده‌اند، و شهر نیویورک حتی قانونی را تصویب کرده است که استفاده از تصمیم‌گیری خودکار برای استخدام و ارتقاء را ممنوع می‌کند، مگر اینکه شرکت اقدامات ضدسوگیری خاصی انجام دهد.

کاهش این خطر؛

به‌عنوان یک راه‌حل برای کاهش این خطر، لازم است که با درک ابزارهای مورد استفاده، داده‌های اصلی و منابع آنها، قوانین مرتبط و تأثیر ممکن ابزار بر مصرف‌کنندگان، به مطالعه و بررسی کارآمدی بپردازیم. مطابقت ممکن است با بررسی شرایط استفاده یا سایر قراردادها از سوی شرکت‌های ارائه‌دهنده محصول هوش مصنوعی که ممکن است به داده‌های یک سازمان دسترسی داشته باشد، آغاز شود. گام‌های مطابقت بیشتر می‌تواند شامل تهیه اطلاعیه‌ها و موافقت‌ها، انجام ارزیابی‌های ریسک و آزمون‌ها، تأمین حقوق انصراف، اطمینان از حفظ سوابق مناسب، توسعه وسیله‌ای برای بررسی و ابطال تصمیمات ابزار، و ایجاد مفاد قراردادی مناسب با فروشندگان و ارائه‌دهندگان خدمات باشد. این اقدامات کمک می‌کنند تا شرکت‌ها و سازمان‌ها بتوانند مسائل حقوقی و حریم خصوصی مرتبط با استفاده از هوش مصنوعی را مدیریت کرده و مطابق با قوانین حریم خصوصی و مقررات مرتبط عمل کنند. همچنین، این اقدامات بهبود مسئولیت‌پذیری سازمان‌ها نسبت به تصمیماتی که توسط ابزارهای هوش مصنوعی انجام می‌شود، را ارتقاء می‌بخشند.

اگر محصولات هوش مصنوعی با داده‌های کارمندان در ارتباط هستند یا شرکت مورد نظر در صنایعی فعالیت دارد که تحت مقررات و قوانین خاصی قرار دارند (مانند حوزه بهداشت، پیمان‌کاری دولتی یا خدمات مالی)، حیطه اثر گذاری راهنمایی‌های نظارتی را در نظر بگیرید و کارها را با آن راهنمایی ها مقایسه کنید.

اجتناب از نقاط ضعف؛

شرکت‌ها باید در نظر داشته باشند که تامین‌کنندگان آن‌ها نیز ممکن است از ابزارهای هوش مصنوعی در فعالیت‌های خود استفاده کنند. در قراردادها معمولاً شرکت را ملزم می‌کنند که برای فرآیند پردازش اطلاعات شخصی شرکت توسط تامین‌کننده، اطلاع‌رسانی لازم و اخذ موافقت مصرف‌کنندگان را انجام دهد. اگر تامین‌کننده به شرکت اطلاع‌رسانی نکند که از ابزار هوش مصنوعی استفاده می‌کند، شرکت ممکن است نتواند به‌طور کامل از این تعهد و مسئولیت‌ها نسبت به افرادی که اطلاعات شخصی‌شان توسط تامین‌کننده پردازش می‌شود، آگاه شود. این مسئله می‌تواند نقطه ضعف برای شرکت‌ها ایجاد کند و موجب ایجاد ریسک‌های قانونی و حقوقی شود. بنابراین، مدیریت مناسب رابطه با تامین‌کنندگان و اطمینان از اطلاع‌رسانی و مطابقت آن‌ها با قوانین حریم خصوصی، امری بسیار حیاتی می باشد.

کاهش این خطر؛

 قبل از انعقاد هر قراردادی، کسب‌وکارها باید نوع پردازش و ابزارهای مورد استفاده توسط فروشندگان خود و همچنین حقوق انصرافی را که فروشنده قبلاً از آن استفاده کرده است (مثلاً انصراف از ابزار هوش مصنوعی که از داده‌های کسب‌وکار برای بهبود خود استفاده می‌کند) را بدانند. یک گام اولیه می‌تواند شامل سؤالات مربوط به بررسی دقیق فروشنده در مورد استفاده آن فروشنده از ابزارهای هوش مصنوعی جهت پردازش اطلاعات شخصی کسب‌وکار، در کنار سؤالات دیگر در مورد پردازش داده‌ها باشد.

اجتناب از شیوه های تجاری فریبنده؛

کمیسیون تجارت فدرال، دادستان های کل ایالت، و وکلای شاکیان بر پیگیری شیوه های تجاری فریبنده متمرکز شده اند، به ویژه زمانی که صحبت از انحرافات بین خط مشی حفظ حریم خصوصی سازمان و شیوه های حفظ حریم خصوصی می شود.

کاهش این خطر؛

 هنگام بررسی و اجرای هوش مصنوعی مولد از یک رویکرد چند جانبه استفاده کنید. این رویکرد شامل ذینفعان از چندین گروه می باشد که برای درک شیوه‌ها و ابزارهای فعلی، کاهش ریسک و افزایش شفافیت همکاری می‌کنند. برخی از مراحل اولیه در اینجا بررسی کاربردهای شناخته شده ابزارهای هوش مصنوعی مولد در سازمان، بررسی قراردادها و شرایط استفاده پیرامون آن کاربرد و سپس مقایسه آن کار با افشای سیاست حفظ حریم خصوصی واقعی کسب و کار می باشد.

هوش مصنوعی مولد فرصت ها و خطرات را به سازمان ها اعلام می کند. خطرات امنیت سایبری و حریم خصوصی از برجسته ترین آنها هستند. با شناسایی و پرداختن به ریسک‌های فوق، سازمان‌ها می‌توانند از این فناوری هیجان‌انگیز نهایت استفاده را ببرند و در عین حال میزان مواجهه خود را با خطرات کاهش دهند.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=4433

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.