هوش مصنوعی مولد توجه عموم را به خود جلب کرده است و ظاهرا قرار است که شیوه زندگی و کار ما را متحول کند. ولی، این فناوری شامل تعدادی از ملاحظات مهم امنیت سایبری و حفظ حریم خصوصی برای سازمان ها می شود. در این بخش به بررسی ۴ مورد از برجستهترین ملاحظات و مراحل رسیدگی به مسائل می پردازیم.
افزایش تهدیدات سایبری

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از jdsupra ، عوامل تهدید سایبری ممکن است از هوش مصنوعی مولد برای پیشبرد طرح های خود استفاده کنند. استفادههای بالقوه از این ابزار نامحدود هستند و شامل ایجاد بدافزار برای سوء استفاده از آسیبپذیریهای ناشناخته قبلی (یا «روز صفر»)، ایجاد وبسایتهای مخربی که مشروع به نظر میرسند، شخصیسازی ایمیلهای فیشینگ و تولید دادههای فیک می شود. علاوه بر این، مدلهای هوش مصنوعی یک کسبوکار میتوانند خطرات سو استفاده را ایجاد کنند.
کاهش این خطر ؛
برای کاهش این خطر، سازمان ها باید تمرکز خود را بر روی امنیت سایبری مضاعف کنند. آنها میتوانند با اصول اولیه مانند تهیه پیشنویس، آزمایش یک طرح واکنش به حادثه، انجام ارزیابیهای ریسک که این تهدیدات نوظهور را در نظر میگیرند و امنیت سایبری را به یک تمرکز در سطح سازمانی تبدیل میکنند، شروع کنند. به عنوان بخشی از این روند آماده سازی، سازمان ها باید شناسایی و اقدام علیه دامنه های تقلبی که دامنه های قانونی آنها را جعل می کنند، در نظر بگیرند. در مورد امنیت مدلهای هوش مصنوعی یک کسبوکار، ممکن است لازم باشد تا بر روی اصلاح منظم مدلهای شخص ثالث، رفع اشکال هر مدل داخلی و آموزش کارمندان برای استفاده قابل قبول تمرکز کنند.
رعایت حریم خصوصی به طور کلی؛
ایالت ها قوانین جدیدی را برای حفظ حریم خصوصی به صورت تقریبا ماهانه تصویب می کنند. این قوانین نحوه جمع آوری، پردازش و اشتراک گذاری داده های مصرف کننده را تنظیم و حقوق مصرف کننده جدید را مشخص می کنند. این قوانین اغلب الزامات افشا و رضایت، حقوق انصراف و تعهدات قراردادی را تعیین می کنند.
هوش مصنوعی مولد تأثیرات مهمی بر روی مطابقت با قوانین حریم خصوصی دارد، به ویژه در دو مورد زیر:
پردازش خودکار اطلاعات شخصی: اگر ابزارها و سیستمهای هوش مصنوعی مولد از اطلاعات شخصی مصرفکنندگان برای تصمیمگیری خودکار استفاده کنند، ممکن است با قوانین حریم خصوصی متعارض شوند. برخی از قوانین حریم خصوصی ممکن است نیازمند حصول موافقت صریح مصرفکننده برای استفاده از اطلاعات شخصی جهت اهداف خاص باشند، و استفاده از هوش مصنوعی برای تصمیمگیری خودکار ممکن است نیازمند انجام تغییراتی در مجوزها و رویههای مطابقت باشد.
در برخی از قوانین حریم خصوصی ایالتی، مفهوم “فروش” یا “به اشتراک گذاشته شدن” اطلاعات شخصی تعریف میشود و شرکتها ممکن است ملزم به اطلاع رسانی به مصرفکنندگان و ارائه امکانات انصراف از این نوع فعالیتها شوند.
علاوه بر این، برخی از تنظیمکنندهها، مانند کمیته ملی روابط کاری، شروع به ارائه راهنمایی در مورد استفاده از مدلهای هوش مصنوعی برای نظارت بر محل کار کردهاند، و شهر نیویورک حتی قانونی را تصویب کرده است که استفاده از تصمیمگیری خودکار برای استخدام و ارتقاء را ممنوع میکند، مگر اینکه شرکت اقدامات ضدسوگیری خاصی انجام دهد.
کاهش این خطر؛
بهعنوان یک راهحل برای کاهش این خطر، لازم است که با درک ابزارهای مورد استفاده، دادههای اصلی و منابع آنها، قوانین مرتبط و تأثیر ممکن ابزار بر مصرفکنندگان، به مطالعه و بررسی کارآمدی بپردازیم. مطابقت ممکن است با بررسی شرایط استفاده یا سایر قراردادها از سوی شرکتهای ارائهدهنده محصول هوش مصنوعی که ممکن است به دادههای یک سازمان دسترسی داشته باشد، آغاز شود. گامهای مطابقت بیشتر میتواند شامل تهیه اطلاعیهها و موافقتها، انجام ارزیابیهای ریسک و آزمونها، تأمین حقوق انصراف، اطمینان از حفظ سوابق مناسب، توسعه وسیلهای برای بررسی و ابطال تصمیمات ابزار، و ایجاد مفاد قراردادی مناسب با فروشندگان و ارائهدهندگان خدمات باشد. این اقدامات کمک میکنند تا شرکتها و سازمانها بتوانند مسائل حقوقی و حریم خصوصی مرتبط با استفاده از هوش مصنوعی را مدیریت کرده و مطابق با قوانین حریم خصوصی و مقررات مرتبط عمل کنند. همچنین، این اقدامات بهبود مسئولیتپذیری سازمانها نسبت به تصمیماتی که توسط ابزارهای هوش مصنوعی انجام میشود، را ارتقاء میبخشند.
اگر محصولات هوش مصنوعی با دادههای کارمندان در ارتباط هستند یا شرکت مورد نظر در صنایعی فعالیت دارد که تحت مقررات و قوانین خاصی قرار دارند (مانند حوزه بهداشت، پیمانکاری دولتی یا خدمات مالی)، حیطه اثر گذاری راهنماییهای نظارتی را در نظر بگیرید و کارها را با آن راهنمایی ها مقایسه کنید.
اجتناب از نقاط ضعف؛
شرکتها باید در نظر داشته باشند که تامینکنندگان آنها نیز ممکن است از ابزارهای هوش مصنوعی در فعالیتهای خود استفاده کنند. در قراردادها معمولاً شرکت را ملزم میکنند که برای فرآیند پردازش اطلاعات شخصی شرکت توسط تامینکننده، اطلاعرسانی لازم و اخذ موافقت مصرفکنندگان را انجام دهد. اگر تامینکننده به شرکت اطلاعرسانی نکند که از ابزار هوش مصنوعی استفاده میکند، شرکت ممکن است نتواند بهطور کامل از این تعهد و مسئولیتها نسبت به افرادی که اطلاعات شخصیشان توسط تامینکننده پردازش میشود، آگاه شود. این مسئله میتواند نقطه ضعف برای شرکتها ایجاد کند و موجب ایجاد ریسکهای قانونی و حقوقی شود. بنابراین، مدیریت مناسب رابطه با تامینکنندگان و اطمینان از اطلاعرسانی و مطابقت آنها با قوانین حریم خصوصی، امری بسیار حیاتی می باشد.
کاهش این خطر؛
قبل از انعقاد هر قراردادی، کسبوکارها باید نوع پردازش و ابزارهای مورد استفاده توسط فروشندگان خود و همچنین حقوق انصرافی را که فروشنده قبلاً از آن استفاده کرده است (مثلاً انصراف از ابزار هوش مصنوعی که از دادههای کسبوکار برای بهبود خود استفاده میکند) را بدانند. یک گام اولیه میتواند شامل سؤالات مربوط به بررسی دقیق فروشنده در مورد استفاده آن فروشنده از ابزارهای هوش مصنوعی جهت پردازش اطلاعات شخصی کسبوکار، در کنار سؤالات دیگر در مورد پردازش دادهها باشد.
اجتناب از شیوه های تجاری فریبنده؛
کمیسیون تجارت فدرال، دادستان های کل ایالت، و وکلای شاکیان بر پیگیری شیوه های تجاری فریبنده متمرکز شده اند، به ویژه زمانی که صحبت از انحرافات بین خط مشی حفظ حریم خصوصی سازمان و شیوه های حفظ حریم خصوصی می شود.
کاهش این خطر؛
هنگام بررسی و اجرای هوش مصنوعی مولد از یک رویکرد چند جانبه استفاده کنید. این رویکرد شامل ذینفعان از چندین گروه می باشد که برای درک شیوهها و ابزارهای فعلی، کاهش ریسک و افزایش شفافیت همکاری میکنند. برخی از مراحل اولیه در اینجا بررسی کاربردهای شناخته شده ابزارهای هوش مصنوعی مولد در سازمان، بررسی قراردادها و شرایط استفاده پیرامون آن کاربرد و سپس مقایسه آن کار با افشای سیاست حفظ حریم خصوصی واقعی کسب و کار می باشد.
هوش مصنوعی مولد فرصت ها و خطرات را به سازمان ها اعلام می کند. خطرات امنیت سایبری و حریم خصوصی از برجسته ترین آنها هستند. با شناسایی و پرداختن به ریسکهای فوق، سازمانها میتوانند از این فناوری هیجانانگیز نهایت استفاده را ببرند و در عین حال میزان مواجهه خود را با خطرات کاهش دهند.
پایان پیام/





















