به گزارش ایسنا به نقل از cybernews، بر اساس منابع، اپل استفاده از ChatGPT را برای همه کارمندان غول فناوری مستقر در کالیفرنیا محدود کرده است.
این مورد، شامل سایر کپیبرداریهای ChatGPT یا برنامههای هوش مصنوعی خارجی هم میشود که از نوامبر گذشته که OpenAI تحت حمایت مایکروسافت، ربات چت را راهاندازی کرده، وارد بازار شده اند.
اپل که مشغول توسعه فناوری هوش مصنوعی خود برای رقابت با ChatGPT می باشد، نگران است که کارمندان به طور تصادفی (یا به طور هدفمند) موجب نشت اطلاعات فکری حساس از طریق ابزارهای هوش مصنوعی شوند.
بر اساس گزارش داخلی که از طرف روزنامه Wall Street Journal منتشر شده، شرکت اپل کارمندان خود را در استفاده از Copilot که متعلق به مایکروسافت می باشد و برای خودکارسازی فرایند نوشتن کدهای نرمافزاری استفاده میشود، محدود کرده است.
در حقیقت، اخیراً، گروههای حفاظت از حریم خصوصی بیشتری به نگرانیها و مسائل مربوط به نحوه ذخیرهسازی و پردازش تاریخچه گفتگوها و دادههای کاربران در ChatGPT پرداخته اند . این نگرانیها درباره مسائلی مانند حفظ حریم خصوصی، امنیت اطلاعات کاربران، و نحوه استفاده و اشتراکگذاری این اطلاعات میباشد.
بر اساس گزارش ماه گذشته، کارمندان سامسونگ در سه نوبت مجزا اطلاعات حساس شرکت را در هنگام تعامل با ChatGPT افشا کرده اند.
گفته میشود که دادههای محرمانه شامل کد منبع اختصاصی سامسونگ می باشد که متعلق به نرمافزار نیمه هادی تحلیلی این شرکت است.
درست دو هفته پس از اینکه سامسونگ تصمیم گرفت ممنوعیت استفاده از ChatGPT را که در ابتدا برای جلوگیری از نشت اطلاعات محرمانه تعمیم داده بود، لغو کند، این نشت اطلاعاتی رخ داد.
کارمندان سامسونگ مستقر در کره شمالی داده های محدود و قسمتی از یک جلسه شرکتی را فاش کردند.
این افشاگری موجب شد تا سامسونگ استفاده کارمندان از تمام پلتفرمهای مولد هوش مصنوعی را ممنوع کند. OpenAI برای آموزش مدل زبانی هوش مصنوعی خود، به نام GPT، از حجم بسیار بزرگی از دادهها استفاده کرده است. این دادهها شامل متون و اطلاعاتی است که از اینترنت و منابع عمومی جمعآوری شدهاند. اما برخی از افراد و گروهها، OpenAI را به خاطر عدم دریافت اجازه صریح کاربران برای استفاده از اطلاعات شخصی و حریم خصوصی، مورد انتقاد قرار دادهاند. آنها اعتقاد دارند که استفاده از این حجم بزرگ داده ای بدون اطلاع و رضایت کاربران، نگرانیهایی درباره حفظ حریم خصوصی و امنیت اطلاعات شخصی به وجود میآورد.
شرکت به این انتقادات پاسخ داده و در ماه آوریل ، سیاستهای حریم خصوصی شفافتری را در ChatGPT پیادهسازی کرده است. این مورد شامل اضافه کردن یک “حالت ناشناس” (incognito mode) می باشد که به کاربران اجازه میدهد تا از به کارگیری دادههایشان برای بهبود ربات هوش مصنوعی خودداری کنند. این تغییرات در سیاست حریم خصوصی جهت تلاش برای افزایش شفافیت و انتخابپذیری بیشتر برای کاربران انجام شده است.
انتهای پیام





















