• امروز : چهارشنبه - ۸ بهمن - ۱۴۰۴
  • برابر با : Wednesday - 28 January - 2026
6

ممنوعیت کارمندان اپل در استفاده از ChatGPT

  • کد خبر : 1493
  • 06 خرداد 1402 - 7:19
ممنوعیت کارمندان اپل در استفاده از ChatGPT
درست همان روزی که اپل اولین برنامه رسمی ChatGPT را در اپ استور iOS خود راه اندازی کرد، به کارمندان خود گفت که به خاطر نگرانی از نشت امنیتی، مجاز به استفاده از چت ربات هوش مصنوعی نیستند.

به گزارش ایسنا به نقل از cybernews، بر اساس منابع، اپل استفاده از ChatGPT را برای همه کارمندان غول فناوری مستقر در کالیفرنیا محدود کرده است.

این مورد، شامل سایر کپی‌برداری‌های ChatGPT یا برنامه‌های هوش مصنوعی خارجی هم می‌شود که از نوامبر گذشته که OpenAI تحت حمایت مایکروسافت، ربات چت را راه‌اندازی کرده، وارد بازار شده اند.

اپل که مشغول توسعه فناوری هوش مصنوعی خود برای رقابت با ChatGPT می باشد، نگران است که کارمندان به طور تصادفی (یا به طور هدفمند) موجب نشت اطلاعات فکری حساس از طریق ابزارهای هوش مصنوعی شوند.

بر اساس گزارش داخلی که از طرف روزنامه Wall Street Journal منتشر شده، شرکت اپل کارمندان خود را در استفاده از Copilot که متعلق به مایکروسافت می باشد و برای خودکارسازی فرایند نوشتن کدهای نرم‌افزاری استفاده می‌شود، محدود کرده است.

در حقیقت، اخیراً، گروه‌های حفاظت از حریم خصوصی بیشتری به نگرانی‌ها و مسائل مربوط به نحوه ذخیره‌سازی و پردازش تاریخچه گفتگوها و داده‌های کاربران در ChatGPT پرداخته اند . این نگرانی‌ها درباره مسائلی مانند حفظ حریم خصوصی، امنیت اطلاعات کاربران، و نحوه استفاده و اشتراک‌گذاری این اطلاعات می‌باشد.

بر اساس گزارش ماه گذشته، کارمندان سامسونگ در سه نوبت مجزا اطلاعات حساس شرکت را در هنگام تعامل با ChatGPT افشا کرده اند.

گفته می‌شود که داده‌های محرمانه شامل کد منبع اختصاصی سامسونگ می باشد که متعلق به نرم‌افزار نیمه هادی تحلیلی این شرکت است.

درست دو هفته پس از اینکه سامسونگ تصمیم گرفت ممنوعیت استفاده از ChatGPT را که در ابتدا برای جلوگیری از نشت اطلاعات محرمانه تعمیم داده بود، لغو کند، این نشت اطلاعاتی رخ داد.

کارمندان سامسونگ مستقر در کره شمالی داده های محدود و قسمتی از یک جلسه شرکتی را فاش کردند.

این افشاگری موجب شد تا سامسونگ استفاده کارمندان از تمام پلتفرم‌های مولد هوش مصنوعی را ممنوع کند. OpenAI برای آموزش مدل زبانی هوش مصنوعی خود، به نام GPT، از حجم بسیار بزرگی از داده‌ها استفاده کرده است. این داده‌ها شامل متون و اطلاعاتی است که از اینترنت و منابع عمومی جمع‌آوری شده‌اند. اما برخی از افراد و گروه‌ها، OpenAI را به خاطر عدم دریافت اجازه صریح کاربران برای استفاده از اطلاعات شخصی و حریم خصوصی، مورد انتقاد قرار داده‌اند. آنها اعتقاد دارند که استفاده از این حجم بزرگ داده‌ ای بدون اطلاع و رضایت کاربران، نگرانی‌هایی درباره حفظ حریم خصوصی و امنیت اطلاعات شخصی به وجود می‌آورد.

شرکت به این انتقادات پاسخ داده و در ماه آوریل ، سیاست‌های حریم خصوصی شفاف‌تری را در ChatGPT پیاده‌سازی کرده است. این مورد شامل اضافه کردن یک “حالت ناشناس” (incognito mode)  می باشد که به کاربران اجازه می‌دهد تا از به کارگیری داده‌هایشان برای بهبود ربات هوش مصنوعی خودداری کنند. این تغییرات در سیاست حریم خصوصی جهت تلاش برای افزایش شفافیت و انتخاب‌پذیری بیشتر برای کاربران انجام شده است.

انتهای پیام

لینک کوتاه : https://adlealborz.ir/?p=1493

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.