• امروز : چهارشنبه - ۸ بهمن - ۱۴۰۴
  • برابر با : Wednesday - 28 January - 2026
6

آموزش دستیار مجازی هوش مصنوعی

  • کد خبر : 9048
  • 13 مهر 1402 - 19:35
آموزش دستیار مجازی هوش مصنوعی
شرکت متا اعلام کرده که از پست های عمومی در پلتفرم های فیس بوک و اینستاگرام برای آموزش دستیار مجازی هوش مصنوعی جدیدش استفاده کرده است.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز ؛شرکت متا اعلام کرده که از پست های عمومی در پلتفرم های فیس بوک و اینستاگرام برای آموزش دستیار مجازی هوش مصنوعی جدیدش استفاده کرده است.

نیک کلگ که رئیس امور جهانی متا می باشد، اعلام کرد که این شرکت فقط از پست‌های عمومی استفاده می‌کند و از بکارگیری پست‌های خصوصی که با دوستان و خانواده به اشتراک گذاشته می شود و همچنین پیام‌های خصوصی، برای آموزش ربات هوش مصنوعی شرکت، خودداری می‌کند.

این شرکت سعی کرده‌، مجموعه‌های داده‌ای را که حاوی اطلاعات شخصی زیادی هستند، از تحقیقاتش حذف کند. اکثریت داده‌های استفاده شده در تحقیقات، از پیش در دسترس عموم قرار داشته است.

شرکت‌های فناوری در ماه‌های اخیر به دلیل گزارش‌هایی مبنی بر استفاده از اطلاعات اینترنت با مجوز برای آموزش مدل‌های هوش مصنوعی، که قادر به مرتب‌سازی حجم عظیمی از داده‌ها هستند، مورد انتقاد قرار گرفته‌اند. به گزارش رویترز، در برخی موارد، جمع آوری داده ها منجر به شکایت های قضایی به ویژه زمانی که هوش مصنوعی متهم به بازتولید مطالب دارای حق چاپ می باشد، شده است.

کریستوفر الکساندر که مدیر ارشد تجزیه و تحلیل گروه توسعه پایونیر می باشد، معتقد است که هوش مصنوعی به مقادیر زیادی داده‌های آموزشی نیاز دارد، بنابراین پست‌های کاربران روشی ایده‌آل برای تامین داده های لازم می باشد.

نگرانی حاضر، در مورد نحوه استفاده از شخصیت‌های هوش مصنوعی که بهتر آموزش دیده‌اند، می‌ باشد. این شخصیت‌ها ممکن است بسیار متقاعدکننده باشند و به نحوی صحبت کنند که با شخصیت مخاطب بهترین تطابق را داشته باشند.

نگرانی هایی در مورد اینکه تا چه اندازه یک هوش مصنوعی می تواند به شکل یک انسان تبدیل شود وجود دارد.

جان شوپ که مدیر سیاستگذاری پروژه اصول آمریکایی می باشد، این سوال را مطرح می کند که چه تعداد تدابیر امنیتی برای حفاظت از اطلاعات شخصی در نظر گرفته شده است؟

“متا” از پست‌ها، تصاویر و داده‌های شخصی کاربرانش استفاده کرده و هوش مصنوعی خود را بر اساس این اطلاعات آموزش داده است. آیا واقعاً کاربران در زمان ثبت نام، به این نکته توجه کرده‌اند یا خیر.

آمریکا در یک نقطه حساس و تاریخی که ممکن است با ورود فناوری‌های جدید (مانند هوش مصنوعی، اینترنت اشیاء و…) در جوامع و فرهنگ‌ها رخ دهد، قرار دارد. اگر کنگره اقدامات لازم را در زمینه نظارت بر هوش مصنوعی انجام ندهد، مردم آمریکا مجدداً در معرض تصمیمات و کنترل‌هایی که توسط مدیران و صاحبان فناوری اتخاذ می‌شود، قرار خواهند گرفت.

به گزارش رویترز، مارک زاکربرگ، ابزار هوش مصنوعی جدید این شرکت را در جریان کنفرانس محصول هفته گذشته که با استفاده از یک مدل سفارشی شبیه به مدل زبان بزرگ Llama 2 ساخته شده، به طور عمومی معرفی کرد. این محصول می‌تواند متن، صدا و تصویر تولید کند و با همکاری با موتور جستجوی Bing به اطلاعات به روز دسترسی داشته باشد.

متا از پست‌های عمومی فیس‌بوک و اینستاگرام برای آموزش ابزار هوش مصنوعی جهت  تولید تصویر و پاسخ‌های چت استفاده می کند، تعامل کاربران با این ربات به بهبود ویژگی‌های آن در آینده کمک می‌کند.

مدیر سیاست‌گذاری در پروژه Bull Moose اعلام کرده که کاربران باید نگران این مسئله باشند که آیا این داده ها به شیوه ای مسئولانه و ایمن استفاده می شوند؟

بدون اقدامات قانونی و مشخص از سوی کنگره، آمریکایی‌ها باید فرض کنند که شرکت‌های هوش مصنوعی به مسئولیت پذیری در استفاده از داده‌های آن‌ها پایبند هستند.  بنابراین، اگر کنگره اقدامی نکند، نگرانی‌های مربوط به حریم خصوصی داده‌ها همچنان افزایش می‌یابد.

فیل سیگل که بنیانگذار مرکز آمادگی پیشرفته و شبیه‌سازی واکنش به تهدید، معتقد می باشد، این که ‘متا’ از پست‌ها برای آموزش هوش مصنوعی خود استفاده می‌کند، غیر منتظره نمی باشد. وی توضیح داد که این کار به ربات اجازه دسترسی به “داده‌های منحصر به فرد” را می‌دهد و اجازه می‌دهد تا یک مدل زبان بزرگ (LLM) را آموزش دهد که همانند کاربران شبکه‌های اجتماعی عمل کند و این فرایند با مدل‌های زبان بزرگ که فقط اطلاعات واقعی از دنیای اینترنت را جمع‌آوری می‌کنند، متفاوت می باشد.

البته ممکن است نگرانی‌هایی در مورد گسترش شخصیت‌های مصنوعی به‌ویژه با توجه به تأثیر سلامت روانی که رسانه‌های اجتماعی قبلاً بر روی کاربران گذاشته اند، وجود داشته باشد.

نگرانی‌هایی مانند: منتشر شدن اطلاعات نادرست یا توهین‌آمیز، ایجاد واکنش‌های افراطی و واقعیت‌پنداری زیاد، ایجاد شخصیت‌های منحرف برای تعامل با نوجوانان و موارد مشابه..

شرکت‌های رسانه‌های اجتماعی بدون هوش مصنوعی هم به سلامت روانی افراد جوان و سالمند آسیب زده‌اند. بنابراین، باید اطمینان حاصل شود که این هوش مصنوعی مشکل را تشدید حاضر را نمی‌کند.

به دنبال درخواست شرکت “فاکس نیوز دیجیتال” برای اظهار نظر، سخنگوی “متا” اعلام کرد که برخی از جزییات گزارش رویترز نادرست بوده و توضیح داد که هوش مصنوعی متا از پست‌های عمومی فیسبوک و اینستاگرام برای آموزش امکانات تولید تصویر در هوش مصنوعی استفاده کرده، در این جمله آمده است که شرکت متا برای آموزش و توسعه امکانات تولید تصویر در هوش مصنوعی خود، از پست‌های عمومی در فیسبوک و اینستاگرام استفاده کرده است. اما برای آموزش مدل سفارشی برای متن و مدل زبان بزرگ (LLM) دستیار هوش مصنوعی و شخصیت‌ها، از داده‌های عمومی و یا خصوصی استفاده نکرده است. هوش مصنوعی جدید متا امکان “تولید صدا” را فراهم نخواهد کرد.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=9048

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.