به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از hls.com، شرکت OpenAI اعلام کرده که قرار است برای مبارزه با دروغ پراکنی، درست زمانی که انتخابات در برخی از کشورهای جهان برگزار خواهد شد، ابزارهای جدیدی را معرفی خواهد کرد.
کاملا واضح و مشخص می باشد که کمک بزرگ و پیشرفتهای فناوری مرتبط با هوش مصنوعی همراه با هزینه سنگین ناشی از پراکندگی اطلاعات در اینترنت و دروغ پراکنی همراه می باشد.
با نزدیک شدن به انتخابات در کشورهایی مانند ایالات متحده، هند و بریتانیا، OpenAI اعلام کرده که اجازه نمی دهد از فناوری اش (مانند چت بات ChatGPT و تولید کننده تصویر DALL-E 3) برای کمپین های سیاسی استفاده شود.
در واقع، این فناوری نباید به گونه ای استفاده شود که روند دموکراتیک را تضعیف کند. تیم OpenAI هنوز در حال کار بر روی این مسئله می باشد که ابزارهایشان تا چه اندازه ممکن است برای متقاعدسازی شخصی مؤثر باشد. و تا زمانی که اطلاعات بیشتری بدست نیاورند، به مردم اجازه نمیدهند که برای کمپین های سیاسی و اعمال نفوذ برنامههایی ایجاد کنند.
با این که ترس از دروغ پراکنی انتخاباتی مسئله جدیدی نیست، اما در دسترس بودن تولیدکنندههای متن و تصویر هوش مصنوعی این تهدید را به ویژه با توجه به اینکه کاربران توانایی تشخیص آسان محتوای جعلی یا دستکاری شده را ندارند، به شدت افزایش داده است.
ابزارهای OpenAI اطلاعات اعتبارپذیری را به متنهای تولیدشده توسط ChatGPT اضافه میکنند و به کاربران این قابلیت را میدهند که تشخیص دهند آیا یک تصویر با استفاده از DALL-E 3 ساخته شده یا خیر.
این شرکت اعلام کرده که قصد دارد استانداردهای اعتبار دیجیتال C2PA(ائتلافی برای اصالت و اعتبار محتوا) را پیادهسازی کند، یک رویکرد که با استفاده از رمزنگاری جزئیات درباره منبع محتوا، اصالت آن را تضمین میکند. اعضای این ائتلاف شامل شرکتهایی نظیر مایکروسافت، سونی، ادوب، نیکون و کانن هستند و هدف آن بهبود روشها برای شناسایی و ردیابی محتوای دیجیتال می باشد.
OpenAI اعلام کرده، هنگامی که از ChatGPT سوالات روندی در مورد انتخابات آمریکا پرسیده میشود، این ابزار کاربران را به وبسایتهای معتبر هدایت میکند.
علاوه بر این، DALL-E 3 دارای «تدابیر محافظتی ست» که کاربران را از ایجاد تصاویری از افراد واقعی، از جمله نامزدهای سیاسی، باز میدارد.
پایان پیام/
بیشتر بخوانید: دردسرهای هوش مصنوعی برای انتخابات ۲۰۲۴ آمریکا





















