مطالعه اخیر انجام شده توسط محققان بریتانیایی و برزیلی، نگرانی هایی را در مورد بی طرفی ChatGPT ایجاد کرده است. این مطالعه نشان می دهد کهChatGPT در پاسخ خود به سوالات ممکن است، تعصبات سیاسی داشته باشد و به طور کلی به سوی ایدئولوژی چپ در طیف سیاسی تمایل داشته باشد.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از dig.watch ، این تعصب ممکن است باعث تقویت تعصبات موجود در رسانههای سنتی شود و تأثیر بر روی مخاطبان مختلفی چون سیاستگذاران، رسانهها، گروههای سیاسی و مؤسسات آموزشی را داشته باشد.
پژوهشگران برای بررسی تعصبات سیاسی در ChatGPT، پاسخهای این مدل به سوالات و سناریوهایی که بر اساس نمودار سیاسی طراحی شده بودند و همچنین در مواقعی که مدل به نقش یک دموکرات و یک جمهوریخواه تبدیل شده بود، را مورد تجزیه و تحلیل قرار دادند.
از طریق یک رویکرد تجربی، محققان تشخیص دادند که سوگیری در پاسخهای ChatGPT ناشی از خطاهای مکانیکی نیست، بلکه یک تمایل عمدی در خروجی آن می باشد. آنها هم داده های آموزشی و هم الگوریتم را مورد بررسی قرار دادند و به این نتیجه رسیدند که هر دو عامل احتمالاً در پاسخ های مغرضانه نقش داشته اند.
این مطالعه سوگیری قابل توجهی را در پاسخ های ChatGPT به ویژه به نفع دیدگاه های همسو با حزب دموکرات نشان داده است. این تعصب به ایالات متحده محدود نمی شود، بلکه به زمینه های سیاسی برزیل و بریتانیا هم مربوط می شود. این تحقیق پیامدهای بالقوه محتوای تولید شده توسط هوش مصنوعی مغرضانه را برای سهامداران مختلف برجسته کرده و بر نیاز به تحقیقات بیشتر در مورد منابع سوگیری تأکید می کند.
پرداختن به سوگیری ها در مدل های هوش مصنوعی برای جلوگیری از تداوم تعصبات موجود و رعایت اصول بی طرفی ضروری می باشد. از آنجایی که فناوریهای هوش مصنوعی به پیشرفت خود ادامه میدهند و نقش فزایندهای در بخشهای مختلف ایفا میکنند، تلاشهای مشترک بین توسعهدهندگان، محققان و سهامداران برای به حداقل رساندن سوگیریها و ارتقای توسعه اخلاقی هوش مصنوعی بسیار مهم می باشد. این مطالعه بر نگرانیها در مورد سوگیری سیاسی در پاسخهای ChatGPT تاکید میکند و خواستار تلاشهای مداوم برای اطمینان از بی طرفی در فناوریهای هوش مصنوعی با رواج فزایندهای در جامعه می باشد.
پایان پیام/
بیشتر بخوانید: رابطه هوش مصنوعی با حملات سایبری





















