به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از foxnews ، بر اساس یک مطالعه، چتباتهای هوش مصنوعی مانند ChatGPT، نگرش های پزشکی نادرست و تکذیبشده درباره افراد سیاهپوست را بازگو میکنند.
محققان دانشگاه استنفورد، نه سوال پزشکی را به چتباتهای هوش مصنوعی ارسال کردند و متوجه شدند که پاسخهایی که ارائه می شود، شامل ادعاهای پزشکی نادرست و تکذیبشده درباره افراد سیاهپوست می باشد. این موارد شامل پاسخهای نادرست درباره کارکرد کلیه و ظرفیت ریه بوده، همچنین ادعا شده که افراد سیاهپوست ماهیت عضلانی متفاوتی نسبت به افراد سفیدپوست دارند.
تیم محققان این ۹ سوال را از طریق چهار چت بات، از جمله ChatGPT OpenAI و Bard Google، که برای بررسی مقادیر زیادی از متن اینترنتی آموزش دیده اند، مورد بررسی قرار دادند، اما پاسخ ها نگرانی هایی را در مورد استفاده روزافزون از هوش مصنوعی در زمینه پزشکی ایجاد کرده است.
عواقب بسیار واقعی برای انجام این اشتباه وجود دارد که میتواند بر نابرابریهای سلامتی تأثیر بگذارد.
وجود عوامل نژادی غیرمادی در تصمیمگیریهای پزشکی مدتهاست که منبع نگرانی بوده است. این مسئله، ممکن است با گسترش استفاده از هوش مصنوعی بدتر شود، یعنی تاثیرات منفی احتمالی این مسئله با پیشرفت هوش مصنوعی بیشتر میشود.
هوش مصنوعی پتانسیل کمک به آموزش پزشکی و مراقبتهای متمرکز بر افراد را دارد. بنابراین هوش مصنوعی هرگز نباید تنها منبع اطلاعات باشد و اطلاعاتی که وارد هوش مصنوعی می شوند، نباید تحت تاثیر سیاست قرار بگیرد.
سیستمهای هوش مصنوعی مدلهای «نژادپرستانه» ندارند، اما اگر اطلاعاتی که از منابع مختلف جمعآوری می شود، دارای انحرافات و تبعیضهایی باشد، این امر ممکن است در خروجیهای آنها مشهود شود.
یکی از مسائل مهمی که در قوانین مرتبط با هوش مصنوعی باید مدیریت شود، “تضمین عدالت” می باشد یعنی نباید به انحرافات و تبعیضات موجود در مجموعه داده ها و مدلها اجازه داده شود که در زمینههایی مانند مراقبتهای بهداشتی، استخدام، خدمات مالی، تجارت و خدمات باعث تبعیض ناعادلانه شوند.
پایان پیام/
بیشتر بخوانید: تلاقی دین و فناوری: هوش مصنوعی، ربات ها و معنویت





















