به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از Techxplore، هوش مصنوعی در حال متحول کردن بسیاری از صنایع، از جمله صنعت بهداشت می باشد. اما، هوش مصنوعی تنها تا زمانی موثر است که دادههایش معتبر باشند، چون دادههای غیرمعتبر ممکن است منجر به نتایج جدی شود، از جمله جراحیهای غیرضروری و حتی از دست دادن سرطانهای درمانپذیر. به عنوان مثال، یک هوش مصنوعی مورد استفاده توسط یک متخصص پوست ممکن است نمونه هایی کافی از افراد با پوست تیره را نداشته باشد و یک تشخیص مهم در مورد سرطان پوست را از دست بدهد.
مقاله جدیدی که توسط محققان علوم رایانه از دانشگاه کالیفرنیای جنوبی منتشر شده، رویکرد جدیدی را برای کاهش تعصب در آموزش مدل ML، بهویژه در تولید تصویر، پیشنهاد میکند. محققان از خانوادهای از الگوریتمها به نام «الگوریتمهای کیفیت-تنوع» (یا الگوریتمهای QD) برای ایجاد مجموعههای داده مصنوعی متنوعی استفاده کرده اند که میتواند بهطور استراتژیک «شکافها» را در دادههای آموزشی دنیای واقعی پوشش دهد.
محققان امیدوارند که بهینهسازی تنوع کیفیت بتواند به تولید دادههای مصنوعی منصفانه برای تأثیرات گسترده در کاربردهای پزشکی و سایر انواع سیستمهای هوش مصنوعی کمک کند.
هوش مصنوعی در گذشته برای ایجاد دادههای مصنوعی استفاده شده است، اما میتواند مشکلساز باشد زیرا خطر تولید دادههای جانبدارانه را ایجاد میکند، که میتواند مدلهای وابسته را بیشتر دچار سوگیری کند و یک چرخه معیوب ایجاد نماید. با این حال، الگوریتمهای تنوع کیفیت (QD) میتوانند برای ایجاد راهحلهای متنوع برای یک مسئله استفاده شوند و در این مورد از آنها برای حل مشکل ایجاد مجموعه دادههای مصنوعی متنوع استفاده میشود.
به این ترتیب محققان توانستند مجموعه داده متنوعی از حدود ۵۰۰۰۰ تصویر را در ۱۷ ساعت ایجاد کنند که با موفقیت در چهار معیار تنوع – رنگ پوست، نمایش جنسیت، سن و اندازه مو مورد آزمایش قرار گرفته است.
این روند یک جهت امیدوارکننده برای تقویت مدلها با نمونهگیری مبتنی بر سوگیری می باشد، که می تواند به سیستمهای هوش مصنوعی کمک کند تا برای همه کاربران عملکرد دقیقی داشته باشند.
این روش بهویژه نمایش گروههای متقاطع (گروههایی با هویتهای چندگانه) را در دادهها افزایش میدهد، مانند افراد تیرهپوست که عینک میزنند.
این کشف برای اولین بار نشان میدهد که مدلهای مولد میتوانند از تنوع کیفیت برای بهبود طبقهبندهای تعصبآمیز استفاده کنند. این کار یک گام اولیه در جهت امکان سازی به مدلهای تعصبآمیز برای “خودترمیمی” با تولید مجدد مداوم و آموزش بر دادههای مصنوعی می باشد.
پایان پیام/





















