به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از cybernews، دانشمندان به دنبال ابزارهای هوش مصنوعی هستند که به کار علمی کمک می کنند. اما، تحقیقات نشان می دهد که اعتماد به هوش مصنوعی ممکن است منجر به نتایج بیشتر اما درک کمتری شود.
به نظر میرسد که جامعه دانشگاهی مملو از افراد خوشبین به فناوری می باشد و هوش مصنوعی را نه تنها به عنوان بخش مهمی از فرایند تحقیقاتی، بلکه کلیدی برای غلبه بر مسائل بهرهوری، بودجههای ثابت و بی طرفی که برای محققان انسانی اجتنابناپذیر می باشد، تصور میکنند.
از آزمایشگاههای «خودمحور» و هوش مصنوعی مولد بهجای مشارکتکنندگان انسانی گرفته تا نوشتن مقالات تحقیقاتی به کمک هوش مصنوعی ، به نظر میرسد که هوش مصنوعی پتانسیل تبدیل شدن به یک واحد تحقیقاتی مستقل را دارد. در حالی که چنین تحقیقات مستقلی هنوز بیشتر شبیه داستان های علمی تخیلی به نظر می رسد، اما ارجاعات به هوش مصنوعی در مقالات تحقیقاتی و پتنت ها در حال افزایش می باشد.
با وجود تبلیغات، تحقیقات منتشر شده در مجله نیچر کاستی های بالقوه چنین رویکرد خوشبینانه ای را در مورد نقش هوش مصنوعی در علم را مشخص می کند. هوش مصنوعی به دلیل انواع نگرانی های اخلاقی، از جمله سوگیری الگوریتمی، هزینه های زیست محیطی، و “توهمات” هوش مصنوعی برای ارائه اطلاعات جعلی مورد هدف قرار گرفته است.
پژوهشگران دانشگاههای ییل و پرینستون چهار روشی را که دانشمندان، نقش بلندمدت هوش مصنوعی در کارهای علمی را تصور میکنند، شناسایی کردهاند.
یکی از دیدگاه ها، هوش مصنوعی را «مفهومی» در نظر می گیرد که قادر به پردازش ادبیات گسترده، ارزیابی کیفیت منبع، و ایجاد فرضیه می باشد. اتوماسیون به عنوان راهی برای افزایش دقت و به حداقل رساندن سوگیری تحقیق در نظر گرفته می شود.
یکی دیگر از نقشهای هوش مصنوعی که محققان آن را «Surogate» نامیدهاند، شبیهسازی دادهها می باشد. به عنوان مثال، هوش مصنوعی مولد میتواند مطالعه پدیدههایی با دسترسی محدود به دادهها، مانند ستارگان و کهکشانها را با ایجاد دادههای اضافی برای تقویت تحقیقات، افزایش دهد.
در علوم اجتماعی، هوش مصنوعی به عنوان یک شرکت کننده تحقیقاتی بالقوه برای پاسخ به پرسشنامه ها دیده می شود. اگر ابزارهای هوش مصنوعی مولد به خوبی آموزش داده شوند، تصور میشود که طیف وسیعی از تجربیات و دیدگاههای انسانی را نشان میدهند و تصویر دقیقتری از رفتار و پویاییهای اجتماعی نسبت به روشهای سنتی ارائه میدهند.
هوش مصنوعی پیشبینیکننده که توسط محققان «Quant» نامیده میشود، میتواند الگوهایی را در حجم عظیمی از دادهها کشف کند که قابل پیشبینی هستند اما فراتر از دسترس شناختی انسان هستند. در زیستشناسی، ابزارهای هوش مصنوعی پیشبینیکننده در حال حاضر برای کارهایی مانند حاشیهنویسی خودکار عملکرد پروتئین و شناسایی نوع سلول استفاده میشوند. به طور مشابه، در علوم اجتماعی، ابزارهای مولد هوش مصنوعی به عنوان راهحلهایی برای حاشیهنویسی و تفسیر متن، تصاویر و دادههای کیفی مورد بررسی قرار میگیرند . این وظایف قبلاً به تلاش گسترده انسانی نیاز داشته است.
پیشبینی میشود که هوش مصنوعی در آخرین مرحله فرایند تحقیقاتی به کار گرفته شود و به عنوان ابزار نظارتی در مرحله بررسی تحقیق عمل کند که راهحلی برای بررسیهای کمهزینه، سریع و دقیق محسوب می شود.
این دیدگاههای هوش مصنوعی به خاطر غلبه بر محدودیتهای انسانی ستایش میشوند و به این دلیل به طور خاص به شکلی مانند “فوقبشری” در ذهنها تصور میشوند که احتمالاً اعتماد دانشی را تقویت میکند.
محققان هشدار می دهند که علیرغم پتانسیل هوش مصنوعی برای نوآوری در علم، استفاده گسترده از آن در علم خطر تولید بیشتر اما درک کمتر را به همراه دارد.
اگر افراد برای جبران محدودیتهای شناختی خود به ابزارهای هوش مصنوعی اعتماد کنند، میتواند منجر به تمرکز علمی محدودی شود که در آن روشها و ایدههای خاصی غالب هستند، نوآوری را محدود میکند و احتمال خطا را افزایش میدهد.
استفاده از ابزارهای هوش مصنوعی در نهایت ممکن است منجر به ایجاد “تکنوعیتهای علمی” شود که در واقع به معنای کمبود تنوع و برتری یک رویکرد یا روش خاص در علم میباشد. برای مثال در زمینه کشاورزی ، تکنوعیتهای کشاورزی، مزرعههایی هستند که فقط یک نوع گیاه را کشت میکنند و از این رو به حملات آفات و بیماریها حساستر هستند. محققان بر این باورند که درک ناکافی از محدودیتها و دقت پیشبینیهای هوش مصنوعی در زمینههایی که خارج از رشته علوم کامپیوتر هستند، وجود دارد.
هنگامی که هوش مصنوعی جایگزین شرکت کنندگان انسانی در تحقیقات کیفی شود، ممکن است تفاوت های ظریف زمینه ای و جزئیات محلی خاص را که روش های کیفی معمولاً حفظ می کنند، حذف کند.
علاوه بر این، انتخاب و سازماندهی دادههای آموزشی هوش مصنوعی و ایجاد یک فرآیند آموزشی به تصمیمگیریهای تحت تأثیر انسان زیادی نیاز دارد که میتواند الگوریتمها را با ارزشهای سازندگان آنها تحت تأثیر قرار دهد. این تصمیمات که اغلب توسط رشته های خاص شکل می گیرد، می تواند محققان مختلف را به نتیجه گیری های متفاوتی از همان داده های اولیه سوق دهد.
محققان مدعی اند که دانش علمی توسط جنبه های اجتماعی تحقیق شکل می گیرد و تحت تأثیر دیدگاه های ذهنی دانشمندان قرار می گیرد. تیم هایی که از نظر شناختی، جمعیت شناختی و اخلاقی متنوع هستند، در حل مسئله موثرتر هستند و به عنوان ثبت اختراع با کیفیت و تاثیر بالاتر شناخته شده اند. اعتماد به هوش مصنوعی عنصر تنوع را از بین می برد و توهم بی طرفی را ایجاد می کند.
با این حال، محققان از کنار گذاشتن کامل هوش مصنوعی در زمینه تحقیقاتی حمایت نمی کنند، بلکه نسبت به خطرات احتمالی هشدار می دهند.
دانشمندانی که علاقه مند به استفاده از هوش مصنوعی در تحقیقات خود هستند و محققانی که هوش مصنوعی را مطالعه می کنند، باید در حال حاضر که برنامه های کاربردی هوش مصنوعی هنوز نوپا هستند این خطرات را اکنون ارزیابی کنند، چون اگر ابزارهای هوش مصنوعی عمیقاً در فرایند تحقیقاتی جاسازی شوند، رسیدگی به آنها بسیار دشوار خواهد بود.
پایان پیام/