به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از Techxplore، قوانین جعلی ساخته شده توسط هوش مصنوعی در دعاوی حقوقی استفاده میشود که از نظر اخلاقی و قانونی مشکل ساز می باشد و باعث تهدید به تضعیف باور و اعتماد به سیستمهای قانونی جهانی میشود.
با این که وکلا برای به کارگیری دقیق دانش و تجربه حرفه ای آموزش دیده اند، اما برخی از وکلای بی احتیاط، بخاطر استفاده از هوش مصنوعی به دردسر افتاده اند. هرچند اطلاعاتی که توسط هوش مصنوعی فراهم میشود، به نظر بسیار قانعکننده و صحیح می باشد، اما زمانی که دادههای آموزشی کافی و صحیحی در اختیار مدل قرار نمیگیرد، ممکن است این اطلاعات نادرست یا ناقص باشد. به طور خاص، مدلهای هوش مصنوعی ممکن است سعی کنند که اطلاعات را به طریقی کامل کنند اما در نهایت اطلاعاتی ناقص یا غلط ارائه می دهند.
استفاده از این محتوای ساختگی در فرآیندهای حقوقی یک مشکل بسیار جدی می باشد و هنگامی که با وکلای تحت فشار و وکلایی که دسترسی به خدمات حقوقی ندارند، ادغام شود، می تواند منجر به بی دقتی و میانبرهایی شود که باعث عدم اعتماد عمومی به اداره امور عدالتی می شود.
برای مثال، وکلا در یک دعوای حقوقی، بدون آگاهی از اینکه مدلهای هوش مصنوعی ممکن است اطلاعات نادرست ارائه دهند، نمونههایی از دعاوی کاملاً ساختگی را به عنوان شواهد ارائه کردهاند. و این موضوع باعث بروز تبعات جدی در دعاوی حقوقی شده است.
پرونده های جعلی همچنان در بسیاری از کشورها از جمله کانادا و بریتانیا ارائه می شود و دادگاه ها به روش های مختلف به آنها پاسخ می دهند. چندین دادگاه ایالتی ایالات متحده دستوراتی را در رابطه با استفاده از GenAI ((هوش مصنوعی مولد)) صادر کرده اند که از پذیرش مسئولانه تا ممنوعیت کامل را شامل می شود. انجمن های حقوقی در بریتانیا و بریتیش کلمبیا و همچنین دادگاه های نیوزلند، همگی دستورالعمل هایی را تدوین کرده اند.
کارشناسان مدعی هستند که راه حل این موضوع در آموزش و راهنمایی حقوقدانان و عموم مردم می باشد. وکلا باید بیاموزند که صحت و قابلیت اطمینان اطلاعاتی را که دریافت میکنند بررسی کنند و دادگاهها باید قوانینی را برای استفاده از GenAI (هوش مصنوعی مولد) در رسیدگیهای حقوقی اتخاذ کنند.
پایان پیام/
بیشتر بخوانید: استفاده از هوش مصنوعی در حقوق و وکالت