به گزارش عدل البرز به نقل punchng، هوش مصنوعی اغلب در پروژه توسعه سیستمهایی به کار میرود که دارای فرآیندهای فکری مشخصه انسانها هستند، مانند توانایی استدلال، کشف معنا، تعمیم یا یادگیری از تجربه.
با وجود پیشرفتهای حاصل از هوش مصنوعی، چندین مورد از دستکاری، سوء استفاده و اطلاعات نادرست هوش مصنوعی هم ثبت شده است.
حوادثی باورنکردنی اما واقعی
بر اساس بانک اطلاعات حوادث هوش مصنوعی، اولین حادثه در سال ۲۰۱۵ رخ داده، برنامه YouTube Kids که توسط گوگل ارائه میشد، در سال ۲۰۱۵ با مشکلاتی مرتبط با هوش مصنوعی مواجه شد. در آن زمان، برنامه از الگوریتمهای فیلترینگ هوش مصنوعی برای نمایش محتوای مناسب برای کودکان استفاده میکرد. اما این الگوریتمها با مشکلاتی مواجه شدند و محتوای نامناسب و نگرانکننده ای به کودکان نمایش میدادند
حادثه دیگری که در فوریه ۲۰۲۳ ثبت شده، مربوط به محمد خضیر ۳۵ ساله در هند می باشد که ویژگی های تشخیص چهره او با یک مظنون به دزدی زنجیر مطابقت داشته است. ظاهرا خدیر به دلیل این خطا در بازداشت پلیس شکنجه و کشته شده است
در ماه مه، یک وکیل در پرونده ی حقوقی خود برای انجام تحقیقات و ارائه مدارک به دادگاه از ChatGPT استفاده کرده است. هوش مصنوعی یکسری پرونده های دادگاهی را جهت ارائه وکیل مطرح کرده اما دادگاه تشخیص داده که هرگز چنین مواردی وجود نداشته و استنادات نادرست می باشد. همین مسئله موجب شد که وکیل به دلیل استناد به پرونده های جعلی مجازات شود.
در گزارشی که در آوریل ۲۰۲۳ منتشر شد و مربوط به حوادث هوش مصنوعی می باشد، این پایگاه داده، اتهامات غلط، تقلب، استفاده از سیستمهای ترکیب صدا توسط افراد برای تقلید از عزیزان به منظور کسب سود مالی، دسترسی غیرمجاز به سیستمهای دولتی، انجام تماسهای سوءاستفاده از نیروی ویژه و تقلید از موسیقیدانان را به عنوان دستهبندیهایی از حوادث هوش مصنوعی ثبت کرده است. این حوادث نشان میدهند که در استفاده از فناوریهای هوش مصنوعی، خطرات و سوءاستفادههای مختلفی وجود دارد. لذا حفظ آگاهی و رفع این مسائل برای اطمینان از استفاده مسئولانه و اخلاقی از هوش مصنوعی بسیار حائز اهمیت می باشد.
این گزارش خاطرنشان کرد که ChatGPT ظاهراً داستانهای نادرستی در مورد یک شهردار استرالیایی ایجاد کرده که به دلیل رشوهگیری در زندان بوده و به دروغ یک استاد را به آزار جنسی متهم کرده است.
بدون شک، این موارد نشان دهنده چندین روش دستکاری هوش مصنوعی و روبات ها می باشد.
بر اساس گزارش دیلی میل، تعدادی از دانشمندان معتقدند که هوش مصنوعی میتواند منجر به انقراض بشریت شود و باعث حوادث فاجعهباری مانند جنگهای هستهای و همهگیری شود.
دولتها باید کارهایی که در حال انجام می باشند را پیگیری کنند. آنها باید بتوانند رسیدگی دقیق انجام دهند. در واقع، این حداقل کاری ست که برای هر بخش دیگری مانند ساخت هواپیما یا اتومبیل یا داروسازی انجام می دهند.
همچنین افرادی که به این سیستمها نزدیک هستند، باید نوعی گواهینامه داشته باشند. در واقع، در این زمینه به آموزش اخلاقی نیاز داریم.
اگر هوش مصنوعی به دست افراد نادرست بیافتد، انقراض انسان مسئله ای جدی می باشد. بنابراین، در این زمینه نیاز به سیاستی می باشد که استفاده و پذیرش هوش مصنوعی را هدایت کند. این سیاست می تواند از سوء استفاده مردم از ابزارهایی که “به منظور بهبود زندگی برای همه ما طراحی شده اند” جلوگیری کند.
ساختارهای بسیاری در هوش مصنوعی باعث میشود که سخنرانیهایی شبیه به صدای فرد مورد هدف ایجاد شود. تفاوت بین صدای واقعی و تقلبی برای یک انسان عادی غیرقابل درک می باشد. اگر مراقب نباشیم، تشخیص واقعیت از تقلب دشوار خواهد بود.
هوش مصنوعی به تأثیرگذاری بر زندگی ما ادامه خواهد داد. به همین دلیل است که اجرای سیاستی که بتواند اتخاذ، استقرار و پیاده سازی ابزارها یا ساختارهای هوش مصنوعی را هدایت کند، بسیار مهم تلقی می شود.
بخاطر آسیبپذیری هوش مصنوعی و ابزارهای روباتیک به کاربران توصیه می شود که مراقب باشند تا از ارسال اطلاعات به افرادی که میتوانند نمونه اولیه را تولید کنند، جلوگیری کنند.
مسئله امنیت یک موضوع جهانی می باشد که نمیتوان آن را ریشهکن کرد، اما میتوان آن را تا سطح قابل مدیریت به حداقل رساند. به همین دلیل است که همه باید مراقب خودشان باشند تا در معرض وب سایت های غیر ضروری قرار نگیرند.
مردم کارهای زیادی را در رسانههای اجتماعی انجام میدهند و از همین بستر رسانه ها جزئیات زیادی به دست میآید. مردم عکسها و یادداشتهای صوتی خود را در رسانههای اجتماعی بدون توجه به عواقب آن، قرار می دهند.
نیاز به هوشیاری و آگاهی در تعاملات رسانه های اجتماعی برای جلوگیری از آسیب پذیری در برابر کلاهبرداران امری ضرروی می باشد.
اگر کسی برای درخواست پول با شما تماس گرفت، میتوانید با تماس با افراد مرتبط، قبل از اینکه کیفتان را خالی کنید، از وضعیت موجود مطلع شوید. دولت و کاربران فردی نقش بسزایی در تضمین امنیت در سطوح مختلف دارند.
زمانی که یک ربات از کنترل خارج شود، می تواند مشکلی را به همراه داشته باشد. قبل از استقرار ربات، باید سیاستی وجود داشته باشد که استفاده از هوش مصنوعی را کنترل کند.
با اینکه روباتیک و هوش مصنوعی برای استفاده ایمن هستند، اما بسته به شخصی که به آنها دسترسی دارد و هدفی که برایش استفاده میشود، می توانند مخرب هم باشند.
با اینکه ابزارهای هوش مصنوعی می توانند صداها و چهره افراد را شبیه سازی کنند و برای کلاهبرداری یا فریب مردم استفاده شوند، اما عمدا برای چنین اهدافی طراحی نشده اند.
در مورد اقداماتی که کاربران اینترنت و هوش مصنوعی می توانند برای محافظت از خود انجام دهند، توصیه می شود که آپلود «ویدیوهای طولانی غیر ضروری در محیطی که به راحتی فیلتر می شود» را محدود کنند.
توصیه می شود که منبع را ردیابی کنید. وقتی به هر تصویر یا ویدیوی خاصی نگاه می کنید، باید بررسی کنید که آیا ویدیو از منبع خاصی برداشته شده یا خیر.
پیشرفت در امنیت سایبری برای اطمینان از حفاظت از داده ها و ردیابی منابع داده امری حیاتی تلقی می شود.
انتهای پیام





















