• امروز : شنبه - ۵ خرداد - ۱۴۰۳
  • برابر با : Saturday - 25 May - 2024
1

خوب و بدهای هوش مصنوعی

  • کد خبر : 1900
  • 24 خرداد 1402 - 5:10
خوب و بدهای هوش مصنوعی
به توانایی یک ربات کنترل شده توسط کامپیوتر یا یک کامپیوتر دیجیتال برای انجام وظایف مرتبط با انسان و موجودات هوشمند، هوش مصنوعی می گویند.

به گزارش عدل البرز به نقل punchng، هوش مصنوعی اغلب در پروژه توسعه سیستم‌هایی به کار می‌رود که دارای فرآیندهای فکری مشخصه انسان‌ها هستند، مانند توانایی استدلال، کشف معنا، تعمیم یا یادگیری از تجربه.

با وجود پیشرفت‌های حاصل از هوش مصنوعی، چندین مورد از دستکاری، سوء استفاده و اطلاعات نادرست هوش مصنوعی هم ثبت شده است.

حوادثی باورنکردنی اما واقعی

بر اساس بانک اطلاعات حوادث هوش مصنوعی، اولین حادثه در سال ۲۰۱۵ رخ داده، برنامه YouTube Kids که توسط گوگل ارائه می‌شد، در سال ۲۰۱۵ با مشکلاتی مرتبط با هوش مصنوعی مواجه شد. در آن زمان، برنامه از الگوریتم‌های فیلترینگ هوش مصنوعی برای نمایش محتوای مناسب برای کودکان استفاده می‌کرد. اما این الگوریتم‌ها با مشکلاتی مواجه شدند و محتوای نامناسب و نگران‌کننده ای به کودکان نمایش می‌دادند

حادثه دیگری که در فوریه ۲۰۲۳ ثبت شده، مربوط به محمد خضیر ۳۵ ساله در هند می باشد که ویژگی های تشخیص چهره او با یک مظنون به دزدی زنجیر مطابقت داشته است. ظاهرا خدیر به دلیل این خطا در بازداشت پلیس شکنجه و کشته شده است

در ماه مه، یک وکیل در پرونده ی حقوقی خود برای انجام تحقیقات و ارائه مدارک به دادگاه از ChatGPT استفاده کرده است. هوش مصنوعی یکسری پرونده های دادگاهی را جهت ارائه وکیل مطرح کرده اما دادگاه تشخیص داده که هرگز چنین مواردی وجود نداشته و استنادات نادرست می باشد. همین مسئله موجب شد که وکیل به دلیل استناد به پرونده های جعلی مجازات شود.

 

در گزارشی که در آوریل ۲۰۲۳ منتشر شد و مربوط به حوادث هوش مصنوعی می باشد، این پایگاه داده، اتهامات غلط، تقلب، استفاده از سیستم‌های ترکیب صدا توسط افراد برای تقلید از عزیزان به منظور کسب سود مالی، دسترسی غیرمجاز به سیستم‌های دولتی، انجام تماس‌های سوءاستفاده از نیروی ویژه و تقلید از موسیقی‌دانان را به عنوان دسته‌بندی‌هایی از حوادث هوش مصنوعی ثبت کرده است. این حوادث نشان می‌دهند که در استفاده از فناوری‌های هوش مصنوعی، خطرات و سوءاستفاده‌های مختلفی وجود دارد. لذا حفظ آگاهی و رفع این مسائل برای اطمینان از استفاده مسئولانه و اخلاقی از هوش مصنوعی بسیار حائز اهمیت می باشد.

این گزارش خاطرنشان کرد که ChatGPT ظاهراً داستان‌های نادرستی در مورد یک شهردار استرالیایی ایجاد کرده که به دلیل رشوه‌گیری در زندان بوده و به دروغ یک استاد را به آزار جنسی متهم کرده است.

بدون شک، این موارد نشان دهنده چندین روش دستکاری هوش مصنوعی و روبات ها می باشد.

بر اساس گزارش دیلی میل، تعدادی از دانشمندان معتقدند که هوش مصنوعی می‌تواند منجر به انقراض بشریت شود و باعث حوادث فاجعه‌باری مانند جنگ‌های هسته‌ای و همه‌گیری شود.

دولت‌ها باید کارهایی که در حال انجام می باشند را پیگیری کنند. آنها باید بتوانند رسیدگی دقیق انجام دهند. در واقع، این حداقل کاری ست که برای هر بخش دیگری مانند ساخت هواپیما یا اتومبیل یا داروسازی انجام می دهند.

همچنین افرادی که به این سیستم‌ها نزدیک هستند، باید نوعی گواهینامه داشته باشند. در واقع، در این زمینه به آموزش اخلاقی نیاز داریم.

اگر هوش مصنوعی به دست افراد نادرست بیافتد، انقراض انسان مسئله ای جدی می باشد. بنابراین، در این زمینه نیاز به سیاستی می باشد که استفاده و پذیرش هوش مصنوعی را هدایت کند. این سیاست می تواند از سوء استفاده مردم از ابزارهایی که “به منظور بهبود زندگی برای همه ما طراحی شده اند” جلوگیری کند.

ساختارهای بسیاری در هوش مصنوعی باعث می‌شود که سخنرانی‌هایی شبیه به صدای فرد مورد هدف ایجاد شود. تفاوت بین صدای واقعی و تقلبی برای یک انسان عادی غیرقابل درک می باشد. اگر مراقب نباشیم، تشخیص واقعیت از تقلب دشوار خواهد بود.

هوش مصنوعی به تأثیرگذاری بر زندگی ما ادامه خواهد داد. به همین دلیل است که اجرای سیاستی که بتواند  اتخاذ، استقرار و پیاده سازی ابزارها یا ساختارهای هوش مصنوعی را هدایت کند، بسیار مهم تلقی می شود.

بخاطر آسیب‌پذیری هوش مصنوعی و ابزارهای روباتیک به کاربران توصیه می شود که مراقب باشند تا از ارسال اطلاعات به افرادی که می‌توانند نمونه اولیه را تولید کنند، جلوگیری کنند.

مسئله امنیت یک موضوع جهانی می باشد که نمی‌توان آن را ریشه‌کن کرد، اما می‌توان آن را تا سطح قابل مدیریت به حداقل رساند. به همین دلیل است که همه باید مراقب خودشان باشند تا در معرض وب سایت های غیر ضروری قرار نگیرند.

مردم کارهای زیادی را در رسانه‌های اجتماعی انجام می‌دهند و از همین بستر رسانه ها جزئیات زیادی به دست می‌آید. مردم عکس‌ها و یادداشت‌های صوتی خود را در رسانه‌های اجتماعی بدون توجه به عواقب آن، قرار می دهند.

نیاز به هوشیاری و آگاهی در تعاملات رسانه های اجتماعی برای جلوگیری از آسیب پذیری در برابر کلاهبرداران امری ضرروی می باشد.

اگر کسی برای درخواست پول با شما تماس گرفت، می‌توانید با تماس با افراد مرتبط، قبل از اینکه کیفتان را خالی کنید، از وضعیت موجود مطلع شوید. دولت و کاربران فردی نقش بسزایی در تضمین امنیت در سطوح مختلف دارند.

زمانی که یک ربات از کنترل خارج شود، می تواند مشکلی را به همراه داشته باشد. قبل از استقرار ربات، باید سیاستی وجود داشته باشد که استفاده از هوش مصنوعی را کنترل کند.

با اینکه روباتیک و هوش مصنوعی برای استفاده ایمن هستند، اما بسته به شخصی که به آنها دسترسی دارد و هدفی که برایش استفاده میشود، می توانند مخرب هم باشند.

با اینکه ابزارهای هوش مصنوعی می توانند صداها و چهره افراد را شبیه سازی کنند و برای کلاهبرداری یا فریب مردم استفاده شوند، اما عمدا برای چنین اهدافی طراحی نشده اند.

در مورد اقداماتی که کاربران اینترنت و هوش مصنوعی می توانند برای محافظت از خود انجام دهند، توصیه می شود  که آپلود «ویدیوهای طولانی غیر ضروری در محیطی که به راحتی فیلتر می شود» را محدود کنند.

توصیه می شود که منبع را ردیابی کنید. وقتی به هر تصویر یا ویدیوی خاصی نگاه می کنید، باید بررسی کنید که آیا ویدیو از منبع خاصی برداشته شده یا خیر.

پیشرفت در امنیت سایبری برای اطمینان از حفاظت از داده ها و ردیابی منابع داده امری حیاتی تلقی می شود.

انتهای پیام

لینک کوتاه : https://adlealborz.ir/?p=1900

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.