در بحث های جاری پیرامون هوش مصنوعی (AI) و نقش آن در شکل دادن به داستان های آینده ما، فیلمنامه نویسان و بازیگران هالیوود در برابر استفاده بیش از حد از یادگیری ماشینی مولد موضع می گیرند. خواسته اصلی آنها این است که روسای استودیو متعهد شوند که کار ماشین ها را به خالقان انسان نسبت ندهند.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از fagenwasanni ، کریستوفر نولان، کارگردان فیلم پرفروش « Oppenheimer»، تشابهاتی را بین ایجاد بمب اتمی و خطرات احتمالی رهاسازی بدون فکر فناوری جدید در جهان ترسیم میکند. او نسبت به طرحهای داستانی که قدرتهای خداگونه به هوش مصنوعی میدهد هشدار میدهد، زیرا این مسئله میتواند افراد را از مسئولیت اعمالشان مبرا کند.
جنگهای فرهنگی خودکار نیز در حوزه موسیقی، ادبیات و گزارشهای خبری تولید شده توسط هوش مصنوعی در حال گسترش هستند.
در استرالیا، نظرات مختلفی درباره سطح راحتی با این توسعهها وجود دارد و بیشتر مردم راحتی بیشتری در رابطه با هنرهای تصویری تولید شده توسط هوش مصنوعی نسبت به موسیقی، اسکریپتها، رمانها و گزارشهای خبری خودکار احساس میکنند. افراد جوانتر هم کمتر نگران اتوماسیون در حوزه فرهنگی هستند.
فناوری مولد (مانند هوش مصنوعی) در حال جایگزینی کارگران در صنایع مختلف می باشد و این امر منجر به کاهش کنترل و کار آنها به فرآیندهای تکرارپذیر میشود. در نتیجه، مشکلاتی از جمله نگرانیهایی درباره پاداش عادلانه به افراد و کنترل بر خروجی نهایی ایجاد میشود.
طرفداران هوش مصنوعی بر بسیاری از مزایای بالقوه آن از جمله بهره وری انرژی، پیشرفت های مراقبت های بهداشتی و دسترسی بهبود یافته تاکید می کنند. با این حال، شناخت رو به رشدی نسبت به خطرات مرتبط با هوش مصنوعی وجود دارد. رهبران صنعت، مانند سام آلتمن، مدیر عامل Chat GTP، نگرانیهای خود را در مورد پیامدهای این فناوری ابراز میکنند و از جامعه میخواهند که به طور فعال به تأثیر آن رسیدگی کند.
دولت استرالیا بازنگری در مقررات هوش مصنوعی را آغاز کرده و نیاز به تدابیر محافظتی را تایید کرده است. با این حال، کارشناسان استدلال می کنند که هر مقرراتی باید با به روز رسانی قوانین حفظ حریم خصوصی آغاز شود، زیرا اطلاعات شخصی مانند سوختی برای هوش مصنوعی عمل می کند. استرالیا قوانین حریم خصوصی خود را در حدود چهار دهه به روز نکرده است، یعنی چارچوب نظارتی این کشور برای مقابله با چالش های ناشی از هوش مصنوعی و تلاقی آن با نگرانی های حفظ حریم خصوصی، مجهز نمی باشد.
به نظر می رسد که مردم از روند سیاسی جلوتر هستند و خواستار قوانین سختگیرانه تر در مورد جمع آوری داده ها هستند که نشان دهنده حمایت گسترده ای می باشد که می تواند پایه و اساس معاهده منع گسترش سلاح های هسته ای امروزی باشد. در سالهای اخیر، طرحهای نظارتی با حمایت دولت، حقوق حریم خصوصی را تضعیف کرده است.
در این چشم انداز در حال تحول، جوهر واقعی هنر در نقص های انسانی و تجربیات مشترکی می باشد که گفتگوهای غنی را برمی انگیزد. در حالی که هوش مصنوعی ممکن است کارایی داشته باشد، اما فاقد بیان ظریف و خلاقیت انسانی ست. آینده توسعه هوش مصنوعی نباید به عنوان یک رویداد منحصر به فرد، مانند انفجار بمب، بلکه به عنوان یک فرسایش تدریجی مشاغل و فرهنگ تلقی شود.
اگر به دنبال یک شخصیت تاریخی برای توصیف آینده هوش مصنوعی باشیم، میتوان از فریدریش هایک، اقتصاددان اتریشی، به عنوان یک تشبیه مناسب استفاده کرد. دیدگاه ضد-تنظیمی و ضد مداخله دولتی او تأثیر زیادی در ایجاد موافقت نئولیبرالی داشته است که به شرکتها و مؤسسات بزرگ اجازه میدهد تا کنترل قدرتی بر دولتها و شهروندان داشته باشند. نظریه هایک درباره جایگزینی سیستمهای خودخدمتی به جای نقش افراد با ترسی که از هوش مصنوعی نسبت به تغییر نقش انسانی و تصمیمگیری انسانی به وجود آمده، تطابق دارد. به طور خلاصه، یعنی هوش مصنوعی میتواند در آینده نقشهای انسانی را تغییر دهد.
ایجاد تعادل بین مزایا و خطرات بالقوه هوش مصنوعی در شکل دادن به فرهنگ بسیار مهم می باشد. به روز رسانی قوانین حفظ حریم خصوصی، تقویت همکاری های بین حزبی، و در نظر گرفتن مقررات سختگیرانه تر، گام های اساسی در حصول اطمینان از اینکه توسعه هوش مصنوعی در خدمت منافع بشریت می باشند، محسوب می شوند.
پایان پیام/
بیشتر بخوانید: تلاقی دین و فناوری: هوش مصنوعی، ربات ها و معنویت





















