به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از cointelegraph، سام آلتمن، یکی از بنیانگذاران OpenAI، بنا به گزارش ها، به دنبال جمع آوری ۷ میلیارد دلار برای پروژه ای می باشد که به کمبود عظیم جهانی تراشه های نیمه هادی، ناشی از رشد سریع تقاضا برای هوش مصنوعی مولد (GenAI) کمک می کند. آلتمن، معتقد است که جهان به زیرساختهای هوش مصنوعی بیشتری مانند ظرفیت فزاینده، انرژی، مراکز داده و .. نیاز دارد. نسبت به آنچه که مردم در حال حاضر برای ساخت آن برنامهریزی میکنند. ایجاد زیرساختهای هوش مصنوعی در مقیاس عظیم، و یک زنجیره تامین انعطافپذیر، برای رقابت اقتصادی بسیار مهم می باشد. بنابراین OpenAI سعی می کند که در این رابطه کمک کند!
بیشتر بخوانید: رونق تراشههای هوش مصنوعی و افزایش ارزش بازار انویدیا
مقیاس گذاری با این مقدار پول به این معنی ست که همه چیز بر اساس GenAI، با هدف نهایی دستیابی به هوش مصنوعی عمومی ساخته خواهد شد، و سیستم هایی که از هوش انسانی پیشی می گیرند، یک سوال قابل بحث می باشند.
چرا به “مقیاس پذیری گسترده” زیرساخت های هوش مصنوعی نیاز داریم؟
OpenAI برای غلبه بر محدودیتهای رشد خود، به ویژه کمبود تراشههای هوش مصنوعی که برای آموزش مدلهای زبان بزرگ (LLM) مانند ChatGPT ضروری هستند، به قدرت محاسباتی و مراکز داده بیشتری نیاز دارد (در حال حاضر به مایکروسافت متکی می باشد).
هیچ فناوری کامل نیست و هوش مصنوعی نیز از این قاعده مستثنی نیست. پتانسیل هوش مصنوعی برای به ارمغان آوردن منافع عظیم برای جامعه به اندازه پتانسیل آن برای ایجاد آسیب می باشد. قانونگذاران از شرکتها میخواهند که به هوش مصنوعی و نوآوری مسئولانه پایبند باشند و ما به عنوان یک جامعه باید آن را بخواهیم.
نوآوری مسئولانه این ایده است که فناوریهای جدید برای جامعه کار میکنند بدون اینکه مشکلاتی بیش از آنچه که حل میکنند، ایجاد کنند. این امر برای همه فناوریها، همه نوآوریها، در همه سازمانها، صنایع و مناطق صدق میکند.
آیا نباید خطرات و چالشهایی را که در سیستمهای هوش مصنوعی به وجود میآیند، کاهش و کنترل خطرات آنها را بررسی کنیم و مطمئن شویم که آنها بیشتر از آنچه که حل میکنند، مشکلاتی ایجاد نمیکنند، قبل از اینکه آنها را مقیاسبندی کنیم؟
خطرات و چالش های هوش مصنوعی
هوش مصنوعی مبتنی بر داده می باشد. این اتکا به داده ها، خطرات و چالش های حیاتی زیادی را به همراه دارد. داده ها ممکن است ناقص یا اشتباه باشند یا به طور نامناسب، و یا نادرست استفاده شوند. اگر ورودی نادرست باشد، خروجی نیز نادرست می باشد. وقتی LLM ها اطلاعات ضعیف یا قدیمی را پردازش می کنند، فقط آن را تکرار نمی کنند. آنها آن را تقویت می کنند و آن را درست و قابل قبول می کنند.
علاوه بر این، یکی از مشکلات اصلی سیستمهای هوش مصنوعی تعصب الگوریتمی می باشد و به خوبی مستند شده که منجر به تبعیض میشود. این مشکل هنوز به درستی حل نشده، با اینکه قانونگذاران از شرکت های فناوری درخواست کرده اند که این کار را انجام دهند.
از جمله مشکلات دیگری که، به ویژه با GenAI وجود دارد: خطاهای ادراکی، اطلاعات نادرست/دروغ پراکنی، عدم توضیح، کلاهبرداری، کپی رایت، حریم خصوصی کاربر، و امنیت داده ها – که همه آنها به طور کامل مورد توجه قرار نگرفته و کاهش نیافته اند. موضوعی که کمتر مورد بحث قرار گرفته، اما ضروری می باشد، پیامدهای زیست محیطی هوش مصنوعی ست. سیستمهای هوش مصنوعی مصرف کننده انرژی هستند که برای محاسبات و مراکز داده به آن نیاز دارد.
آژانس بینالمللی انرژی پیشبینی کرده بود که تقاضای جهانی برق، به دلیل رشد هوش مصنوعی، تا سال ۲۰۲۶ دو برابر خواهد شد. این مشکل ممکن است با کارآمدتر شدن رایانهها یا با تکنیکهای کارآمدتر برای کاهش انرژی یا استفاده از انرژیهای تجدیدپذیر کاهش یابد. اما این راه حل های بالقوه آزمایش نشده اند و بسیاری از آنها هنوز به طور کامل توسعه نیافته اند.
دولت بایدن و اتحادیه اروپا خواستار هوش مصنوعی مسئولانه هستند
قانونگذاران خواستار “هوش مصنوعی مسئولانه” – ایمن، مطمئن و قابل اعتماد هستند. رئیس جمهور جو بایدن در سپتامبر فرمان اجرایی را امضا کرد که ، از شرکت ها می خواهد که ۱) ابزارهای هوش مصنوعی را برای یافتن و رفع آسیب پذیری های امنیت سایبری توسعه دهند. ۲) توسعه و استفاده از تکنیکهای حفظ حریم خصوصی – مانند ابزارهای رمزنگاری که حریم خصوصی دادههای آموزش دیده را حفظ میکند. ۳) از مصرفکنندگان، بیماران و دانشآموزان برای جلوگیری از افزایش خطر آسیبدیدگی یا گمراه شدن توسط هوش مصنوعی محافظت شود. ۴) از کارگران در برابر خطرات افزایش نظارت در محل کار، تعصب و جابجایی شغل محافظت شود. و ۵) تمرکز ویژه بر تعصب و تبعیض الگوریتمی برای اطمینان از اینکه سوگیری الگوریتمی در طول توسعه و آموزش این سیستم ها مورد توجه قرار می گیرد، وجود داشته باشد.
در جولای ۲۰۲۳، OpenAI یک تعهد داوطلبانه با دولت بایدن برای مدیریت خطرات ناشی از هوش مصنوعی و پایبندی به هوش مصنوعی مسئول امضا کرد. OpenAI کاملاً عملی “هوش مصنوعی مسئول” را که متعهد به انجام آن بوده، نشان نداده است.
قانون هوش مصنوعی اتحادیه اروپا نیازمند شفافیت اسناد توسعه پایین دستی و ممیزی، به ویژه برای مدل های بنیاد و GenAI می باشد. سیستم های هوش مصنوعی به گونه ای تنظیم نشده اند که این اطلاعات را ارائه دهند و قانونگذاران هیچ راه حل عملی ارائه نکرده اند.. اینجاست که فناوری بلاک چین میتواند به ارائه راهحلی کمک کند که شرکتها را قادر میسازد تا به درخواستهای قانونگذاران پایبند باشند و «هوش مصنوعی مسئولیتپذیر قابل کنترل» – ایمن، مطمئن و قابل اعتماد- را پیادهسازی کنند. شاید OpenAI بتواند چنین راه حلی را اجرا کند و قابلیت حسابرسی مناسب سیستم های هوش مصنوعی را نشان دهد.
اجرای هوش مصنوعی مسئول – از جمله قابلیت ممیزی سیستم های هوش مصنوعی و کاهش پیامدهای انرژی – همه با نتایج رضایت بخش، باید قبل از مقیاس گذاری این سیستم ها مورد توجه قرار گیرد.
نوآوری مسئولانه و اطمینان از اینکه سیستم های هوش مصنوعی ایمن، مطمئن و قابل اعتماد هستند، آینده جمعی را ایمن می کند.
پایان پیام/
بیشتر بخوانید: هشدار سام آلتمن در مورد هوش مصنوعی





















