• امروز : چهارشنبه - ۸ بهمن - ۱۴۰۴
  • برابر با : Wednesday - 28 January - 2026
3

راه حل سام آلتمن جهت کمبود عظیم جهانی تراشه های نیمه هادی

  • کد خبر : 20843
  • 04 اسفند 1402 - 12:46
راه حل سام آلتمن جهت کمبود عظیم جهانی تراشه های نیمه هادی
آژانس بین‌المللی انرژی پیش‌بینی کرده بود که تقاضای جهانی برق، به دلیل رشد هوش مصنوعی، تا سال 2026 دو برابر خواهد شد. این مشکل ممکن است با کارآمدتر شدن رایانه‌ها یا با تکنیک‌های کارآمدتر برای کاهش انرژی یا استفاده از انرژی‌های تجدیدپذیر کاهش یابد. اما این راه حل های بالقوه آزمایش نشده اند و بسیاری از آنها هنوز به طور کامل توسعه نیافته اند.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از cointelegraph،  سام آلتمن، یکی از بنیانگذاران OpenAI، بنا به گزارش ها، به دنبال جمع آوری ۷ میلیارد دلار برای پروژه ای می باشد که به کمبود عظیم جهانی تراشه های نیمه هادی، ناشی از رشد سریع تقاضا برای هوش مصنوعی مولد (GenAI) کمک می کند. آلتمن، معتقد است که جهان به زیرساخت‌های هوش مصنوعی بیشتری مانند ظرفیت فزاینده، انرژی، مراکز داده و .. نیاز دارد. نسبت به آنچه که مردم در حال حاضر برای ساخت آن برنامه‌ریزی می‌کنند. ایجاد زیرساخت‌های هوش مصنوعی در مقیاس عظیم، و یک زنجیره تامین انعطاف‌پذیر، برای رقابت اقتصادی بسیار مهم می باشد.  بنابراین OpenAI سعی می کند که در این رابطه کمک کند!

مقیاس گذاری با این مقدار پول به این معنی ست که همه چیز بر اساس GenAI، با هدف نهایی دستیابی به هوش مصنوعی عمومی ساخته خواهد شد، و سیستم هایی که از هوش انسانی پیشی می گیرند، یک سوال قابل بحث می باشند.

چرا به “مقیاس پذیری گسترده” زیرساخت های هوش مصنوعی نیاز داریم؟

OpenAI برای غلبه بر محدودیت‌های رشد خود، به ویژه کمبود تراشه‌های هوش مصنوعی که برای آموزش مدل‌های زبان بزرگ (LLM) مانند ChatGPT ضروری هستند، به قدرت محاسباتی و مراکز داده بیشتری نیاز دارد (در حال حاضر به مایکروسافت متکی می باشد).

هیچ فناوری کامل نیست و هوش مصنوعی نیز از این قاعده مستثنی نیست. پتانسیل هوش مصنوعی برای به ارمغان آوردن منافع عظیم برای جامعه به اندازه پتانسیل آن برای ایجاد آسیب می باشد. قانون‌گذاران از شرکت‌ها می‌خواهند که به هوش مصنوعی و نوآوری مسئولانه پایبند باشند و ما به عنوان یک جامعه باید آن را بخواهیم.

نوآوری مسئولانه این ایده است که فناوری‌های جدید برای جامعه کار می‌کنند بدون اینکه مشکلاتی بیش از آنچه که حل می‌کنند، ایجاد کنند. این امر برای همه فناوری‌ها، همه نوآوری‌ها، در همه سازمان‌ها، صنایع و مناطق صدق می‌کند.

آیا نباید خطرات و چالش‌هایی را که در سیستم‌های هوش مصنوعی به وجود می‌آیند، کاهش و کنترل خطرات آن‌ها را بررسی کنیم و مطمئن شویم که آنها بیشتر از آنچه که حل می‌کنند، مشکلاتی ایجاد نمی‌کنند، قبل از اینکه آنها را مقیاس‌بندی کنیم؟

خطرات و چالش های هوش مصنوعی

هوش مصنوعی مبتنی بر داده می باشد. این اتکا به داده ها، خطرات و چالش های حیاتی زیادی را به همراه دارد. داده ها ممکن است ناقص یا اشتباه باشند یا به طور نامناسب، و یا نادرست استفاده شوند. اگر ورودی نادرست باشد، خروجی نیز نادرست می باشد. وقتی LLM ها اطلاعات ضعیف یا قدیمی را پردازش می کنند، فقط آن را تکرار نمی کنند. آنها آن را تقویت می کنند و آن را درست و قابل قبول می کنند.

علاوه بر این، یکی از مشکلات اصلی سیستم‌های هوش مصنوعی تعصب الگوریتمی می باشد و به خوبی مستند شده که منجر به تبعیض می‌شود. این مشکل هنوز به درستی حل نشده، با اینکه قانونگذاران از شرکت های فناوری درخواست کرده اند که این کار را انجام دهند.

از جمله مشکلات دیگری که، به ویژه با GenAI وجود دارد: خطاهای ادراکی، اطلاعات نادرست/دروغ پراکنی، عدم توضیح، کلاهبرداری، کپی رایت، حریم خصوصی کاربر، و امنیت داده ها – که همه آنها به طور کامل مورد توجه قرار نگرفته و کاهش نیافته اند. موضوعی که کمتر مورد بحث قرار گرفته، اما ضروری می باشد، پیامدهای زیست محیطی هوش مصنوعی ست. سیستم‌های هوش مصنوعی مصرف کننده انرژی هستند که برای محاسبات و مراکز داده به آن نیاز دارد.

آژانس بین‌المللی انرژی پیش‌بینی کرده بود که تقاضای جهانی برق، به دلیل رشد هوش مصنوعی، تا سال ۲۰۲۶ دو برابر خواهد شد. این مشکل ممکن است با کارآمدتر شدن رایانه‌ها یا با تکنیک‌های کارآمدتر برای کاهش انرژی یا استفاده از انرژی‌های تجدیدپذیر کاهش یابد. اما این راه حل های بالقوه آزمایش نشده اند و بسیاری از آنها هنوز به طور کامل توسعه نیافته اند.

دولت بایدن و اتحادیه اروپا خواستار هوش مصنوعی مسئولانه هستند

قانونگذاران خواستار “هوش مصنوعی مسئولانه” – ایمن، مطمئن و قابل اعتماد هستند. رئیس جمهور جو بایدن در سپتامبر  فرمان اجرایی را امضا کرد که ، از شرکت ها می خواهد که ۱) ابزارهای هوش مصنوعی را برای یافتن و رفع آسیب پذیری های امنیت سایبری توسعه دهند. ۲) توسعه و استفاده از تکنیک‌های حفظ حریم خصوصی – مانند ابزارهای رمزنگاری که حریم خصوصی داده‌های آموزش دیده را حفظ می‌کند. ۳) از مصرف‌کنندگان، بیماران و دانش‌آموزان برای جلوگیری از افزایش خطر آسیب‌دیدگی یا گمراه‌ شدن توسط هوش مصنوعی محافظت شود. ۴) از کارگران در برابر خطرات افزایش نظارت در محل کار، تعصب و جابجایی شغل محافظت شود. و ۵) تمرکز ویژه بر تعصب و تبعیض الگوریتمی برای اطمینان از اینکه سوگیری الگوریتمی در طول توسعه و آموزش این سیستم ها مورد توجه قرار می گیرد، وجود داشته باشد.

در جولای ۲۰۲۳، OpenAI یک تعهد داوطلبانه با دولت بایدن برای مدیریت خطرات ناشی از هوش مصنوعی و پایبندی به هوش مصنوعی مسئول امضا کرد. OpenAI کاملاً عملی “هوش مصنوعی مسئول” را که متعهد به انجام آن بوده، نشان نداده است.

قانون هوش مصنوعی اتحادیه اروپا نیازمند شفافیت اسناد توسعه پایین دستی و ممیزی، به ویژه برای مدل های بنیاد و  GenAI می باشد. سیستم های هوش مصنوعی به گونه ای تنظیم نشده اند که این اطلاعات را ارائه دهند و قانونگذاران هیچ راه حل عملی ارائه نکرده اند.. اینجاست که فناوری بلاک چین می‌تواند به ارائه راه‌حلی کمک کند که شرکت‌ها را قادر می‌سازد تا به درخواست‌های قانون‌گذاران پایبند باشند و «هوش مصنوعی مسئولیت‌پذیر قابل کنترل» – ایمن، مطمئن و قابل اعتماد- را پیاده‌سازی کنند. شاید OpenAI بتواند چنین راه حلی را اجرا کند و قابلیت حسابرسی مناسب سیستم های هوش مصنوعی را نشان دهد.

اجرای هوش مصنوعی مسئول – از جمله قابلیت ممیزی سیستم های هوش مصنوعی و کاهش پیامدهای انرژی – همه با نتایج رضایت بخش، باید قبل از مقیاس گذاری این سیستم ها مورد توجه قرار گیرد.

نوآوری مسئولانه و اطمینان از اینکه سیستم های هوش مصنوعی ایمن، مطمئن و قابل اعتماد هستند، آینده جمعی را ایمن می کند.

پایان پیام/

لینک کوتاه : https://adlealborz.ir/?p=20843

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.