تکنولوژی

جنگ تراشه‌ها: انویدیا، AMD و ظهور رقبای جدید در قلب AI

صنعت هوش مصنوعی و نیمه‌رساناها در سال ۲۰۲۵ وارد فاز رقابتی بی‌سابقه‌ای شده است. در حالی که انویدیا (NVIDIA) همچنان سلطان بلامنازع بازار پردازنده‌های گرافیکی (GPU) مخصوص مراکز داده است، رقبای اصلی مانند AMD و حتی شرکت‌های بزرگ حوزه هوش مصنوعی مثل OpenAI با تولید تراشه‌های سفارشی، به دنبال کاهش وابستگی و تصاحب سهمی از این بازار چند صد میلیارد دلاری هستند.

جدال غول‌ها برای سرورهای AI

رقابت اصلی در حوزه ساخت شتاب‌دهنده‌های هوش مصنوعی (AI Accelerators) است که مغز متفکر مدل‌های بزرگ زبانی (LLM) محسوب می‌شوند:

  1. قدرت‌نمایی AMD با Instinct: شرکت AMD با معرفی سری جدید تراشه‌های Instinct MI300X و MI350X گام‌های بسیار جدی برداشته است. این شرکت ادعا می‌کند که تراشه‌های جدیدش در وظایف استنتاج (Inference) مدل‌های AI (یعنی اجرای مدل‌های آموزش‌دیده) می‌تواند تا ۱.۴ برابر بهتر از رقیب اصلی انویدیا یعنی H100 عمل کند.

مهم‌تر اینکه، AMD اخیراً با OpenAI (خالق ChatGPT) یک قرارداد چند ده میلیارد دلاری امضا کرده است. این توافق به OpenAI امکان می‌دهد تا حجم عظیمی از تراشه‌های AMD را برای تأمین انرژی مورد نیاز زیرساخت‌های خود خریداری کند. این قرارداد نه تنها یک پیروزی بزرگ برای AMD است، بلکه نشان‌دهنده اعتماد بزرگ به محصولات این شرکت برای مقابله با انویدیا است.

  1. خیز انویدیا با معماری‌های جدید: انویدیا با وجود افزایش رقابت، همچنان با پلتفرم‌های H100 و معماری‌های جدید خود مانند Blackwell و Vera Rubin پیشتاز است. مزیت اصلی انویدیا، نه تنها سخت‌افزار بلکه اکوسیستم نرم‌افزاری CUDA است که توسعه‌دهندگان هوش مصنوعی سال‌هاست با آن کار می‌کنند و همین امر، تغییر پلتفرم را برای بسیاری دشوار می‌سازد.

پایان وابستگی؛ ظهور تراشه‌های سفارشی

یکی از بزرگترین ترندهای سال ۲۰۲۵، تمایل شرکت‌های بزرگ AI و فناوری به طراحی تراشه‌های اختصاصی (Custom AI Chips) است تا وابستگی خود به انویدیا را کاهش دهند و هزینه‌ها را مدیریت کنند:

  • OpenAI: این شرکت قصد دارد از سال آینده تولید انبوه تراشه‌های هوش مصنوعی سفارشی خود با نام رمز “XPU” را آغاز کند. هدف اولیه استفاده داخلی از این تراشه‌ها برای تقویت ناوگان محاسباتی خود و کاهش نیاز به خرید تراشه‌های گران‌قیمت انویدیا است.
  • Arm Holdings: این شرکت که طراح اصلی معماری تراشه‌های موبایل است، اعلام کرده که قصد دارد بخش جدیدی را برای توسعه تراشه‌های هوش مصنوعی مخصوص مراکز داده راه‌اندازی کند و اولین نمونه‌ها در بهار ۲۰۲۵ عرضه خواهند شد.
  • متا (Meta) و گوگل (Google): هر دو شرکت نیز به طور فعال در حال توسعه نسل‌های جدید تراشه‌های داخلی خود (MTIA v2 و Trillium TPU v6) هستند تا مدل‌های عظیم هوش مصنوعی خود مانند Gemini را بهینه‌تر آموزش دهند و اجرا کنند.
  • جنگ تراشه‌ها انویدیا، AMD و ظهور رقبای جدید در قلب AI

تحول زیرساخت‌ها: خنک‌سازی مایع و هوش مصنوعی در موبایل

رشد سرسام‌آور قدرت تراشه‌های AI، چالش‌های جدیدی را در زیرساخت‌ها ایجاد کرده است:

  • انقلاب در دیتاسنترها: مصرف برق بی‌رویه و گرمای تولید شده توسط GPU‌های پیشرفته، باعث شده است که مراکز داده به سرعت به سمت خنک‌سازی مایع (Liquid Cooling) روی بیاورند تا بتوانند عملکرد و تراکم پردازشی بالا را حفظ کنند.
  • هوش مصنوعی در لبه (Edge AI): تراشه‌های AI دیگر صرفاً در سرورها نیستند؛ معرفی پردازنده‌های جدیدی مانند AMD Ryzen AI 300 که دارای واحد پردازش عصبی (NPU) قدرتمند با توانایی ۵۵ ترا عملیات در ثانیه (TOPS) هستند، به این معنی است که بسیاری از وظایف AI مانند ترجمه همزمان یا کار با Copilot و سایر دستیارهای هوشمند، مستقیماً روی لپ‌تاپ یا موبایل انجام خواهد شد، نه روی سرور ابری.

این تحولات نشان می‌دهد که صنعت در حال حرکت از وابستگی به یک تأمین‌کننده واحد به سمت یک بازار متنوع‌تر و رقابتی‌تر برای تأمین قدرت محاسباتی مورد نیاز هوش مصنوعی است.

نوشته های مشابه

دکمه بازگشت به بالا