
صنعت هوش مصنوعی و نیمهرساناها در سال ۲۰۲۵ وارد فاز رقابتی بیسابقهای شده است. در حالی که انویدیا (NVIDIA) همچنان سلطان بلامنازع بازار پردازندههای گرافیکی (GPU) مخصوص مراکز داده است، رقبای اصلی مانند AMD و حتی شرکتهای بزرگ حوزه هوش مصنوعی مثل OpenAI با تولید تراشههای سفارشی، به دنبال کاهش وابستگی و تصاحب سهمی از این بازار چند صد میلیارد دلاری هستند.
جدال غولها برای سرورهای AI
رقابت اصلی در حوزه ساخت شتابدهندههای هوش مصنوعی (AI Accelerators) است که مغز متفکر مدلهای بزرگ زبانی (LLM) محسوب میشوند:
- قدرتنمایی AMD با Instinct: شرکت AMD با معرفی سری جدید تراشههای Instinct MI300X و MI350X گامهای بسیار جدی برداشته است. این شرکت ادعا میکند که تراشههای جدیدش در وظایف استنتاج (Inference) مدلهای AI (یعنی اجرای مدلهای آموزشدیده) میتواند تا ۱.۴ برابر بهتر از رقیب اصلی انویدیا یعنی H100 عمل کند.
مهمتر اینکه، AMD اخیراً با OpenAI (خالق ChatGPT) یک قرارداد چند ده میلیارد دلاری امضا کرده است. این توافق به OpenAI امکان میدهد تا حجم عظیمی از تراشههای AMD را برای تأمین انرژی مورد نیاز زیرساختهای خود خریداری کند. این قرارداد نه تنها یک پیروزی بزرگ برای AMD است، بلکه نشاندهنده اعتماد بزرگ به محصولات این شرکت برای مقابله با انویدیا است.
- خیز انویدیا با معماریهای جدید: انویدیا با وجود افزایش رقابت، همچنان با پلتفرمهای H100 و معماریهای جدید خود مانند Blackwell و Vera Rubin پیشتاز است. مزیت اصلی انویدیا، نه تنها سختافزار بلکه اکوسیستم نرمافزاری CUDA است که توسعهدهندگان هوش مصنوعی سالهاست با آن کار میکنند و همین امر، تغییر پلتفرم را برای بسیاری دشوار میسازد.
پایان وابستگی؛ ظهور تراشههای سفارشی
یکی از بزرگترین ترندهای سال ۲۰۲۵، تمایل شرکتهای بزرگ AI و فناوری به طراحی تراشههای اختصاصی (Custom AI Chips) است تا وابستگی خود به انویدیا را کاهش دهند و هزینهها را مدیریت کنند:
- OpenAI: این شرکت قصد دارد از سال آینده تولید انبوه تراشههای هوش مصنوعی سفارشی خود با نام رمز “XPU” را آغاز کند. هدف اولیه استفاده داخلی از این تراشهها برای تقویت ناوگان محاسباتی خود و کاهش نیاز به خرید تراشههای گرانقیمت انویدیا است.
- Arm Holdings: این شرکت که طراح اصلی معماری تراشههای موبایل است، اعلام کرده که قصد دارد بخش جدیدی را برای توسعه تراشههای هوش مصنوعی مخصوص مراکز داده راهاندازی کند و اولین نمونهها در بهار ۲۰۲۵ عرضه خواهند شد.
- متا (Meta) و گوگل (Google): هر دو شرکت نیز به طور فعال در حال توسعه نسلهای جدید تراشههای داخلی خود (MTIA v2 و Trillium TPU v6) هستند تا مدلهای عظیم هوش مصنوعی خود مانند Gemini را بهینهتر آموزش دهند و اجرا کنند.

تحول زیرساختها: خنکسازی مایع و هوش مصنوعی در موبایل
رشد سرسامآور قدرت تراشههای AI، چالشهای جدیدی را در زیرساختها ایجاد کرده است:
- انقلاب در دیتاسنترها: مصرف برق بیرویه و گرمای تولید شده توسط GPUهای پیشرفته، باعث شده است که مراکز داده به سرعت به سمت خنکسازی مایع (Liquid Cooling) روی بیاورند تا بتوانند عملکرد و تراکم پردازشی بالا را حفظ کنند.
- هوش مصنوعی در لبه (Edge AI): تراشههای AI دیگر صرفاً در سرورها نیستند؛ معرفی پردازندههای جدیدی مانند AMD Ryzen AI 300 که دارای واحد پردازش عصبی (NPU) قدرتمند با توانایی ۵۵ ترا عملیات در ثانیه (TOPS) هستند، به این معنی است که بسیاری از وظایف AI مانند ترجمه همزمان یا کار با Copilot و سایر دستیارهای هوشمند، مستقیماً روی لپتاپ یا موبایل انجام خواهد شد، نه روی سرور ابری.
این تحولات نشان میدهد که صنعت در حال حرکت از وابستگی به یک تأمینکننده واحد به سمت یک بازار متنوعتر و رقابتیتر برای تأمین قدرت محاسباتی مورد نیاز هوش مصنوعی است.



