NVIDIA Rencanakan Chip Baru untuk Percepat Pemrosesan AI

NVIDIA Rencanakan Chip Baru untuk Percepat Pemrosesan AI

NVIDIA sedang mengembangkan chip baru yang dirancang khusus untuk mempercepat proses "inference" pada model AI, memungkinkan respons lebih cepat terhadap kueri pengguna. Menurut laporan Wall Street Journal yang dikutip Reuters pada 28 Februari 2026, inovasi ini ditujukan untuk klien seperti OpenAI guna membangun sistem AI yang lebih efisien.

Latar Belakang Pengembangan

Chip inference ini melanjutkan dominasi NVIDIA di pasar AI, setelah kesuksesan arsitektur Blackwell dan pengumuman Vera Rubin di CES 2026. CEO Jensen Huang telah menekankan perlunya inovasi konstan menghadapi kompetisi dari AMD, Google, dan pelanggan internal seperti Microsoft serta Amazon. Pengembangan ini datang di tengah ledakan permintaan komputasi AI untuk chatbot dan model bahasa besar.

Fitur Utama Chip Baru

Sistem baru fokus pada inference computing, tahap di mana AI menghasilkan output dari input pengguna, berbeda dengan training yang memakan sumber daya besar. Meski detail spesifik seperti nama (mungkin Feynman untuk GTC 2026) belum diungkap, chip ini diharapkan mengurangi biaya token hingga 10 kali lipat dibanding pendahulunya, mirip kemajuan Rubin. Integrasi dengan ekosistem NVIDIA seperti NVLink dan Transformer Engine akan mendukung MoE models (Mixture-of-Experts) secara masif.

Dampak Industri

Peluncuran ini bisa memperkuat posisi NVIDIA di tengah persaingan ketat, dengan pelanggan awal termasuk raksasa cloud seperti AWS dan Azure. Saat GTC 2026 pada Maret mendatang, lebih banyak detail mungkin diungkap, termasuk aplikasi untuk autonomous driving dan agentic AI. Inovasi semacam ini mendorong valuasi NVIDIA tetap tinggi, meski tantangan rantai pasok chip 1nm muncul.

 

Next Post Previous Post