Nvidia đang tìm cách giảm chi phí năng lượng cho các máy chủ trí tuệ nhân tạo (AI) bằng cách thay đổi loại chip bộ nhớ sử dụng, nhưng động thái này có thể khiến giá bộ nhớ máy chủ tăng gấp đôi vào cuối năm 2026, theo báo cáo của Counterpoint Research công bố hôm thứ Tư.
Thay vì dùng DDR5 – loại DRAM tốc độ cao vốn được trang bị cho máy chủ – Nvidia chuyển sang LPDDR (low-power DRAM), dòng bộ nhớ tiêu thụ điện năng thấp thường xuất hiện trên smartphone và máy tính bảng. Việc dịch chuyển sang LPDDR được dự báo sẽ gây ra một cú sốc nhu cầu trên thị trường, bởi mỗi máy chủ AI cần số lượng chip lớn hơn nhiều so với thiết bị di động.
Sự thay đổi của Nvidia diễn ra trong bối cảnh chuỗi cung ứng điện tử toàn cầu đã căng thẳng suốt hai tháng qua do thiếu hụt chip bộ nhớ truyền thống. Các nhà sản xuất như Samsung Electronics, SK Hynix và Micron đều đã cắt giảm sản lượng DRAM cũ để tập trung cho bộ nhớ băng thông cao – nền tảng cấu thành các bộ tăng tốc AI.
Counterpoint cho rằng nhu cầu LPDDR tăng mạnh có thể kéo theo sự khan hiếm ở cả các phân khúc bộ nhớ tiên tiến, khi các hãng chip phải cân nhắc chuyển thêm công suất sang sản xuất LPDDR để phục vụ Nvidia. “Nvidia chuyển sang LPDDR đồng nghĩa họ trở thành khách hàng có quy mô tương đương một nhà sản xuất smartphone lớn – một cú dịch chuyển mang tính địa chấn đối với chuỗi cung ứng,” báo cáo nêu.
Theo dự báo, giá chip bộ nhớ dành cho máy chủ có thể tăng gấp đôi vào cuối năm 2026, trong khi giá bộ nhớ nói chung nhiều khả năng tăng khoảng 50% từ nay đến quý II/2026. Điều này được xem là sẽ đẩy chi phí của các nhà cung cấp dịch vụ đám mây và nhà phát triển AI lên cao hơn nữa, trong bối cảnh ngân sách trung tâm dữ liệu vốn đã chịu áp lực lớn từ mức đầu tư kỷ lục vào GPU và nâng cấp năng lượng.

Logo của công ty công nghệ Nvidia tại trụ sở ở Santa Clara, California. Ảnh: Reuters

