[Computex]Nvidia kết hợp với các nhà sản xuất server để cung cấp server cho dịch vụ AI trên đám mây

pegasus3390

Well-Known Member
aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9aLzEvNjgwMzY1L29yaWdpbmFsL2hneC0xLWJveC5qcGc=.jpg


Nvidia trong hôm nay cũng công bố việc hợp tác với các nhà sản xuất server hàng đầu như Foxconn, Inventec, Quanta, và Wistron nhằm đưa hệ thống server HGX-1 vào thị trường nhanh hơn. Các hệ thốn server mới hướng đến “khả năng xử lý tác vụ AI dạng đám mây” do đó khách hàng có thể tự trang bị được hệ thống xử lý dữ liệu riêng mình.

HGX-1 Server

Sự phát triển của các server HGX-1 là do hợp tác giữa Microsoft, Nvidia, và Ingrasys. Các công ty này đã tối ưu hóa hệ thống cho các ứng dụng machine learning và mở cửa thiết kế của mình vào đầu năm nay. Một hệ thống HGX-1 bao gồm 8 GPU trong một bộ khung duy nhất và cho đến 32 GPU khi kết hợp 4 hệ thống lại với nhau.

HGX-1 hỗ trợ GPU mới nhất của Nvidia bao gồm cả Tesla P100 nền tảng Pascal và V100 nền tảng Volta. Tuy nhiên hệ thống này cũng làm việc với các GPU Radeon của AMD và các thành phần gia tốc machine learing của Intel

Hợp tác cũng các ODM hàng đầu.


Thông qua chương trình HGX Partner Program, Nvidia sẽ cung cấp cho các nhà thiết kế gốc (ODM) như Foxconn, Inventec, Quanta và Wistron khả năng tiếp cận sớm kiến trúc tham chiếu HGX, công nghệ GPU cũng như hướng dẫn thiết kế. Thỏa thuận hợp tác này sẽ cho phép các OMD thiết kế hệ thống HGX nhanh hơn và giảm thời gian đưa chúng vào trung tâm dữ liệu của khách hàng

Nvidia nói rằng có tất cả 10 doanh nghiệp siêu lớp đang dùng GPU của họ cho các dự án machine learning. Theo như công ty thì GPU Volta mới sẽ cho tốc độ nhanh hơn 3 lần so với Pascal.

HGX cũng tương thích với nền tảng Cloud GPU Platform bao gồm khả năng hỗ trợ nền tảng phần mềm machine learning như TensorFlow, Caffe2, Cognitive Toolkit, và MXNet.

 
Bên trên