Trải nghiệm bộ công cụ AI cực đỉnh của Synology dành cho doanh nghiệp và người dùng, hỗ trợ tiếng Việt hoàn chỉnh

“Trong bối cảnh cơn sốt trí tuệ nhân tạo vẫn đang tiếp diễn, công ty Nvidia – một trong những đơn vị được hưởng lợi nhiều nhất từ xu hướng này – đã giới thiệu một sản phẩm mới nhằm tận dụng cơ hội hiếm có này.

Tại sự kiện Computex 2023 vừa diễn ra, CEO của Nvidia – ông Jensen Huang đã giới thiệu một loạt sản phẩm và dịch vụ mới, trong đó nổi bật là nền tảng siêu máy tính DGX thế hệ tiếp theo mang tên DGX GH200. Đây là sản phẩm hướng đến cơn sốt trí tuệ nhân tạo vẫn đang diễn ra trên toàn cầu, giúp cho các công ty phát triển mô hình trí tuệ nhân tạo mạnh mẽ hơn. NVIDIA đã công bố siêu máy tính trí tuệ nhân tạo mới, được trang bị bộ nhớ cao gấp 500 lần hệ thống huấn luyện so với ChatGPT.

Theo thông báo của Nvidia, DGX GH200 – người kế nhiệm của dòng chip A100 hiện tại – sẽ giúp các khách hàng tạo ra những thành công tương tự như ChatGPT. Google, Microsoft và Meta sẽ là những khách hàng đầu tiên sử dụng sản phẩm siêu máy tính này. Nền tảng siêu máy tính trí tuệ nhân tạo này được tạo nên từ việc ghép nối 256 siêu chip Grace Hopper Superchips trên bộ nhớ dùng chung 144TB, cho phép xử lý các tác vụ huấn luyện trí tuệ nhân tạo tiêu tốn hiệu năng nhất hiện nay. Mỗi siêu chip Grace Hopper này là sự kết hợp giữa một CPU ARM 72 nhân Grace, một GPU Hopper và 96GB bộ nhớ HBM3 và 512GB bộ nhớ LPDDR5X trên cùng một chip với tổng cộng 200 tỷ bóng bán dẫn.

Xem thêm   Mỹ loại công nghệ nhạy cảm trên xe tăng chuyển cho Ukraine

Để thấy được sức mạnh của nền tảng siêu máy tính trí tuệ nhân tạo mới này, ta có thể so sánh với hệ thống DGX A100, nền tảng điện toán trí tuệ nhân tạo đã giúp làm nên thành công cho ChatGPT của OpenAI. Hệ thống DGX A100 chỉ có thể kết nối 8 GPU A100 với nhau thành một bộ xử lý duy nhất có bộ nhớ dùng chung 320GB. So với DGX A100, DGX GH200 mới ra mắt sử dụng hệ thống liên kết mới NVLink Switch System với 36 switch NVLink để liên kết 256 chip Grace Hopper – cho phép chúng hoạt động như một GPU khổng lồ có khả năng xử lý vượt trội – với bộ nhớ dùng chung 144TB, nhiều hơn 500 lần so với hệ thống DGX A100.

Đối với các tác vụ siêu nặng như huấn luyện hoặc xử lý các phép tính trí tuệ nhân tạo, khả năng liên kết các bộ xử lý với nhau thông qua các kết nối băng thông siêu lớn sẽ mang lại hiệu năng xử lý như một bộ xử lý duy nhất – lớn gấp nhiều lần so với một hệ thống siêu máy tính thông thường.

Trước sự bùng nổ của các công cụ trí tuệ nhân tạo, khách hàng của Nvidia đang yêu cầu công ty đưa ra các hệ thống có hiệu năng cao hơn nữa, thay vì chỉ giới hạn trong 8 GPU A100 như hiện tại và DGX GH200 nhằm đáp ứng nhu cầu đó. NVIDIA cũng giới thiệu kiến trúc tham chiếu MGX mới sẽ giúp các hãng OEM xây dựng các siêu máy tính trí tuệ nhân tạo mới nhanh hơn khi có thể kết nối đến 100 hệ thống hiện tại với nhau, cùng với nền tảng kết nối mạng Ethernet Spectrum-X mới được thiết kế và tối ưu cho các máy chủ và các cụm siêu máy tính trí tuệ nhân tạo.”

Xem thêm   Quỹ Phát triển khoa học và công nghệ Hà Nội: ''Gỡ'' điểm nghẽn để khơi thông nguồn lực

Nguồn: GenK

Files 32