Các workload đòi hỏi khả năng xử lý cao của các nhà phát triển AI ngày nay thường cần nhiều bộ nhớ hơn so với khả năng của hệ thống máy tính để bàn hoặc yêu cầu khả năng truy cập vào bộ phần mềm chuyên dụng mà máy tính xách tay hoặc PC không có. Điều này buộc công việc phải được chuyển lên đám mây hoặc trung tâm dữ liệu.
NVIDIA DGX Spark cung cấp một giải pháp thay thế cho các máy chủ trên đám mây và trung tâm dữ liệu. Siêu máy tính nhỏ gọn, chạy trên chip Blackwell này sở hữu hiệu năng điện toán AI 1 petaflop (FP4), bộ nhớ hệ thống hợp nhất 128 GB, băng thông bộ nhớ 273 GB/giây và bộ phàn mềm NVIDIA AI Software Stack được cài đặt sẵn. Với DGX Spark, bạn có thể xử lý các tác vụ tính toán lớn, chuyên sâu tại chỗ mà không cần di chuyển lên đám mây hoặc trung tâm dữ liệu.
Bài này sẽ nêu ra cách mà hiệu năng tính toán, bộ nhớ lớn và phần mềm AI được cài đặt sẵn của DGX Spark sẽ giúp tăng tốc các workload tinh chỉnh, tạo hình ảnh, khoa học dữ liệu và suy luận như thế nào. Ngoài ra, sẽ cung cấp cho bạn một số điểm test benchmark của hệ thống để bạn tham khảo.
Tinh chỉnh tải xử lý trên DGX Spark
Điều chỉnh các mô hình đã được đào tạo trước là một nhiệm vụ phổ biến đối với các nhà phát triển AI. Để chứng minh hiệu suất của DGX Spark trong tải xử lý này, chúng tôi đã chạy ba tác vụ điều chỉnh bằng các phương pháp khác nhau: tinh chỉnh toàn phần, LoRA và QLoRA.
Khi tinh chỉnh toàn bộ mô hình Llama 3.2B, chúng tôi đạt tốc độ đỉnh điểm là 82.739,2 token mỗi giây. Việc tinh chỉnh mô hình Llama 3.1 8B bằng LoRA trên DGX Spark đạt tốc độ đỉnh điểm là 53.657,6 token mỗi giây. Việc tinh chỉnh mô hình Llama 3.3 70B bằng QLoRA trên DGX Spark đạt tốc độ đỉnh điểm là 5.079,4 token mỗi giây.
Vì quá trình tinh chỉnh đòi hỏi rất nhiều bộ nhớ nên không có tải xử lý tinh chỉnh nào có thể chạy trên GPU tiêu dùng 32 GB.
| Fine-tuning | ||||
| Model | Method | Backend | Configuration | Peak tokens/sec |
| Llama 3.2 3B | Full fine tuning | PyTorch | Sequence length: 2048Batch size: 8Epoch: 1Steps: 125BF16 | 82,739.20 |
| Llama 3.1 8B | LoRA | PyTorch | Sequence length: 2048Batch size: 4Epoch: 1Steps: 125BF16 | 53,657.60 |
| Llama 3.3 70B | QLoRA | PyTorch | Sequence length: 2048Batch size: 8Epoch: 1Steps: 125FP4 | 5,079.04 |
Bảng 1. Hiệu suất tinh chỉnh
Khả năng tạo hình ảnh của DGX Spark
Các mô hình tạo ảnh luôn hướng đến độ chính xác cao hơn, độ phân giải cao hơn và hiệu suất nhanh hơn. Việc tạo ảnh có độ phân giải cao hoặc nhiều ảnh trên mỗi dấu nhắc đòi hỏi nhiều bộ nhớ hơn, cũng như khối lượng tính toán cần thiết để tạo ảnh.
Bộ nhớ GPU lớn và hiệu năng tính toán mạnh mẽ của DGX Spark cho phép bạn làm việc với hình ảnh có độ phân giải cao hơn và các mô hình có độ chính xác cao hơn để mang lại chất lượng hình ảnh tốt hơn. Hỗ trợ định dạng dữ liệu FP4 cho phép DGX Spark tạo hình ảnh nhanh chóng, ngay cả ở độ phân giải cao.
Sử dụng mô hình Flux.1 12B với độ chính xác FP4, DGX Spark có thể tạo ra hình ảnh 1K mỗi 2,6 giây (xem Bảng 2 bên dưới). Bộ nhớ hệ thống lớn của DGX Spark cung cấp dung lượng cần thiết để chạy mô hình BF16 SDXL 1.0 và tạo ra bảy hình ảnh 1K mỗi phút.
| Image generation | ||||
| Model | Precision | Backend | Configuration | Images/min |
| Flux.1 12B Schnell | FP4 | TensorRT | Resolution: 1024×1024 Denoising steps: 4 Batch size: 1 | 23 |
| SDXL1.0 | BF16 | TensorRT | Resolution: 1024×1024Denoising steps: 50Batch size: 2 | 7 |
Bảng 2. Hiệu suất tạo hình ảnh
Sử dụng DGX Spark cho khoa học dữ liệu
DGX Spark hỗ trợ các thư viện CUDA-X cơ bản như NVIDIA cuML và cuDF . NVIDIA cuML tăng tốc các thuật toán học máy trong scikit-learn, cũng như UMAP và HDBSCAN trên GPU mà không cần thay đổi mã.
Đối với các thuật toán ML đòi hỏi tính toán cao như UMAP và HDBSCAN, DGX Spark có thể xử lý các tập dữ liệu 250 MB chỉ trong vài giây. (Xem Bảng 3 bên dưới.) NVIDIA cuDF tăng tốc đáng kể các tác vụ phân tích dữ liệu pandas phổ biến như phép nối và phương thức chuỗi. Các phép toán cuDF pandas trên các tập dữ liệu với hàng chục triệu bản ghi được chạy chỉ trong vài giây trên DGX Spark.
| Data science | |||
| Library | Benchmark | Dataset size | Time |
| NVIDIA cuML | UMAP | 250 MB | 4 secs |
| NVIDIA cuML | HDBSCAN | 250 MB | 10 secs |
| NVIDIA cuDF pandas | Key data analysis operations (joins, string methods, UDFs) | 0.5 to 5 GB | 11 secs |
Bảng 3. Hiệu suất khoa học dữ liệu
Sử dụng DGX Spark để suy luận
GPU Blackwell của DGX Spark hỗ trợ định dạng dữ liệu FP4, cụ thể là định dạng dữ liệu NVFP4, cung cấp độ chính xác gần bằng FP8 (độ suy giảm <1%). Điều này cho phép sử dụng các mô hình nhỏ hơn mà không làm giảm độ chính xác. Dung lượng dữ liệu nhỏ hơn của FP4 cũng cải thiện hiệu suất. Bảng 4 bên dưới cung cấp dữ liệu hiệu suất suy luận của DGX Spark.
DGX Spark hỗ trợ nhiều định dạng dữ liệu 4-bit: NVFP4, MXFP4, cũng như nhiều nền tảng phụ trợ như TRT-LLM, llama.cpp và vLLM. Hiệu suất AI 1 petaflop của hệ thống cho phép nó xử lý nhanh chóng các lệnh nhắc, như được hiển thị trong Bảng 4. Việc xử lý lệnh nhắc nhanh chóng này giúp rút ngắn thời gian phản hồi đầu tiên của token, mang lại trải nghiệm tốt hơn cho người dùng và tăng tốc độ xử lý từ đầu đến cuối.
| Inference (ISL|OSL= 2048|128, BS=1) | ||||
| Model | Precision | Backend | Prompt processing throughput(tokens/sec) | Token generation throughput(tokens/sec) |
| Qwen3 14B | NVFP4 | TRT-LLM | 5928.95 | 22.71 |
| GPT-OSS-20B | MXFP4 | llama.cpp | 3670.42 | 82.74 |
| GPT-OSS-120B | MXFP4 | llama.cpp | 1725.47 | 55.37 |
| Llama 3.1 8B | NVFP4 | TRT-LLM | 10256.9 | 38.65 |
| Qwen2.5-VL-7B-Instruct | NVFP4 | TRT-LLM | 65831.77 | 41.71 |
| Qwen3 235B(on dual DGX Spark) | NVFP4 | TRT-LLM | 23477.03 | 11.73 |
Bảng 4. Hiệu suất suy luận
NVFP4 : Định dạng dấu chấm động 4 bit được giới thiệu cùng với kiến trúc GPU NVIDIA Blackwell. MXFP4: Microscaling FP4 là định dạng dấu chấm động 4 bit được tạo ra bởi Dự án Tính toán Mở (OCP) . ISL (Độ dài Chuỗi Đầu vào): Số lượng token trong dấu nhắc nhập (còn gọi là token điền trước). Và OSL (Độ dài Chuỗi Đầu ra): Số lượng token được mô hình tạo ra để phản hồi (còn gọi là token giải mã).
Chúng tôi cũng đã kết nối hai máy DGX Sparks với nhau thông qua chip ConnectX-7 của chúng để chạy mô hình Qwen3 235B. Mô hình này sử dụng hơn 120 GB bộ nhớ, bao gồm cả những phát sinh. Các mô hình như vậy thường chạy trên các máy chủ đám mây hoặc trung tâm dữ liệu lớn, nhưng việc chúng có thể chạy trên hai hệ thống DGX Spark cho thấy khả năng thử nghiệm của nhà phát triển được mở rộng đáng kể. Như được hiển thị ở hàng cuối cùng của Bảng 4, thông lượng tạo token trên hai máy DGX Sparks là 11,73 token mỗi giây.
Phiên bản NVFP4 mới của mẫu NVIDIA Nemotron Nano 2 cũng hoạt động tốt trên DGX Spark. Với phiên bản NVFP4, giờ đây bạn có thể đạt được thông lượng cao hơn tới 2 lần mà độ chính xác gần như không bị suy giảm. Tải xuống các model checkpoint từ Hugging Face hoặc dưới dạng NVIDIA NIM .
Bạn có thể sở hữu các máy tính AI dựa trên DGX Spark và chip GB10, tham gia cộng đồng nhà phát triển DGX Spark và bắt đầu hành trình xây dựng AI của bạn ngay hôm nay.
