Nessun prodotto
I prezzi sono IVA esclusa
BOMBOLETTA ARIA COMPRESSA
BOMBOLETTA ARIA COMPRESSA
CAVO PATCH CAT 6 SSTP 1M
CAVO PATCH CAT 6 SSTP 1M
MOUSE B100 BLACK OPTICAL USB oem
MOUSE B100 BLACK OPTICAL USB oem
PROLUNGA ALIMENTAZIONE SCHEDA MADRE
PROLUNGA ALIMENTAZIONE SCHEDA MADRE 4 PIN M/F
COPRI PLUG MODULARE RJ45 GRIGIO
COPRI PLUG MODULARE RJ45 GRIGIO
KIT ADATTATORE HDD-SSD 2.5 IN SLOT
KIT ADATTATORE HDD-SSD 2.5 IN SLOT DA 3.5"
CAVO ALIMENTAZIONE PC
CAVO ALIMENTAZIONE PC
#NVD069 - 900-21010-0040-000
Nuovo
Disponibilità:
Attenzione: Ultimi articoli in magazzino!
Disponibile dal:
GPU non vendibile singolarmente.
possiamo fornirla con l'acquisto di un server completo,
offriamo soluzioni fino ad 8 H200
Parla con un nostro esperto la configurazione del Server
Per gli acquisti della PA siamo presenti sul MePa
NVIDIA H200 NVL Tensor Core GPU
GPU AI/HPC Hopper | 16.896 CUDA Core | 141 GB HBM3e | 4,8 TB/s | PCIe 5.0 x16 | 3.958 TFLOPS FP8 | NVLink bridge fino a 4 GPU | Raffreddamento passivo | MIG fino a 7 istanze | NVIDIA AI Enterprise 5 anni inclusa
La prima GPU con HBM3e, nel formato PCIe per server enterprise air-cooled. La NVIDIA H200 NVL è basata sull’architettura Hopper (GH100) con 16.896 CUDA Core, 528 Tensor Core di quarta generazione con Transformer Engine FP8, e la prima implementazione di memoria HBM3e: 141 GB a 4,8 TB/s di banda passante — quasi il doppio della capacità e 1,4 volte la banda dell’H100. Questa combinazione raddoppia le prestazioni di inferenza LLM rispetto all’H100 e accelera fino a 110 volte le applicazioni HPC memory-intensive rispetto a soluzioni basate su sola CPU.
La versione NVL è il formato PCIe 5.0 x16, dual-slot, con raffreddamento passivo, progettato per server enterprise air-cooled con configurazioni flessibili. Supporta fino a 4 GPU collegate tramite NVLink bridge ed è un drop-in replacement per A100 e H100 PCIe nelle infrastrutture esistenti. Include una sottoscrizione quinquennale a NVIDIA AI Enterprise con NVIDIA NIM per il deployment accelerato di soluzioni AI generativa in produzione.
| GPU | NVIDIA H200 NVL Tensor Core GPU Architettura: NVIDIA Hopper (GH100) PNY Part Number: NVH200NVLTCGPU-KIT |
| CUDA Core | 16.896 |
| Tensor Core | 528 (4ª generazione) Transformer Engine con precisione FP8/FP16 mixed |
| Prestazioni compute | FP64: 34 TFLOPS FP64 Tensor Core: 67 TFLOPS FP32: 67 TFLOPS TF32 Tensor Core: 989 TFLOPS* BF16 Tensor Core: 1.979 TFLOPS* FP16 Tensor Core: 1.979 TFLOPS* FP8 Tensor Core: 3.958 TFLOPS* INT8 Tensor Core: 3.958 TOPS* * Con sparsità |
| Memoria GPU | 141 GB HBM3e Banda passante: 4,8 TB/s (vs H100: 80 GB HBM3 a 3,35 TB/s — +76% capacità, +43% banda) |
| Interfaccia di sistema | PCIe 5.0 x16 |
| Interconnessione multi-GPU | NVIDIA NVLink bridge Fino a 4 GPU (configurazioni 2-way o 4-way) (NVLink point-to-point 900 GB/s bidirezionali disponibile solo su variante SXM5) |
| Multi-Instance GPU (MIG) | Fino a 7 istanze isolate (2ª generazione) Ogni istanza con memoria, cache e compute dedicati Supporto multi-tenant in ambienti virtualizzati |
| Decoder video | NVDEC hardware decoder integrato |
| Confidential Computing | Supportato — protezione dati e modelli AI durante l’esecuzione sulla GPU |
| Consumo (TDP) | 600W (Max Thermal Design Power) Connettore: PCIe CEM5 16 pin Cavi ausiliari specifici per server (non inclusi) |
| Raffreddamento | Passivo (senza ventole sulla scheda) Richiede chassis server con flusso d’aria adeguato |
| Form factor | PCIe, Full-Height Full-Length (FHFL), dual-slot Drop-in replacement per A100 PCIe e H100 PCIe |
| Software incluso | NVIDIA AI Enterprise — sottoscrizione 5 anni inclusa NVIDIA NIM (microservizi per deployment AI generativa) Supporto per CUDA, cuDNN, TensorRT, RAPIDS, Triton Supporto per NVIDIA Omniverse Enterprise (licenza separata) |
| Piattaforme server compatibili | Lenovo ThinkSystem | Dell PowerEdge | HPE ProLiant e altri server NVIDIA-Certified con slot PCIe 5.0 x16 Compatibile con infrastrutture A100/H100 PCIe esistenti |
* Specifiche preliminari NVIDIA, soggette a variazioni. Le prestazioni con sparsità richiedono modelli ottimizzati per structured sparsity. La versione NVL (PCIe) condivide lo stesso die GH100 della versione SXM5, con differenze nel TDP (600W NVL vs 700W SXM), nell’interconnessione multi-GPU (NVLink bridge vs NVLink point-to-point a 900 GB/s) e nel form factor. I cavi di alimentazione ausiliari sono specifici per ogni piattaforma server e non sono inclusi. La H200 NVL è soggetta a restrizioni all’esportazione determinate dal governo USA.
141 GB HBM3e a 4,8 TB/s: quasi il doppio della capacità dell’H100. La H200 è la prima GPU al mondo con memoria HBM3e. I 141 GB (+76% rispetto ai 80 GB dell’H100) consentono di ospitare modelli AI da 70B a 180B parametri in locale su una singola GPU, estendere le finestre di contesto per inferenza LLM e lavorare con dataset HPC di dimensioni significativamente superiori. La banda passante di 4,8 TB/s (+43%) accelera ogni workflow memory-bound.
Fino a 2× le prestazioni di inferenza LLM rispetto all’H100. La combinazione di 141 GB di HBM3e e 4,8 TB/s di banda raddoppia il throughput di inferenza su modelli come Llama2 70B rispetto all’H100 SXM, con batch size più grandi e contesti più lunghi. Per GPT-3 175B su 8 GPU, il miglioramento è di 1,6 volte. Tutto questo con lo stesso profilo energetico dell’H100, riducendo TCO ed energia del 50% per carico di lavoro.
Drop-in replacement per A100 e H100 PCIe. La H200 NVL è elettricamente e meccanicamente compatibile con i server che ospitano A100 e H100 in formato PCIe. L’upgrade non richiede modifiche all’infrastruttura: stessi slot, stesso form factor, stesse piattaforme server certificate. Un percorso di migrazione immediato verso prestazioni AI e HPC significativamente superiori.
MIG di seconda generazione con fino a 7 istanze isolate. Multi-Instance GPU permette di partizionare una singola H200 NVL in fino a 7 istanze completamente isolate, ciascuna con risorse dedicate e QoS garantita. Ideale per ambienti multi-tenant, virtualizzazione GPU e deployment dove più carichi di lavoro AI devono coesistere in sicurezza sulla stessa GPU.
NVIDIA AI Enterprise inclusa per 5 anni. A differenza di molte GPU data center dove la licenza software è separata, la H200 NVL include una sottoscrizione quinquennale a NVIDIA AI Enterprise con NVIDIA NIM — microservizi per il deployment accelerato di soluzioni AI generativa in produzione. Sicurezza enterprise, stabilità e supporto professionale inclusi.
Confidential Computing integrato. La H200 supporta il Confidential Computing nativo, proteggendo dati e modelli AI durante l’esecuzione sulla GPU. Una funzionalità critica per deployment in settori regolamentati (sanità, finanza, difesa) dove la sicurezza dei dati durante il processing è un requisito normativo.
Inferenza LLM enterprise su scala — 141 GB di HBM3e per modelli da 70B+ parametri su singola GPU, Transformer Engine FP8 per throughput massimo, NVIDIA NIM per deployment in produzione: la piattaforma ideale per servizi di inferenza AI generativa, chatbot enterprise, RAG e AI agentiva con SLA stringenti.
Fine-tuning di modelli fondazionali — I 528 Tensor Core con Transformer Engine FP8 accelerano il fine-tuning fino a 5,5 volte rispetto all’A100. Con 141 GB di memoria, è possibile eseguire il fine-tuning di modelli di grandi dimensioni in poche ore invece di giorni, per personalizzare LLM su dati proprietari e domini specifici.
HPC e simulazione scientifica memory-intensive — 67 TFLOPS FP64, 4,8 TB/s di banda HBM3e e fino a 110 volte le prestazioni di applicazioni come MILC rispetto a soluzioni CPU: la H200 NVL accelera CFD, genomica, modellazione molecolare, fisica delle particelle, astrofisica e ogni workflow HPC dove la banda di memoria è il collo di bottiglia.
Upgrade infrastrutture A100/H100 esistenti — Come drop-in replacement PCIe, la H200 NVL offre un percorso di upgrade immediato per data center e server rack con GPU A100 o H100: stessi slot, stesse piattaforme, prestazioni AI e HPC significativamente superiori senza riprogettazione dell’infrastruttura.
Ambienti multi-tenant e virtualizzazione GPU — MIG di seconda generazione con fino a 7 istanze isolate, Confidential Computing per la sicurezza dei dati e NVIDIA AI Enterprise per la gestione: la H200 NVL è la GPU per deployment enterprise dove più utenti, applicazioni e modelli devono coesistere con isolamento e QoS garantiti.
Vuoi un server AI con GPU NVIDIA H200?
Syspack configura e assembla server AI e workstation per inferenza, training e HPC con GPU NVIDIA data center su piattaforme certificate.
Parla con un nostro esperto la
Parla con un nostro esperto la configurazione del ServerPer gli acquisti della PA siamo presenti sul MePa
Codice prodotto: NVD096 -Parla con un nostro esperto la
Parla con un nostro esperto la configurazione del ServerPer gli acquisti della PA siamo presenti sul MePa
Codice prodotto: NVD097 -Parla con un nostro esperto la
Parla con un nostro esperto la configurazione del ServerPer gli acquisti della PA siamo presenti sul MePa
Codice prodotto: NVD098 -Parla con un nostro esperto la
Parla con un nostro esperto la configurazione del ServerPer gli acquisti della PA siamo presenti sul MePa
Codice prodotto: NVD099 -Hai bisogno di un server AI ? Parla
Hai bisogno di un server AI ? Parla con un nostro espertoPer gli acquisti della PA siamo presenti sul MePa
Hai bisogno di un server AI ? Parla
Hai bisogno di un server AI ? Parla con un nostro espertoPer gli acquisti della PA siamo presenti sul MePa
Hai bisogno di un server AI ? Parla
Hai bisogno di un server AI ? Parla con un nostro espertoPer gli acquisti della PA siamo presenti sul MePa
96GB GDDR7 ECC24064 Cuda Core - 752
96GB GDDR7 ECC24064 Cuda Core - 752 Tensor CoreGPU a Dissipazione Passiva specifica per ServerParla con un nostro esperto la configurazione del ServerPer gli acquisti della PA siamo presenti sul MePa