Nessun prodotto
I prezzi sono IVA esclusa
BOMBOLETTA ARIA COMPRESSA
BOMBOLETTA ARIA COMPRESSA
CAVO PATCH CAT 6 SSTP 1M
CAVO PATCH CAT 6 SSTP 1M
MOUSE B100 BLACK OPTICAL USB oem
MOUSE B100 BLACK OPTICAL USB oem
PROLUNGA ALIMENTAZIONE SCHEDA MADRE
PROLUNGA ALIMENTAZIONE SCHEDA MADRE 4 PIN M/F
COPRI PLUG MODULARE RJ45 GRIGIO
COPRI PLUG MODULARE RJ45 GRIGIO
KIT ADATTATORE HDD-SSD 2.5 IN SLOT
KIT ADATTATORE HDD-SSD 2.5 IN SLOT DA 3.5"
CAVO ALIMENTAZIONE PC
CAVO ALIMENTAZIONE PC
#NVD092 - 900-2G153-0000-000
Nuovo
Disponibilità: Su ordinazione
Attenzione: Ultimi articoli in magazzino!
Disponibile dal:
96GB GDDR7 ECC
24064 Cuda Core - 752 Tensor Core
GPU a Dissipazione Passiva specifica per Server
Parla con un nostro esperto la configurazione del Server
Per gli acquisti della PA siamo presenti sul MePa
NVIDIA RTX PRO 6000 Blackwell Server Edition
GPU professionale Blackwell per data center | 24.064 CUDA Core | 96 GB GDDR7 ECC | 1792 GB/s | PCIe 5.0 x16 | 600W | Raffreddamento passivo | MIG | 4× DisplayPort 2.1b | NVIDIA AI Enterprise
Prestazioni universali AI e visual computing per il data center. La NVIDIA RTX PRO 6000 Blackwell Server Edition è la GPU professionale enterprise progettata per deployment in server e rack, con raffreddamento passivo e form factor FHFL (Full-Height Full-Length) dual-slot da 10,5". Basata sull’architettura Blackwell con GPU GB202 a piena potenza: 24.064 CUDA Core, 752 Tensor Core di quinta generazione, 188 RT Core di quarta generazione e 96 GB di memoria GDDR7 con ECC su bus a 512 bit, per 4000 TOPS AI, 380 TFLOPS RT e 125 TFLOPS FP32.
Progettata per configurazioni multi-GPU ad alta densità in ambienti server, la Server Edition si distingue per il raffreddamento completamente passivo (senza ventole sulla scheda, il flusso d’aria è gestito dal chassis del server), il supporto per NVIDIA AI Enterprise, NVIDIA vGPU Software e NVIDIA Omniverse, e la compatibilità con piattaforme server come NVIDIA OVX, Lenovo ThinkSystem, Dell PowerEdge e HPE ProLiant. Con TDP di 600W e Multi-Instance GPU per fino a 4 istanze isolate, è la GPU universale per inferenza AI, rendering distribuito, HPC, workstation virtuali e workflow multimediali enterprise.
| GPU | NVIDIA RTX PRO 6000 Blackwell Server Edition Architettura: NVIDIA Blackwell (GB202) |
| CUDA Core | 24.064 |
| Tensor Core | 752 (5ª generazione) Supporto FP4, FP8, FP16, BF16, TF32, FP64 4000 AI TOPS (FP4 con sparsità) Transformer Engine di seconda generazione |
| RT Core | 188 (4ª generazione) 380 TFLOPS RTX Mega Geometry (fino a 100× più triangoli ray-traced) |
| Prestazioni FP32 | 125 TFLOPS (precisione singola, boost clock) |
| Memoria GPU | 96 GB GDDR7 con ECC Interfaccia: 512 bit Banda passante: 1792 GB/s |
| Interfaccia di sistema | PCIe 5.0 x16 |
| Uscite video | 4 × DisplayPort 2.1b Fino a 8K @ 240 Hz | Fino a 16K @ 60 Hz |
| Motori video | 4 × NVENC (9ª generazione) — supporto 4:2:2 H.264, HEVC, AV1 4 × NVDEC (6ª generazione) — fino a 2× throughput H.264 |
| Multi-Instance GPU (MIG) | Fino a 4× 24 GB (istanze isolate) Fino a 2× 48 GB Fino a 1× 96 GB Ogni istanza con memoria, cache e compute dedicati e QoS garantita |
| Consumo (TDP) | 600W (Total Board Power) Connettore: 1 × PCIe CEM5 16 pin Cavi ausiliari specifici per server (non inclusi, server-dependent) |
| Raffreddamento | Passivo (senza ventole sulla scheda) Il flusso d’aria è gestito dal sistema di raffreddamento del server/chassis Disponibile anche in versione liquid-cooled (design 6U) |
| Form factor | Full-Height Full-Length (FHFL), dual-slot, 10,5" Compatibile con chassis server 2U+ e rack Staffa full-height (3U) inclusa |
| API grafiche e compute | DirectX 12, Shader Model 6.6 | OpenGL 4.6 | Vulkan 1.3 CUDA 12.8 | OpenCL 3.0 | DirectCompute |
| Software enterprise | NVIDIA RTX Enterprise Software (driver professionali) NVIDIA AI Enterprise (licenza separata) NVIDIA vGPU Software (vApps, vPC, vWS, vCS) NVIDIA Omniverse Enterprise CUDA-X Libraries (RAPIDS, cuDNN, TensorRT, Triton) |
| Piattaforme server compatibili | NVIDIA OVX | Lenovo ThinkSystem | Dell PowerEdge | HPE ProLiant e altri server NVIDIA-Certified |
| Tecnologie professionali | Neural Shaders | DLSS 4 Multi Frame Generation RTX Mega Geometry | Rendering neurale AI Management Processor Transformer Engine 2ª gen |
* Le prestazioni di picco (TOPS, TFLOPS) sono basate sulla frequenza GPU Boost Clock. I TOPS AI FP4 si riferiscono alla precisione FP4 effettiva con sparsità. La Server Edition condivide lo stesso die GB202 e TDP 600W della Workstation Edition, con prestazioni di picco equivalenti. La differenza è nel form factor (FHFL 10,5" vs extended height 12"), nel raffreddamento (passivo vs double-flow-through) e nel software enterprise supportato (vGPU, AI Enterprise, Omniverse). I cavi di alimentazione ausiliari sono specifici per ogni piattaforma server e non sono inclusi con la GPU.
Raffreddamento passivo per deployment in server e rack. A differenza delle versioni Workstation e Max-Q con ventole integrate, la Server Edition è completamente passiva: nessuna ventola sulla scheda, il flusso d’aria è gestito interamente dal sistema di raffreddamento del chassis server. Questo la rende ideale per ambienti rack ad alta densità dove il raffreddamento è centralizzato e il rumore delle singole GPU deve essere eliminato.
96 GB GDDR7 ECC con 4000 AI TOPS per inferenza e training enterprise. La stessa potenza compute della Workstation Edition (600W, 4000 TOPS, 125 TFLOPS) in un form factor server-ready. 96 GB di VRAM ECC per modelli linguistici fino a 70B+ parametri, inferenza multimodale, RAG, fine-tuning locale e workflow AI enterprise senza dipendenza dal cloud.
Stack software enterprise completo: AI Enterprise, vGPU, Omniverse. La Server Edition supporta l’intero ecosistema software NVIDIA per il data center: AI Enterprise per deployment di soluzioni AI in produzione, vGPU Software per virtualizzazione (vApps, vPC, vWS, vCS), Omniverse Enterprise per digital twin e simulazione 3D. Licenze separate per ciascun modulo.
Multi-Instance GPU per ambienti multi-utente e multi-workload. MIG suddivide una singola RTX PRO 6000 in fino a 4 istanze da 24 GB ciascuna, completamente isolate con QoS garantita. Per deployment dove più utenti accedono alla stessa GPU in modo sicuro: workstation virtuali, inferenza concorrente, rendering distribuito e ambienti di sviluppo condivisi.
4× NVENC/NVDEC di nuova generazione per workflow video e streaming. Quattro motori NVENC di nona generazione con encoding 4:2:2 e quattro NVDEC di sesta generazione con throughput H.264 raddoppiato: la piattaforma ideale per transcodifica video su scala, live broadcasting, post-produzione multi-stream e inferenza AI su contenuti multimediali.
Form factor FHFL 10,5" compatibile con chassis 2U+. A differenza della Workstation Edition (12", altezza estesa, non rack-compatible), la Server Edition con i suoi 10,5" e il profilo FHFL standard si installa in chassis server 2U e superiori, incluse le piattaforme NVIDIA OVX, Lenovo ThinkSystem, Dell PowerEdge e HPE ProLiant.
AI factory e inferenza enterprise su scala — Con 4000 TOPS AI, 96 GB ECC e supporto NVIDIA AI Enterprise, la RTX PRO 6000 Server Edition alimenta infrastrutture AI aziendali per inferenza LLM, AI agentiva, computer vision e generative AI in produzione. Multi-GPU in rack per scalare le risorse di calcolo in base alla domanda.
Rendering distribuito e digital twin con Omniverse — I 188 RT Core con RTX Mega Geometry e 96 GB di VRAM accelerano workflow di rendering distribuito su più GPU in rack, creazione di digital twin industriali con OpenUSD, generazione di dati sintetici e simulazione fisica in tempo reale con NVIDIA Omniverse Enterprise.
Workstation virtuali e VDI ad alte prestazioni — Con NVIDIA vGPU Software, una singola RTX PRO 6000 può alimentare fino a 4 workstation virtuali isolate (via MIG) con risorse GPU dedicate, per team di progettazione CAD/BIM, VFX, ingegneria e data science che accedono da remoto a risorse GPU enterprise.
HPC e simulazione scientifica in data center — 125 TFLOPS FP32, CUDA 12.8, PCIe 5.0 e 96 GB ECC: la piattaforma per CFD, FEA, genomica, drug discovery e modellazione sismica in ambienti server dove la densità di calcolo per unità rack è un fattore critico.
Transcodifica video, broadcasting e media processing — Quattro motori NVENC e NVDEC di nuova generazione con supporto 4:2:2 per deployment server di transcodifica live, CDN, post-produzione centralizzata e analisi video AI su scala enterprise.
Vuoi un server con GPU NVIDIA RTX PRO 6000?
Syspack progetta e assembla server e workstation multi-GPU per AI, rendering e calcolo enterprise su piattaforme certificate NVIDIA, con configurazioni su misura e assistenza dedicata.
GPU non vendibile
GPU non vendibile singolarmente.possiamo fornirla con l'acquisto di un server completo,offriamo soluzioni fino ad 8 H200Parla con un nostro esperto la configurazione del ServerPer gli acquisti della PA siamo presenti sul MePa
Codice prodotto: NVD069 - 900-21010-0040-000Parla con un nostro esperto la
Parla con un nostro esperto la configurazione del ServerPer gli acquisti della PA siamo presenti sul MePa
Codice prodotto: NVD096 -Parla con un nostro esperto la
Parla con un nostro esperto la configurazione del ServerPer gli acquisti della PA siamo presenti sul MePa
Codice prodotto: NVD097 -Parla con un nostro esperto la
Parla con un nostro esperto la configurazione del ServerPer gli acquisti della PA siamo presenti sul MePa
Codice prodotto: NVD098 -Parla con un nostro esperto la
Parla con un nostro esperto la configurazione del ServerPer gli acquisti della PA siamo presenti sul MePa
Codice prodotto: NVD099 -Hai bisogno di un server AI ? Parla
Hai bisogno di un server AI ? Parla con un nostro espertoPer gli acquisti della PA siamo presenti sul MePa
Hai bisogno di un server AI ? Parla
Hai bisogno di un server AI ? Parla con un nostro espertoPer gli acquisti della PA siamo presenti sul MePa
Hai bisogno di un server AI ? Parla
Hai bisogno di un server AI ? Parla con un nostro espertoPer gli acquisti della PA siamo presenti sul MePa