Privacy Policy Cookie Policy

ASUS - ExpertCenter Pro ET900N G3 Nvidia DGX Station GB300 RAM 775GB Nvidia DGX OS

#ASV571 -

Nuovo

Contattaci per essere avvisato non appena il prodotto sarà ordinabile.

Possibilità di Noleggio Operativo da 24 a 60 mesi

Presenti sul MePa

Maggiori dettagli

Disponibilità: Prodotto Esaurito

ASUS ExpertCenter Pro ET900N G3

Supercomputer AI da scrivania — Basato su architettura NVIDIA DGX Station


Un supercomputer AI in formato desktop. L’ASUS ExpertCenter Pro ET900N G3 porta la potenza computazionale di un data center direttamente sulla scrivania, in un case tower che non richiede infrastruttura server, rack o raffreddamento industriale.

Al suo interno lavora il superchip NVIDIA GB300 Grace Blackwell Ultra, che integra CPU e GPU in un’unica piattaforma unificata con un pool di memoria coerente fino a 775 GB e prestazioni AI fino a 20 PFLOPS. Progettato per chi sviluppa, addestra e distribuisce modelli di intelligenza artificiale su scala, senza dipendere dal cloud.

Scheda Tecnica

SuperchipNVIDIA GB300 Grace Blackwell Ultra Desktop Superchip — integra CPU NVIDIA Grace (architettura ARM) e GPU NVIDIA Blackwell Ultra, collegate tramite interconnessione NVIDIA NVLink-C2C ad alta banda e bassa latenza
GPUNVIDIA Blackwell Ultra con CUDA Core di ultima generazione e Tensor Core di quinta generazione, con supporto FP4 (floating point a 4 bit) per massimizzare prestazioni e capacità dei modelli AI mantenendo alta precisione
Prestazioni AIFino a 20 PFLOPS (PetaFLOPS) in precisione FP4
MemoriaFino a 775 GB di memoria coerente unificata CPU-GPU (LPDDR5X per la CPU Grace + HBM3E per la GPU Blackwell Ultra)
Interconnessione CPU-GPUNVIDIA NVLink-C2C — interconnessione chip-to-chip che consente trasferimenti dati coerenti ad alta banda tra CPU e GPU, superando i colli di bottiglia delle architetture tradizionali
NetworkingNVIDIA ConnectX-8 SuperNIC — fino a 800 Gb/s, ottimizzata per carichi di lavoro AI su scala hyperscale
Espandibilità3 × slot PCIe x16 (per GPU aggiuntive o acceleratori AI)
3 × slot M.2 per SSD NVMe
AlimentazioneConnettori ATX + EPS 12V standard
3 × connettori 12V-2x6 dedicati GPU (fino a 1.800W per le GPU)
Sistema operativoNVIDIA DGX OS — distribuzione Linux (Ubuntu) ottimizzata per la piattaforma DGX, con driver, configurazioni e strumenti diagnostici specifici. Stack software AI NVIDIA completo: CUDA, TensorRT, librerie ML e data science
Multi-Instance GPUSupporto NVIDIA MIG — partizionamento della GPU in fino a 7 istanze indipendenti, ciascuna con memoria HBM dedicata, cache e core di calcolo isolati per sviluppo multi-utente simultaneo
ScalabilitàInterconnessione tra più sistemi DGX Station | Scaling verso NVIDIA DGX Cloud e infrastrutture accelerate data center/cloud
Form factorDesktop tower deskside — non richiede installazione rack, raffreddamento industriale o infrastruttura server dedicata
RaffreddamentoDesign di raffreddamento ottimizzato (specifiche dettagliate in fase di pubblicazione)

* Specifiche preliminari, soggette a variazione. La scheda verrà aggiornata al lancio commerciale con i dati definitivi del produttore.

Punti di forza

Potenza da data center, formato da ufficio. 20 PFLOPS di potenza AI in un case tower che sta sotto la scrivania, senza rack, senza sale server, senza raffreddamento industriale.

Memoria unificata da 775 GB. Il pool di memoria coerente CPU-GPU è più del doppio rispetto alla VRAM combinata di una workstation con quattro GPU RTX 6000 Ada. Possibilità di lavorare con modelli AI di scala molto superiore senza colli di bottiglia nei trasferimenti memoria.

Architettura Superchip integrata. CPU e GPU non sono componenti separati collegati da un bus PCIe: sono un unico superchip connesso via NVLink-C2C, con latenza drasticamente ridotta e banda dati elevata.

Pronto all’uso con lo stack AI NVIDIA completo. DGX OS, CUDA, TensorRT e tutte le librerie AI NVIDIA preinstallate e ottimizzate. Operativo per addestramento, fine-tuning e inferenza dal primo avvio.

Multi-utente con NVIDIA MIG. La GPU può essere partizionata fino a 7 istanze isolate, permettendo a più sviluppatori di lavorare contemporaneamente sullo stesso sistema.

Espandibile e scalabile. 3 slot PCIe x16, networking a 800 Gb/s e possibilità di interconnessione multi-nodo per crescere con le esigenze del progetto.

Scenari d’uso

Laboratori di ricerca AI e università — Addestramento e fine-tuning di Large Language Model, modelli multi-modali e reti neurali profonde, con la possibilità di lavorare interamente in locale su dati sensibili o proprietari.

Team di sviluppo AI aziendali — Prototipazione rapida, sperimentazione su modelli di grandi dimensioni e deployment di inferenza locale per applicazioni AI enterprise, con un sistema chiavi in mano.

Simulazione scientifica e ingegneristica — Simulazioni computazionali complesse (fluidodinamica, genomica, drug discovery, modelli climatici) che richiedono enormi pool di memoria e potenza di calcolo parallelo.

Studi VFX e produzione creativa avanzata — Rendering AI-assistito, generazione procedurale di contenuti e pipeline di produzione che richiedono potenza GPU massiva e memoria unificata per dataset ad alta risoluzione.

Settore finanziario e quantitativo — Sviluppo e iterazione rapida di modelli di deep learning per trading algoritmico, analisi del rischio e simulazioni finanziarie in tempo reale, con dati che restano in-house.


Interessato all’ASUS ExpertCenter Pro ET900N G3?

I primi arrivi saranno limitati. Contattaci per essere avvisato non appena il prodotto sarà disponibile e per ricevere informazioni su configurazioni e noleggio operativo.

Contattaci

Prodotti Alternativi

Scorri