Privacy Policy Cookie Policy

MSI - EdgeXpert AI GB10 128GB SSD 4TB Nvidia DGX OS

#MSI814 - 9S6-C9311-32S

Nuovo

Disponibilità: Su ordinazione

AI Perfomance 1.000 TOPS in FP4

128GB - SSD 4TB

Possibilità di Noleggio Operativo da 24 fino a 60 mesi

Presenti sul MePa

Maggiori dettagli

4 392,62 €   IVA Esclusa

5 359,00 €   IVA Inclusa

- +

MSI EdgeXpert MS-C931

Supercomputer AI desktop | Piattaforma NVIDIA DGX Spark | GB10 Grace Blackwell | 128 GB LPDDR5x unificata | 1.000 AI TOPS FP4 | ConnectX-7 | 151×151×52 mm | 1,2 kg


La piattaforma NVIDIA DGX Spark nel formato MSI EdgeXpert. L’MSI EdgeXpert MS-C931 è un supercomputer AI desktop basato sulla piattaforma NVIDIA DGX Spark, con il superchip NVIDIA GB10 Grace Blackwell al centro: una GPU Blackwell e una CPU ARM a 20 core (10× Cortex-X925 + 10× Cortex-A725) collegate tramite NVLink C2C, con 128 GB di memoria LPDDR5x unificata condivisa coerentemente tra CPU e GPU. Prestazioni di picco: 1.000 AI TOPS in FP4 con sparsità. Formato compatto da 151×151×52 mm e 1,2 kg.

I 128 GB di memoria unificata consentono di eseguire localmente modelli AI fino a 200 miliardi di parametri — inferenza LLM, fine-tuning, prototipazione e sviluppo di agenti AI autonomi — senza dipendenza dal cloud e con piena privacy dei dati. Lo stack software NVIDIA AI è preinstallato su DGX OS. ConnectX-7 Smart NIC con porte QSFP per collegare due sistemi in cluster (fino a 405 miliardi di parametri con 256 GB combinati). Connettività completa: 10 GbE, Wi-Fi 7, Bluetooth 5.3, quattro USB 3.2 Type-C e HDMI 2.1a. L’architettura software è compatibile con l’ecosistema DGX data center e cloud: i modelli sviluppati localmente su EdgeXpert possono essere migrati al data center o al cloud con modifiche minime al codice.

Scheda Tecnica

SistemaMSI EdgeXpert MS-C931
Piattaforma: NVIDIA DGX Spark
ArchitetturaNVIDIA GB10 Grace Blackwell Superchip
NVLink C2C tra CPU e GPU (fino a 5× la banda PCIe 5.0)
GPUNVIDIA Blackwell Architecture
Tensor Core di 5ª generazione (supporto FP4)
Prestazioni AI1.000 AI TOPS (FP4 con sparsità)
CPU20 core ARM
10× Cortex-X925 (performance) + 10× Cortex-A725 (efficiency)
Memoria128 GB LPDDR5x unificata (CPU + GPU condivisa)
Interfaccia: 256 bit
Banda passante: 273 GB/s
Modelli AI supportatiFino a 200 miliardi di parametri (singolo)
Fino a 405 miliardi di parametri (due sistemi in cluster)
Storage4TB NVMe M.2 con self-encryption
Rete ad alte prestazioniNVIDIA ConnectX-7 Smart NIC
Per collegamento cluster dual-system
Rete standard1× RJ-45 10 GbE
Wi-Fi 7 | Bluetooth 5.3
Porte I/O4× USB 3.2 Type-C
1× HDMI 2.1a
Audio HDMI multicanale
Motori video1× NVENC | 1× NVDEC
Dimensioni (L × P × A)151 × 151 × 52 mm
Volume: ~1,19 litri
Peso1,2 kg
Sistema operativoNVIDIA DGX OS
Stack software NVIDIA AI preinstallato
Framework AI supportatiNVIDIA Isaac (robotica) | NVIDIA Holoscan (medicale)
NVIDIA Metropolis (smart city) | NVIDIA Riva (retail/NLP)
PyTorch | TRT-LLM | NVIDIA NIM

* Le prestazioni di 1.000 AI TOPS si riferiscono alla precisione FP4 con sparsità. La memoria da 128 GB è unificata e condivisa coerentemente tra CPU e GPU tramite NVLink C2C: non è VRAM dedicata ma memoria di sistema accessibile da entrambi i processori. La banda passante di 273 GB/s è inferiore a quella della GDDR7 delle GPU discrete. È richiesto l’alimentatore fornito in dotazione per prestazioni ottimali.

Punti di forza

128 GB di memoria unificata per modelli AI fino a 200 miliardi di parametri. La memoria LPDDR5x da 128 GB è condivisa coerentemente tra CPU e GPU senza overhead di trasferimento: il modello risiede in un unico spazio di indirizzamento. Questo elimina il vincolo della VRAM delle GPU discrete e consente di caricare ed eseguire localmente modelli AI di dimensioni che richiederebbero altrimenti GPU con 96+ GB di VRAM dedicata.

NVLink C2C con banda fino a 5 volte superiore a PCIe 5.0. Il collegamento NVLink C2C tra la GPU Blackwell e la CPU ARM garantisce un modello di memoria integrato con trasferimenti dati a velocità molto superiori rispetto al bus PCIe tradizionale, eliminando il collo di bottiglia tipico delle architetture CPU+GPU discrete dove i dati devono attraversare il bus PCIe.

Scalabilità a 405 miliardi di parametri con ConnectX-7. La rete ad alte prestazioni NVIDIA ConnectX-7 consente di collegare due sistemi MSI EdgeXpert in cluster, raddoppiando la memoria a 256 GB e supportando modelli fino a 405 miliardi di parametri. Una soluzione per team che necessitano di capacità superiore senza infrastruttura server.

Piattaforma per applicazioni edge AI con framework NVIDIA. Oltre allo sviluppo AI generico, l’EdgeXpert è una piattaforma ideale per applicazioni edge basate sui framework NVIDIA: Isaac per la robotica, Holoscan per dispositivi medicali, Metropolis per smart city e videoanalisi, Riva per NLP e applicazioni retail. Un sistema di sviluppo e prototipazione che replica l’ambiente di deployment edge.

Continuità dal desktop al data center e al cloud. L’architettura software NVIDIA AI consente di sviluppare localmente su EdgeXpert e migrare al data center DGX o al cloud NVIDIA con modifiche minime al codice. Stessi framework, stesse librerie, stesse API: il lavoro svolto sulla scrivania è immediatamente scalabile in produzione.

Formato desktop compatto: 151×151×52 mm, 1,2 kg. Un supercomputer AI da 1.000 TOPS in poco più di un litro di volume. Posizionabile sulla scrivania accanto al monitor, trasportabile, con consumi contenuti e senza requisiti di infrastruttura: alimentazione standard, connettività Wi-Fi 7 o Ethernet, un cavo HDMI per il display.

Scenari d’uso

Sviluppo e prototipazione AI enterprise — Per sviluppatori AI e data scientist che necessitano di prototipare, testare e validare modelli fino a 200 miliardi di parametri in locale, con la possibilità di migrare al data center aziendale o al cloud. Privacy dei dati garantita, cicli di iterazione accelerati, indipendenza dal cloud.

Inferenza LLM locale e agenti AI autonomi — I 1.000 TOPS e i 128 GB di memoria unificata consentono di eseguire modelli di reasoning e assistenti AI localmente. Per deployment enterprise dove i dati sensibili non possono lasciare la rete locale e la latenza del cloud non è accettabile.

Laboratori accademici e formazione AI — Una piattaforma AI completa per aule e laboratori universitari: gli studenti possono svolgere attività di training, fine-tuning e inferenza direttamente in loco, con la possibilità di scalare al server room dell’istituto quando servono risorse aggiuntive.

Sviluppo applicazioni edge AI — Con il supporto nativo dei framework NVIDIA Isaac, Holoscan, Metropolis e Riva, l’EdgeXpert è una piattaforma di sviluppo per applicazioni AI edge: robotica, dispositivi medicali, videoanalisi intelligente, retail e smart city.

Fine-tuning di modelli AI con dati proprietari — I 128 GB di memoria consentono il fine-tuning di modelli di grandi dimensioni con dataset proprietari, direttamente in locale. Per aziende che necessitano di specializzare modelli AI sui propri dati senza esporli a servizi cloud di terze parti.


Vuoi un supercomputer AI desktop per il tuo team?

Syspack fornisce soluzioni AI NVIDIA per sviluppatori, ricercatori e imprese, dalla workstation desktop al supercomputer da scrivania.

Parla con un esperto

Prodotti Alternativi

Scorri