Nessun prodotto
I prezzi sono IVA esclusa
BOMBOLETTA ARIA COMPRESSA
BOMBOLETTA ARIA COMPRESSA
CAVO PATCH CAT 6 SSTP 1M
CAVO PATCH CAT 6 SSTP 1M
MOUSE B100 BLACK OPTICAL USB oem
MOUSE B100 BLACK OPTICAL USB oem
PROLUNGA ALIMENTAZIONE SCHEDA MADRE
PROLUNGA ALIMENTAZIONE SCHEDA MADRE 4 PIN M/F
COPRI PLUG MODULARE RJ45 GRIGIO
COPRI PLUG MODULARE RJ45 GRIGIO
KIT ADATTATORE HDD-SSD 2.5 IN SLOT
KIT ADATTATORE HDD-SSD 2.5 IN SLOT DA 3.5"
CAVO ALIMENTAZIONE PC
CAVO ALIMENTAZIONE PC
#MSI814 - 9S6-C9311-32S
Nuovo
Disponibilità: Su ordinazione
Attenzione: Ultimi articoli in magazzino!
Disponibile dal:
AI Perfomance 1.000 TOPS in FP4
128GB - SSD 4TB
Possibilità di Noleggio Operativo da 24 fino a 60 mesi
Presenti sul MePa
MSI EdgeXpert MS-C931
Supercomputer AI desktop | Piattaforma NVIDIA DGX Spark | GB10 Grace Blackwell | 128 GB LPDDR5x unificata | 1.000 AI TOPS FP4 | ConnectX-7 | 151×151×52 mm | 1,2 kg
La piattaforma NVIDIA DGX Spark nel formato MSI EdgeXpert. L’MSI EdgeXpert MS-C931 è un supercomputer AI desktop basato sulla piattaforma NVIDIA DGX Spark, con il superchip NVIDIA GB10 Grace Blackwell al centro: una GPU Blackwell e una CPU ARM a 20 core (10× Cortex-X925 + 10× Cortex-A725) collegate tramite NVLink C2C, con 128 GB di memoria LPDDR5x unificata condivisa coerentemente tra CPU e GPU. Prestazioni di picco: 1.000 AI TOPS in FP4 con sparsità. Formato compatto da 151×151×52 mm e 1,2 kg.
I 128 GB di memoria unificata consentono di eseguire localmente modelli AI fino a 200 miliardi di parametri — inferenza LLM, fine-tuning, prototipazione e sviluppo di agenti AI autonomi — senza dipendenza dal cloud e con piena privacy dei dati. Lo stack software NVIDIA AI è preinstallato su DGX OS. ConnectX-7 Smart NIC con porte QSFP per collegare due sistemi in cluster (fino a 405 miliardi di parametri con 256 GB combinati). Connettività completa: 10 GbE, Wi-Fi 7, Bluetooth 5.3, quattro USB 3.2 Type-C e HDMI 2.1a. L’architettura software è compatibile con l’ecosistema DGX data center e cloud: i modelli sviluppati localmente su EdgeXpert possono essere migrati al data center o al cloud con modifiche minime al codice.
| Sistema | MSI EdgeXpert MS-C931 Piattaforma: NVIDIA DGX Spark |
| Architettura | NVIDIA GB10 Grace Blackwell Superchip NVLink C2C tra CPU e GPU (fino a 5× la banda PCIe 5.0) |
| GPU | NVIDIA Blackwell Architecture Tensor Core di 5ª generazione (supporto FP4) |
| Prestazioni AI | 1.000 AI TOPS (FP4 con sparsità) |
| CPU | 20 core ARM 10× Cortex-X925 (performance) + 10× Cortex-A725 (efficiency) |
| Memoria | 128 GB LPDDR5x unificata (CPU + GPU condivisa) Interfaccia: 256 bit Banda passante: 273 GB/s |
| Modelli AI supportati | Fino a 200 miliardi di parametri (singolo) Fino a 405 miliardi di parametri (due sistemi in cluster) |
| Storage | 4TB NVMe M.2 con self-encryption |
| Rete ad alte prestazioni | NVIDIA ConnectX-7 Smart NIC Per collegamento cluster dual-system |
| Rete standard | 1× RJ-45 10 GbE Wi-Fi 7 | Bluetooth 5.3 |
| Porte I/O | 4× USB 3.2 Type-C 1× HDMI 2.1a Audio HDMI multicanale |
| Motori video | 1× NVENC | 1× NVDEC |
| Dimensioni (L × P × A) | 151 × 151 × 52 mm Volume: ~1,19 litri |
| Peso | 1,2 kg |
| Sistema operativo | NVIDIA DGX OS Stack software NVIDIA AI preinstallato |
| Framework AI supportati | NVIDIA Isaac (robotica) | NVIDIA Holoscan (medicale) NVIDIA Metropolis (smart city) | NVIDIA Riva (retail/NLP) PyTorch | TRT-LLM | NVIDIA NIM |
* Le prestazioni di 1.000 AI TOPS si riferiscono alla precisione FP4 con sparsità. La memoria da 128 GB è unificata e condivisa coerentemente tra CPU e GPU tramite NVLink C2C: non è VRAM dedicata ma memoria di sistema accessibile da entrambi i processori. La banda passante di 273 GB/s è inferiore a quella della GDDR7 delle GPU discrete. È richiesto l’alimentatore fornito in dotazione per prestazioni ottimali.
128 GB di memoria unificata per modelli AI fino a 200 miliardi di parametri. La memoria LPDDR5x da 128 GB è condivisa coerentemente tra CPU e GPU senza overhead di trasferimento: il modello risiede in un unico spazio di indirizzamento. Questo elimina il vincolo della VRAM delle GPU discrete e consente di caricare ed eseguire localmente modelli AI di dimensioni che richiederebbero altrimenti GPU con 96+ GB di VRAM dedicata.
NVLink C2C con banda fino a 5 volte superiore a PCIe 5.0. Il collegamento NVLink C2C tra la GPU Blackwell e la CPU ARM garantisce un modello di memoria integrato con trasferimenti dati a velocità molto superiori rispetto al bus PCIe tradizionale, eliminando il collo di bottiglia tipico delle architetture CPU+GPU discrete dove i dati devono attraversare il bus PCIe.
Scalabilità a 405 miliardi di parametri con ConnectX-7. La rete ad alte prestazioni NVIDIA ConnectX-7 consente di collegare due sistemi MSI EdgeXpert in cluster, raddoppiando la memoria a 256 GB e supportando modelli fino a 405 miliardi di parametri. Una soluzione per team che necessitano di capacità superiore senza infrastruttura server.
Piattaforma per applicazioni edge AI con framework NVIDIA. Oltre allo sviluppo AI generico, l’EdgeXpert è una piattaforma ideale per applicazioni edge basate sui framework NVIDIA: Isaac per la robotica, Holoscan per dispositivi medicali, Metropolis per smart city e videoanalisi, Riva per NLP e applicazioni retail. Un sistema di sviluppo e prototipazione che replica l’ambiente di deployment edge.
Continuità dal desktop al data center e al cloud. L’architettura software NVIDIA AI consente di sviluppare localmente su EdgeXpert e migrare al data center DGX o al cloud NVIDIA con modifiche minime al codice. Stessi framework, stesse librerie, stesse API: il lavoro svolto sulla scrivania è immediatamente scalabile in produzione.
Formato desktop compatto: 151×151×52 mm, 1,2 kg. Un supercomputer AI da 1.000 TOPS in poco più di un litro di volume. Posizionabile sulla scrivania accanto al monitor, trasportabile, con consumi contenuti e senza requisiti di infrastruttura: alimentazione standard, connettività Wi-Fi 7 o Ethernet, un cavo HDMI per il display.
Sviluppo e prototipazione AI enterprise — Per sviluppatori AI e data scientist che necessitano di prototipare, testare e validare modelli fino a 200 miliardi di parametri in locale, con la possibilità di migrare al data center aziendale o al cloud. Privacy dei dati garantita, cicli di iterazione accelerati, indipendenza dal cloud.
Inferenza LLM locale e agenti AI autonomi — I 1.000 TOPS e i 128 GB di memoria unificata consentono di eseguire modelli di reasoning e assistenti AI localmente. Per deployment enterprise dove i dati sensibili non possono lasciare la rete locale e la latenza del cloud non è accettabile.
Laboratori accademici e formazione AI — Una piattaforma AI completa per aule e laboratori universitari: gli studenti possono svolgere attività di training, fine-tuning e inferenza direttamente in loco, con la possibilità di scalare al server room dell’istituto quando servono risorse aggiuntive.
Sviluppo applicazioni edge AI — Con il supporto nativo dei framework NVIDIA Isaac, Holoscan, Metropolis e Riva, l’EdgeXpert è una piattaforma di sviluppo per applicazioni AI edge: robotica, dispositivi medicali, videoanalisi intelligente, retail e smart city.
Fine-tuning di modelli AI con dati proprietari — I 128 GB di memoria consentono il fine-tuning di modelli di grandi dimensioni con dataset proprietari, direttamente in locale. Per aziende che necessitano di specializzare modelli AI sui propri dati senza esporli a servizi cloud di terze parti.
Vuoi un supercomputer AI desktop per il tuo team?
Syspack fornisce soluzioni AI NVIDIA per sviluppatori, ricercatori e imprese, dalla workstation desktop al supercomputer da scrivania.
AI Perfomance 1.000 TOPS in FP4128GB
AI Perfomance 1.000 TOPS in FP4128GB - SSD 4TBPossibilità di Noleggio Operativo da 24 fino a 60 mesiPresenti sul MePa
Contattaci per essere avvisato non
Contattaci per essere avvisato non appena il prodotto sarà ordinabile.Possibilità di Noleggio Operativo da 24 a 60 mesiPresenti sul MePa
Codice prodotto: ASV571 -AI Perfomance 1.000 TOPS in FP4128GB
AI Perfomance 1.000 TOPS in FP4128GB - SSD 4TBPossibilità di Noleggio Operativo da 24 fino a 60 mesiPresenti sul MePa