La prima GPU Tensor Core
Individuare informazioni fruibili in enormi flussi di dati significa trasformare i settori industriali, ad esempio con terapie oncologiche personalizzate, permettendo agli assistenti virtuali di conversare in modo naturale e prevedendo il prossimo grande uragano.
NVIDIA® V100 Tensor Core è la GPU per data center più avanzata mai costruita per accelerare l'IA, il calcolo ad alte prestazioni (HPC), la scienza dei dati e la grafica. È alimentata dall'architettura NVIDIA Volta, disponibile in configurazioni da 16 e 32 GB, e offre le prestazioni di fino a 32 CPU su una singola GPU. Gli esperti di dati, i ricercatori e gli ingegneri possono ora dedicare meno tempo all'ottimizzazione dell'uso della memoria e più tempo alla progettazione della prossima innovazione in IA.
Esegui carichi di lavoro IA e HPC in un ambiente virtualizzato per una maggiore sicurezza e una migliore gestibilità con il software NVIDIA Virtual Compute Server (vCS).
Training ResNet-50, set di dati: ImageNet2012, BS=256 | Confronto con NVIDIA V100: server NVIDIA DGX-2™, 1 V100 SXM3-32GB, MXNet 1.5.1, container=19.11-py3, precisione mista, produttività: 1.525 immagini/sec | Confronto con Intel: Supermicro SYS-1029GQ-TRT, Intel Gold 6240 a 2 GHz/3.9 Hz Turbo socket singolo, Tensorflow 0.18, FP32 (unica precisione disponibile), produttività: 48 immagini/sec
Dal riconoscimento vocale al training di assistenti virtuali personali e delle auto a guida autonoma, gli scienziati stanno affrontando sfide sempre più complesse nell'ambito dell'intelligenza artificiale. Risolvere problematiche di questo tipo richiede il training di modelli di deep learning estremamente complessi in tempi ragionevoli.
Con 640 Tensor Core, la V100 è la prima GPU al mondo che supera la barriera dei 100 teraFLOPS (TFLOPS) di prestazioni in deep learning. La nuova generazione di NVIDIA NVLink™ collega più GPU V100 a fino a 300 GB/s per creare i server di calcolo più potenti del mondo. I modelli IA che richiederebbero settimane di risorse di calcolo sui precedenti sistemi possono ora essere addestrati in pochi giorni. Con questa sostanziale riduzione dei tempi, tanti problemi che affliggono il mondo saranno ora risolvibili grazie all'IA.
Inferenza BERT Base calibrata, set di dati: SQuADv1.1, BS=1, lunghezza sequenza=128 | Confronto con NVIDIA V100: Supermicro SYS-4029GP-TRT, 1 V100-PCIE-16GB, container pre rilascio, precisione mista, NVIDIA TensorRT™ 6.0, produttività: 557 frasi/sec | Confronto con Intel: Intel Gold 6240 a 2,6 GHz/3,9 Hz Turbo singolo socket, FP32 (unica precisione disponibile), OpenVINO MKL-DNN v0.18, produttività: 23.5 frasi/sec
Per entrare in possesso di informazioni, servizi e prodotti pertinenti, le compagnie hyperscale hanno iniziato a integrare algoritmi di intelligenza artificiale. Tuttavia, tenere il passo con la domanda è un problema di non facile soluzione. Ad esempio, le principali aziende hyperscale del mondo, hanno stimato di recente che se ogni utente utilizzasse il loro servizio di riconoscimento vocale per soli tre minuti al giorno, servirebbe il doppio della capacità del data center.
La V100 è progettata per fornire massime prestazioni nei server rack hyperscale esistenti. Con l'IA alla base, le GPU V100 offrono prestazioni di inferenza 47 volte superiori rispetto a un server CPU. Questo enorme passo avanti in termini di produttività ed efficienza renderà ancora più fruibili i servizi AI scale-out.
Applicazione (set di dati): MILC (APEX Medium) e Chroma (szscl21_24_128) | Server CPU: Intel Xeon Platinum 8280 doppio socket (Cascade Lake)
L'HPC è un pilastro fondamentale della scienza moderna. Dalle previsioni meteo fino al rilevamento di sostanze stupefacenti e alla ricerca di nuove fonti energetiche, i ricercatori utilizzano enormi sistemi di elaborazione per simulare e predire il nostro mondo. L'IA estende l'HPC tradizionale consentendo ai ricercatori di analizzare elevati volumi di dati per approfondimenti rapidi laddove la sola simulazione non consente di prevedere completamente il mondo reale.
La V100 è progettata per la convergenza di IA e HPC. Offre una piattaforma per sistemi HPC che permette di eccellere sia nelle scienze computazionali per la simulazione scientifica sia nelle scienze dei dati per la ricerca di informazioni fruibili nei dati. Abbinando gli NVIDIA CUDA® Core e i Tensor Core in un'architettura unificata, un singolo server con GPU V100 può sostituire centinaia di server con sola CPU per carichi di lavoro tradizionali HPC e IA. Ogni ricercatore e ingegnere può finalmente permettersi un supercomputer IA per affrontare i lavori più esigenti.
Prestazioni all'avanguardia per il deep learning.
Massima versatilità per tutti i carichi di lavoro.
Precisione doppia 7.8 teraFLOPS
Precisione singola 15.7 teraFLOPS
Deep learning 125 teraFLOPS
Precisione doppia 7 teraFLOPS
Precisione singola 14 teraFLOPS
Deep learning 112 teraFLOPS
Precisione doppia 8.2 teraFLOPS
Precisione singola 16.4 teraFLOPS
Deep learning 130 teraFLOPS
NVLink 300 GB/s
PCIe 32 GB/s
CAPACITÀ 32/16 GB HBM2
BANDA 900 GB/s
CAPACITÀ 32 GB HBM2
BANDA 1134 GB/s
300 WATT
250 WATT
Gli acceleratori GPU più veloci del mondo per HPC e deep learning
Trova un NVIDIA Accelerated Computing Partner nella nostra NVIDIA Partner Network (NPN).