Acceleratore di formazione superiore per l'intelligenza artificiale e l'apprendimento profondo
Basato su un'ARCHITETTURA GRAFICA "VEGA" all'avanguardia, costruita per gestire grandi insiemi di dati e diversi carichi di lavoro di calcolo
64 nCU COMPUTE UNITS per accelerare i carichi di lavoro più impegnativi
Fino a 12,3 TFLOPS di prestazioni di calcolo FP32 di picco per accelerare l'intelligenza artificiale ad alta intensità di calcolo
Fino a 24,6 TFLOPS di prestazioni di calcolo di picco FP16 per applicazioni di formazione deep learning
Tecnologia di memoria all'avanguardia: 16 GB di MEMORIA HBM2 con ECC2 e HIGH BANDWIDTH CACHE CONTROLLER (HBCC)
Raffreddata passivamente, a tutta altezza, a doppio slot e con un TDP di 300 W, è progettata per essere inserita nella maggior parte dei server standard
MxGPU per carichi di lavoro di calcolo virtualizzati: per un maggiore utilizzo e capacità nel data center
Funzionalità di gestione remota avanzata, per un monitoraggio semplificato delle GPU in sistemi su larga scala
Formazione di reti neurali di intelligenza artificiale e apprendimento profondo
Calcolo FP16 e FP32 ad alte prestazioni
Piattaforma ROCm con software aperto per una scala rack di classe HPC
Librerie ottimizzate del framework di deep learning MIOpen
Supporto BAR di grandi dimensioni per mGPU peer to peer
Densità di calcolo e prestazioni superiori per nodo quando si combinano il processore server AMD EPYC™ e gli acceleratori Radeon Instinct™
HPC
Calcolo eterogeneo HPC
Eccezionale densità di calcolo e prestazioni per nodo
Piattaforma ROCm con software aperto per una scala rack di classe HPC
Driver Linux open source, compilatore HCC, strumenti e librerie dal metallo in avanti
Supporto di standard industriali aperti per architetture multiple e tecnologie di interconnessione standard del settore
---