Nvidia brengt Tensor Core A10 en A30 GPU’s uit voor datacenters

4 reacties

Nvidia heeft een tweetal nieuwe gpu’s voor het gebruik in datacenters op haar GTC-conferentie gepresenteerd: de A10 en de A30. De eerste heeft één pcie-slot nodig, de tweede neemt twee sloten in beslag. De twee zijn maken deel uit van de Ampere gpu-familie van het merk en zijn bedoeld om toegepast te worden in de AI Enterprise software van Nvidia dat alleen binnen VMware vSpere gebruikt kan worden.

Deze gpus zijn bedoeld om gebruik te worden door datacenters van bedrijven zelf. Volgens Nvidia kunnen de bedrijven die servers voor datacenters kopen binnenkort terecht bij vertrouwde leveranciers zoals Dell, Lenovo en SuperMicro. Volgens Nvidia wordt een server met een van deze gpu’s 2.000 tot 3.000 USD duurder. Het is nog niet duidelijk wanneer Nvidia deze gpu's in grote hoeveelheden kan leveren. 

De A10 heeft een GA102-890 gpu aan boord met 72 SM's en 9216 cuda-cores. De gpu werkt op 885 MHz en biedt een boost tot 1695 MHz. De kaart wordt via pcie 4.0 gekoppeld aan een systeem en heeft de beschikking over 24 GB gddr6.

De gpu van de A30 is nog niet bekend, maar wel is duidelijk dat hij op 930 MHz werkt, en een boost heeft tot 14490MHz. De kaart beschikt over 24GB hbm2 op 1215 MHz via een 3072 bit bus. Dat betekent dat hier drie hbm2-stacks worden toegepast. In totaal heeft deze kaart 933 GB/s geheugenbandbreedte.

Specs A10 

TDP: 150W
FP32: 31.2 teraFLOPS
BFLOAT16 Tensor Core: 125 teraFLOPS | 250 teraFLOPS*
FP16 Tensor Core: 125 teraFLOPS | 250 teraFLOPS*
INT8 Tensor Core: 250 TOPS | 500 TOPS*
GPU bandwidth: 600GB/s
GPU memory: 24GB GDDR6

Specs A30

TDP: 165W
FP32: 10.3 teraFLOPS
BFLOAT16 Tensor Core: 165 teraFLOPS | 330 teraFLOPS*
FP16 Tensor Core: 165 teraFLOPS | 330 teraFLOPS*
INT8 Tensor Core: 330 TOPS | 661 TOPS*
GPU bandwidth: 933GB/s
GPU memory: 24GB HBM2 (on-die)

Product A10 A30
GPU GA102-890 GA100
FP64 5.2 teraFLOPS
FP64 Tensor Core 10.3 teraFLOPS
FP32 31.2 teraFLOPS 10.3 teraFLOPS
TF32 Tensor Core 62.5 teraFLOPS | 125 teraFLOPS* 82 teraFLOPS | 165 teraFLOPS*
BFLOAT16 Tensor Core 125 teraFLOPS | 250 teraFLOPS* 165 teraFLOPS | 330 teraFLOPS*
FP16 Tensor Core 125 teraFLOPS | 250 teraFLOPS* 165 teraFLOPS | 330 teraFLOPS*
INT8 Tensor Core 250 TOPS | 500 TOPS* 330 TOPS | 661 TOPS*
INT4 Tensor Core 500 TOPS | 1,000 TOPS* 661 TOPS | 1321 TOPS*
RT Core 72 RT Cores
Encode/decode 1 encoder 1 optical flow accelerator (OFA)
  2 decoder (+AV1 decode) 1 JPEG decoder (NVJPEG)
    4 video decoders (NVDEC)
GPU memory 24GB GDDR6 24GB HBM2
GPU memory bandwidth 600GB/s 933GB/s
Interconnect PCIe Gen4 64GB/s PCIe Gen4: 64GB/s
    Third-gen NVLINK: 200GB/s**
Form factors Single-slot, full-height, full-length (FHFL) Dual-slot, full-height, full-length (FHFL)
Max thermal design power (TDP) 150W 165W
Multi-Instance GPU (MIG) 4 GPU instances @ 6GB each
    2 GPU instances @ 12GB each
    1 GPU instance @ 24GB
vGPU software support NVIDIA Virtual PC, NVIDIA Virtual Applications, NVIDIA RTX Virtual NVIDIA AI Enterprise for VMware
  Workstation, NVIDIA Virtual Compute Server NVIDIA Virtual Compute Server
« Vorig bericht Volgend bericht »
0
*