El A100 no son GPU para jugar, de hecho, no sólo por su funcionalidad sino porque por precio nadie podría pagarlos, pero sí estan para una tarea más que importante: cálculo.
En el mundo de Machine Learning es imprescindible realizar millones de operaciones matemáticas sencillas pero en un volumen mucho mayor que las que puede procesar un CPU tradicional de uso general. Para ello los GPU casualmente sirven perfecto.
En 2017 tenían los V100 Volta para esto, pero pasó el tiempo y ahora la arquitectura Ampere los reemplaza con el A100 como primer equipo de cómputo. Estamos hablando de un chip enorme.
Con 826 milímetros cuadrados de superficie es una bestialidad, comparado con un V100 de 815mm2 o el RTX2080Ti de 754mm2 pero con una enorme diferencia. El proceso de fabricación pasa a ser de 7nm en vez de 12nm de los otros.
Esto significa que el tamaño será “apenas” más grande pero la densidad de transistores aumenta notablemente, así el A100 posee unos 54.000 millones de transistores contra los 18.600 millones del RTX2080Ti. Por cada milímetro cuadrado hay unos 65 millones de transistores, es bestial.
El proceso utilizado es el de 7nm de TSMC que está bastante exigido porque AMD también ha copado el mercado con productos de 7nm.
En detalle el A100 cuenta con 6912 núcleos CUDA FP32, 3456 CUDA FP64, y 422 núcleos Tensor. El V100, por ejemplo, sólo tenía 5120 CUDA y 640 Tensor, la densidad ayuda a meter tantos núcleos nuevos.
Ahora bien, el A100 no se vende solo sino que viene en su propio equipo DGX A100 que cuenta con 8 chips A100, dos CPU de su rival AMD con 64 núcleos cada uno, 1TB de RAM, 15 TB de almacenamiento NVMe, todo a un precio módico de USD 200.000, mamita.
Bueno, notarán que tampoco son specs pequeñas, este equipo DGX es todo un servidor de cálculo con un incremento de 20x sobre el mismo con el V100 anterior, 20 veces, cada A100 cuenta con 40GB de memoria HBM2 dando un salto importante desde los 16GB anteriores, cada DGX cuenta con un total de 320GB de VRAM por lo que inevitablemente la performance cruda aumenta.