Fabio Baccaglioni

Esta semana NVidia anunció dos cosas, primero y principal su nuevo núcleo para trabajo profesional, la Tesla P100, y segundo el sistema donde usar varias de éstas, el NVIDIA DGX-1.



El P100 es un GPU para investigación y procesamiento numérico, no es para jugar claramente, utilizando la arquitectura "Pascal" y el nuevo proceso de TSMC de 16nm FinFET.

Esto último es lo que le permitió a NVidia incorporar la bestialidad de 15.300 millones de transistores porque al salir de 28nm en vez de achicar aprovecharon el nuevo espacio disponible para agregarle más.

La memoria soportada es la última versión, la segunda, de High Bandwidth Memory, con HMB2 buscan aumentar considerablemente la capacidad aunque son memorias más caras que recién ahora produce en masa Samsung.

La P100 alcanza unos 21.2 teraflops en FP16, 10.6 teraflops para FP32 y 5.3 teraflops en FP64, un 30% más que la Tesla X o la M40.

El ancho de banda de las memorias alcanza los 720GB/s con un bus de 4096 bits, y todavía no es la versión final del core Pascal, el GP100 es más completo, con 60SMs en vez de 56, pero es casi el modelo final.



Todo esto aplicado en paralelo en el nuevo DGX-1, el Deep Learning System de Nvidia que cuenta con dos Intel Xeon E5-2698 v3 de 16 núcleos a 2.3GHz cada uno, 512GB de RAM DDR4, 4 unidades SSD con 1.92TB, dual 10GbE y ocho Tesla GP100, unos 28672 núcleos CUDA en un sólo equipo, ofreciendo unos 170 teraflops en total.

Esta besia es también una barbaridad de consumo, 3200W por unidad pero el precio es enorme tabién, USD 129.000 cada DGX-1.

El DGX-1 se lanza en Junio, y considerando el volumen pequeño de espacio es fácil poder tener un gran centro de cómputo y cálculo en un espacio pequeño. Claramente 130k es mucho para cualquiera de nosotros, pero a nivel granja de servidores es normal y el foco de NVidia es proveer de hardware para las herramientas de Deep Learning que estan muy de moda últimamente.

En el mediano plazo la arquitectura Pascal pasará también a las placas de video normales para consumidores, la rumoreada GTX1080 por ejemplo, pero lo más probable es que utilicen GDDR5 o GDDR5X en vez de HBM.

Más data en ARS

Comentarios

Deje su comentario:

(comentarios ofensivos o que no hagan al enriquecimiento del post serán borrados/editados por el administrador sin previo aviso)

Security Image

Negrita Cursiva Imagen Enlace