La aceleradora Tesla V100s de Nvidia llega con memoria HBM2 y rompe la barrera de los 100 TFLOPS
por Sergio San Joaquín 1Nvidia ha actualizado su tarjeta gráfica aceleradora destinada a Deep Learning (aprendizaje profundo), Inteligencia Artificial (IA) y Computación de Alto Rendimiento (HPC) con la Tesla V100s Tensor Core.
La nueva Tesla V100s llega con 32GB de memoria HBM2 en un bus de 4096 bits y una velocidad de 553 MHz (1106 efectivos), para ofrecer un ancho de banda de hasta 1135 GB/s, 235 GB/s más que su predecesor, el Tesla V100 con 900 GB/s.
Basada en la arquitectura Volta, la Tesla V100s utiliza 640 Tensor Cores que son capaces de superar los 100 TFLOPS (130 TFLOPS) en Deep Learning (aprendizaje profundo), 16.4 TFLOPS de precisión simple (FP32), y hasta 8.2 TFLOPS de rendimiento de punto flotante de precisión doble (FP64).
Todo esto se consigue manteniendo un consumo de 250W además de disponer de computación exaescala mediante NVLink para conseguir 300 GB/s de ancho de banda y crear la más avanzada tecnología de servidor para computación de Inteligencia Artificial.
No se han dado detalles sobre si cambiará la frecuencia de velocidad de reloj de la GPU, ni tampoco se han mencionado precios, aunque la versión actual V100 de 16 GB de memoria RAM se puede encontrar por 7300€, así que adelantamos que el nuevo modelo no será precisamente barato.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!