Nvidia Geforce GTX 980
Introducción
Todos hemos leído y visto una buena cantidad de pruebas de rendimiento filtradas estos días. Lo que hemos visto hasta ahora es una gráfica algo más potente que sus antecesoras pero lo que no se ve en esos benchmarks es que esta gráfica consigue esa mejora, que quizás parece ligera, con un funcionamiento mucho más eficiente a nivel energético. Aun así esto deja dudas de que realmente esta arquitectura pueda escalar su rendimiento con respecto a su consumo y eficiencia. Es decir, la Geforce GTX 980 no da muestras de que un producto de consumo similar a generaciones anteriores pudiera realmente multiplicar el rendimiento.
¿Maxwell al límite?
La GTX 980 no es la primera tarjeta con arquitectura Maxwell que Nvidia lanza al mercado. La primera que vimos en HispaZone fue la Geforce GTX 750ti con 640 motores de shaders y un consumo aproximado de unos 60 vatios que Nvidia lanzó al mercado para mostrar cómo su nueva arquitectura balanceaba mejoras de rendimiento con una eficiencia energética hasta ahora desconocida.
Maxwell introduce hasta 40% más de rendimiento por motor CUDA y una eficiencia energética notable que permite una mejora casi del 50% de consumo sobre productos anteriores. Esta eficiencia energética también se traduce en mayores frecuencias de trabajo para la GPU que Nvidia combina con memoria GDDR5 de alta velocidad.
En esta tarjeta gráfica la arquitectura Maxwell seguramente no llegue a su límite. Seguramente acabaremos viendo en el mercado alguna Geforce GTX 980Ti que Nvidia se reserva ante la respuesta de su principal competidor y, con los consumos que veremos hoy aquí, sin duda esta arquitectura es perfecta para soluciones de doble GPU en la misma tarjeta gráfica. El Geforce GTX 980 solo marca el camino para los próximos productos pero lo logra con unos datos importantes.
Mediante su proceso de 28nm es capaz de ofrecer un total de 5200 millones de transistores que trabajan hasta dos veces más rápido que otros modelos Kepler, o eso afirma la propia Nvidia, aunque es posible que esta cifra sea real si tenemos en cuenta el consumo real de cada arquitectura. La competidora Kepler de esta tarjeta gráfica, la Geforce GTX 780, tiene un TDP de 250w mientras que este modelo que hoy probamos apenas alcanza los 165w.
El proceso de 28nm utilizado por la GTX 980, producido por TSMC, es de tipo HP (high Performance) y usa “High-K metal gates” y es el proceso básico de TSMC para producir procesadores, GPU, productos de redes, electrónica de consumo, etc. El proceso “high-K metal gate” es un proceso bastante conocido ya, usado por AMD e Intel desde hace tiempo que consiste en sustituir la “puerta” de poli-silicio por una puerta metálica sobre otra puerta Kigh-k oxigenada (que hace de aislante) basada en Hafnio (un metal muy conductor) que sustituye al tradicional Dióxido de Silicio usado tradicionalmente. El resultado es un rendimiento superior gracias a una pérdida menor de potencia en el transistor y ha sido uno de los grandes avances que ha permitido mantener la ley de Moore.
Especificaciones técnicas
Hoy nos vamos a centrar en la Geforce GTX 980 pero a este modelo le acompaña otro modelo de gama algo más baja, la Geforce GTX 970. Ambas comparten buena parte de las mejoras de esta arquitectura y cuentan con un formato muy similar al menos en cuanto al modelo de referencia se refiere. Hay que decir que encontraremos modelos personalizados por los mejores integradores prácticamente desde el primer día de lanzamiento de este nuevo chip, es decir, hoy mismo.
La Geforce GTX 980 cuenta con algunos números muy interesantes. Sus 2048 motores de shaders (procesadores CUDA) saben a poco comparados con los 2304 de la Geforce GTX 780 pero si miramos los números no es el único recorte. Otro recorte, importante, es el cambio de un bus de 384-Bit por uno de 256-Bit aunque Nvidia afirma haberlo compensado con su nueva arquitectura de memoria y sus nuevos algoritmos de compresión de texturas.
Lo que mejora de forma notable son las frecuencias de trabajo que aumentan hasta los 1216MHz en modo turbo, un 33% más que la Geforce GTX 780. Se aumenta también el tamaño de la memoria hasta los 4GB GDDR5 y ésta también es más rápida con una frecuencia de trabajo de 7Gbps frente a los 6Gbps de la Geforce GTX 780. El ancho de banda total de esta tarjeta es de 224,4GB/s un ancho de banda que parece corto si lo comparamos con los impresionantes 280GB/s que encontrábamos en la Geforce GTX 780.
La diferencia es que esta tarjeta tiene un TDP de 165w, siendo además más rápida como veremos luego, frente a los 250w de la Geforce GTX 780 con arquitectura Kepler. De este modo encontraremos que los diseños de la Geforce GTX 980 son menos exigentes a nivel de alimentación añadida con dos conectores de 6 contactos frente a las necesidades habituales de la gama alta que pasan por uno o dos conectores de 8 contactos con 120w de potencia por conector.
La potencia de proceso de esta tarjeta se traduce en una capacidad de cálculo un 25% más rápida alcanzando los 5TFlops de capacidad de proceso en coma flotante de precisión simple y algo más de 1.3TFlops e doble precisión. La potencia pasa de 15TFlops por vatio consumido a casi 30TFlops por vatio.
Otros números importantes son las 64 unidades ROP, que aún siguen siendo básicas para un rendimiento adecuado en muchos tipos de juegos y también cuenta con 128 unidades de texturización de última generación.
La conectividad de esta tarjeta es uno de los que recibe mejoras muy importantes. La tarjeta es un portento conectivo con hasta tres conectores Displayport 1.2 capaces de alimentar, cada uno de ellos, una pantalla 4k. Se acompaña además de un conector DVI-I para soporte “clásico” y de un HDMI 2.0 que también es capaz de dar vida a las pantallas 4k más avanzadas. Todo un portento conectivo que nos pondrá en línea con los últimos avances en pantallas.
Formato, eficiencia energética y overclocking
Desde el lanzamiento de la Titan Nvidia ha enamorado con unos diseños de referencia muy cuidados, de aspecto moderno y cuidado. Diseños de doble slot muy elegantes, con materiales como el aluminio, turbinas de funcionamiento muy cuidado y en definitiva un diseño eficiente y bello. La pena es que parecen contentos y apenas hay mejoras en el modelo de referencia de la Geforce GTX 980 frente a la Geforce GTX 780.
La Geforce GTX 780 abajo y la nueva Geforce GTX 980 arriba. Las diferencias son mínimas en tamaño y forma lo que hace de la GTX 980 una tarjeta bastante compacta y mantiene la línea de Nvidia que busca que sus gráficas, sean de la gama que sean, sean fácilmente integrables en cualquier máquina.
Los únicos cambios los encontraremos en el frontal de conectores, con una salida de aire cortada en triángulos frente a las barras clásicas. Más espacio para la expulsión de aire caliente por la parte trasera. Además este modelo ahora viene de serie con un “backplate” que ofrece más robustez al acabado y también protege todo el PCB de la tarjeta. Nvidia ha dejado una pequeña trampilla que en sus pruebas de rendimiento térmico, usando tarjetas en SLI, parece mejorar radicalmente el comportamiento de las tarjetas cuando esta parte del “backplate” no está presente seguramente porque mejora radicalmente la entrada de aire fresco en la turbina de la tarjeta que está encima de otra tarjeta.
Curiosamente el PCB tiene una posición de alimentación lateral aunque en esta tarjeta no se hace uso de él. Los conectores SLI siguen siendo dos, posicionados en el mismo punto, pero con las mismas limitaciones de únicamente poder hacer overclocking con modelos de GPU idénticos.
El peso de la tarjeta es más o menos el mismo pero hay algo que realmente sorprende y era ya un punto fuerte de este diseño. Hablo del ruido de la tarjeta. En reposo es prácticamente inaudible con un rango de ruido medido en reposo por nosotros alrededor de los 25dBA y en carga, después de horas de pruebas de rendimiento, apenas alcanza los 33dBA. Niveles de ruido excelentes y un buen comportamiento térmico de esta GPU que se traduce en consumos muy controlados entre los 160-170w en carga. En nuestro PC, donde hemos medido una GTX 780 frente a este nuevo modelo, esta tarjeta reduce nuestro consumo de 330w hasta unos 280w en carga. Esto son 50w de diferencia que quedan algo lejos de los 90w vatios de diferencia, teóricos, que debería haber entre ambas tarjetas.
Esto nos lleva a otro efecto beneficioso de esta arquitectura tan eficiente. Me refiero al overclocking. No hemos contado con mucho tiempo para sacar hasta el último MHz de la GPU de nuestra tarjeta de referencia pero con apenas unos segundos es fácil aumentar la frecuencia de la GPU por encima de los 1300MHz sin tener que tocar voltaje de la GPU. La tarjeta, como la GTX 750Ti, permite regular su consumo y potencia según varios objetivos entre los que se incluyen temperatura de trabajo y FPS en pantalla. Es decir, si nos conformamos con 60FPS, en muchos juegos tendremos consumos inferiores a sus 165w y lo mismo ocurre con la temperatura de trabajo, alcanzado nuestro equipo la GPU regula sus frecuencias para ajustarse a esa temperatura máxima deseada.
1300MHz de GPU en una prueba inicial, este chip tiene un potencial bastante interesante en cuanto a overclocking se refiere y habrá que ver modelos concretos de diferentes fabricantes para ver hasta dónde llega este potencial.
4K. DSR y MFAA
Una tarjeta con menos ancho de banda de memoria no parece una forma lógica de acercarse a algo que cada día será más común que es disponer de una pantalla con resolución 4k (3840x2160) en casa o en el trabajo. Más aun cuando la reducción es importante y todavía hay una dependencia grande del ancho de banda de memoria para rellenar la pantalla con gráficos.
Menos ancho de banda pero más optimización. Nvidia cree en este camino y la verdad es que con los resultados obtenidos en nuestras pruebas parece que el resultado, si no espectacular, sí que aporta mejoras a pesar de lo que podrían indicar los números en un primer análisis. La optimización fundamental en 4k, a mi parecer, que introduce este nuevo chip lo encontramos en varios elementos que analizaremos en las siguientes páginas.
Básicamente mejores algoritmos tanto en el tratamiento de la calidad de imagen como en la gestión de texturas de grandes dimensiones que permiten no solo un mejor rendimiento en pantallas 4k sino que además invita a que el usuario, en ciertos juegos, aproveche la capacidad de proceso de la tarjeta para renderizar contenido 4k aunque su monitor sea de resolución 1080p.
A esto, que muchos hemos hecho forzando a nuestro sistema a detectar nuestra pantalla como algo que no es, Nvidia le ha puesto nombre DSR. “Dynamic Super Resolution” no es otra cosa que aplicar a nuestra pantalla una imagen renderizada en 4k con un filtro de reducción de pantalla que aumenta la definición y tiene un efecto de antialising 4x o superior con algo menos de afectación al rendimiento. Es como cuando cogemos una fotografía de alta resolución, aplicamos un filtro de reducción de tamaño con enfoque en este caso con un algoritmo gaussiano que mejora la definición de líneas y permite calidad 4k en pantallas de menos definición. Como podéis ver en nuestra captura realmente la imagen generada es a 4k pero nuestro monitor muestra sus 1080 puntos nativos. Hemos probado esta tecnología en Diablo 3 y los resultados son bastante buenos manteniendo unas tasas de FPS de gran calidad.
Esta captura real, tomada en Diablo 3, muestra cómo la tarjeta trabaja a 4k mientras que nuestro monitor muestra imagen interpolada a 1080p. El resultado es similar al que conseguimos con un buen FSAA pero sin duda es interesante para poder tomar capturas, imágenes o vídeos en esta resolución.
Otra de las tecnologías o mejor dicho de los algoritmos introducidos por Nvidia para esta generación de tarjetas (que seguramente también beneficien poco a poco a modelos anteriores a nivel de actualizaciones de drivers) que optimizan el ancho de banda de esta tarjeta aprovechando su potencia de cálculo es el MFAA. El multi-frame sampled Antialiasing es el nuevo algoritmo de Nvidia para corrección de filos en pantalla y afronta este reto desde un punto de vista bastante inteligente.
El patrón de renderizado es diferente entre ambos frames de muestra y con los resultados se aplica un filtro que genera una imagen de calidad similar a un muestro de cuatro píxeles adyacentes con una carga de proceso menor.
Lo que hace este sistema es generar dos frames, en vez de “samplear” diferencias entre cuatro puntos circundantes como hace el método tradicional, con un filtro aplicado que se traduce en una calidad similar al MSAA 4x (el que aplica DirectX) con la afectación de rendimiento que encontraríamos en un sistema MSAA 2x con algo más de carga de proceso en el algoritmo de calculo que hace de filtro para igualar niveles de calidad y reducción de filos entre texturas de polígonos. En definitiva otro método para que esa reducción de ancho de banda no se traduzca en una pérdida de rendimiento en técnicas tan apreciadas para mejorar la calidad de imagen de los juegos como es el antialiasing. Esto sin duda pone los clavos al ataud del FXAA que era el sistema propietario de Nvidia para dar una solución mas eficiente al MSAA.
Compresión de memoria y DX12
Otros de los puntos donde parece que Nvidia ha mejorado de forma notable la eficiencia en la gestión del ancho de banda de la memoria integrada es en la compresión de texturas en su paso por el bus de datos. Su tecnología “Delta Color Compression” ya va por la tercera generación y se compone de dos elementos: algoritmos mejorados de compresión de color y por otro lado una mejora de la efectividad de la cache aplicada a estos procesos. Esto en buena parte se logra con el aumento a 2MB de cache en la GPU, el cuádruple que la generación anterior.
Con esto Nvidia afirma que sus requerimientos de ancho de banda en diversos títulos de uso intensivo de memoria, como puede ser “Metro: Last Light” o “Watch Dogs”, mejoran entorno al 25% la efectividad del ancho de banda real de la tarjeta. Según Nvidia la Geforce GTX 980, con su bus de datos de 7gbps, en realidad logra un bus efectivo de 9,3Gbps que se traduce en 297GB/s de ancho de banda teórico. Sea como fuere esto y otras mejoras, como el MFAA parecen lograr el objetivo de no echar de menos el 30% de reducción de ancho de banda entre el GK110 Kepler (Geforce GTX 780) y el GM204 que da vida a esta tarjeta.
Esta tarjeta y su hermana es la primera generación de tarjetas de Nvidia que oficialmente se anuncian con este soporte aunque es lógico esperar que otros modelos anteriores de la marca también sean compatibles con el nuevo API de Microsoft llegado el momento. DX12 introduce varias mejoras importantes, algunas requieren hardware dedicado para ello, y entre las más notables encontramos el “Lower-level abstraction” que reduce la necesidad de cálculo previo por parte de la CPU y también aumenta el rendimiento general del motor gráfico. Por otro lado se introduce mejoras en el renderizado, también a bien de mejorar la calidad de imagen y el rendimiento, como la técnica “conservative rasterization” que rellena puntos no solo cubiertos por el triángulo que conforma cualquier imagen poligonal (el triángulo es la figura poligonal más “económica”) sino cualquier otro por donde pase la línea que conforma ese triángulo. Son técnicas que AMD ya aplica en su API “Mantle”, con aproximaciones diferentes.
Otras mejoras de DX12 es su capacidad para balancear mejor la carga entre hilos de proceso, un mejor control por parte del desarrollador, una API más eficiente y optimizada y tambien un modo completo de retrocompatibildiad con DX11 que hará la transición mucho mas ágil.
Pequeñas mejoras que parece que Nvidia ha trabajado a nivel de hardware para ofrecer un soporte de DX12 excepcional. Esto tendremos que esperar algunos meses para comprobarlo puesto que el API no solo no es oficial todavía, seguramente llegue con Windows 9, sino que ningún juego actual o de próxima presentación lo soportan aún. Aun así DX11 todavía ofrece grandes niveles de calidad con técnicas de oclusión como el HBAO que Nvidia también está intentando mejorar en la próxima prestación que os vamos a describir.
VXGI y VR Direct
VXGI son las siglas de “Voxel Global Ilumination”. Esta técnica utiliza los Voxel (volumetric pixel o pixel volumétrico). Que es la unidad básica de creación de un objeto tridimensional, es básicamente la traslación de un pixel (dos dimensiones) a un mundo tridimensional. Nvidia lo que hace es trabajar con una matriz basada en voxeles y trazado de iluminación en conos para calcula iluminación global y oclusión ambiental a través del hardware de la GPU. Esta técnica probablemente ya la podamos disfrutar en juegos basados en “Unreal Engine 4” que se esperan para finales de este año como EVE: Valkyrie.
Nvidia combina esta técnica que se usa en renderizados profesionales, en el cine es muy habitual combinado con ray-tracing, con una técnica más eficiente como es la rasterización conservativa (que encontraremos en DX12) para acelerar el proceso de saber qué pixeles son tocados por cada triangulo y por tanto son susceptibles de ser convertibles en voxeles.
VR Direct es otra de esas técnicas que quizás no saquemos partido ahora pero pueden ser todo un avance para algunos usuarios y eso dice mucho de la dedicación de Nvidia de ofrecer una experiencia completa para los usuarios de PC. VR Direct no es otra cosa que la adaptación de una técnica usada por los juegos compatibles con “Oculus Rift” para que cualquier otro juego, no preparado específicamente para Oculus, pueda tener latencias bajas en los desplazamientos de cabeza.
Lo que hacen los juegos compatibles con Oculus es renderizar de forma continua más imagen de la que realmente vemos con las pantallas de las gafas. De este modo se hace una cache de imagen renderizada para adelantarse a los movimientos continuos de la cabeza cuando usamos estas gafas de realidad virtual. VR Direct hace eso a nivel de driver, genera más imagen, y por tanto no requiere de una adaptación directa del juego para disfrutar de estas espectaculares gafas de realidad virtual.
Rendimiento. I
Mesa de pruebas:
Procesador: Intel Core i7-4770k
Refrigeración: Silvestone Tundra TD03
Placa base: Intel Z87
T.Gráfica: Varias
Memoria: 32GB DDR3 2400MHz
Almacenamiento: Plextor M6e PCI Express M.2 240GB
Caja: Banchetto 103
Alimentación: Seasonic Platinum Series 1050w
Heaven Benchmark 4.0. Perfil Extreme
Battlefield 4. 3840x2160. Calidad Ultra
Bioshock Infinite. 3840x2160. Calidad Ultra
F1 2013. 3840x2160. Calidad Ultra
MaxPayne 3. 3840x2160. Calidad ultra FSAA 2x
Rendimiento. II
Metro: Last Light. 3840x2160. Calidad máxima. FSAA 2x
Tomb Raider. 3840x2160. Calidad Ultra
3DMark Firestrike
3DMark Firestrike Extreme
Como veis todas nuestras pruebas, salvo los test sintéticos que basan sus perfiles también en ajuste de resolución (3DMark y Heaven Benchmark), todas las resoluciones que hemos usado son 4k. Creo que es lo adecuado para una gráfica de este coste y de estas características que sin duda será el objetivo de compra de aquellos que cuenten con monitores muy rápidos, 144Hz o ya monitores 4k de 60Hz.
Los resultados que hemos obtenido sin duda sufren algo del ancho de banda de la tarjeta y eso se traduce en que nuestra Radeon 290X, con 4GB y un bus de 512-Bit que ofrece 320GB/s, se acerque mucho más en estas pruebas que en los test sintéticos que se ejecutan a resoluciones menores.
Mi veredicto es que esta tarjeta no es la que dará, en una sola GPU, la solución a tu monitor 4k pero combinada con otra, o quizás en una versión de doble GPU de bajo consumo, los resultados serán realmente buenos. Hay que tener en cuenta que en nuestros test el consumo real de esta tarjeta, frente a una 290X o una 780ti, ronda los 60 vatios menos de consumo totalizado el consumo total del PC y eso es sin duda un dato a tener muy en cuenta. Puesto que parece no cuadrar con el consumo de 165w que Nvidia anuncia en esta tarjeta y que, según nuestra prueba, andaría más cercano a los 190w en carga.
Las temperaturas en carga son buenas, en torno a los 70º, aunque podemos también modificar este parámetro para mantener mas tiempo las frecuencias Turbo de la tarjeta. Estos parámetros podremos configurarlos con las muchas y potentes aplicaciones de gestión de tarjetas gráficas que tienen los principales fabricantes.
Dicho esto también hay que añadir que la tarjeta más rápida que ha pasado por ahora por nuestro laboratorio sigue siendo la Radeon R9 295X2 de AMD con su doble procesador Tahití, sus 8GB de RAM, y sus 500w de consumo.
Análisis y conclusión
Quizás en esta review habréis notado que no nos hemos centrado en prestaciones clásicas que solemos mirar en tarjetas de Nvidia y de otras marcas como es la capacidad de cómputo general o la aceleración de vídeo, etc. Esto es algo que ya convive con nosotros y que usamos a diario incluso sin darnos cuenta de ello. La CPU de nuestros sistemas cada vez tendrá menos importancia y tendera a ser una plataforma de recursos más que de cálculo.
Lo que sí quiero destacar es cómo “Geforce Experience” cada vez tiene más importancia y cómo va dejando obsoleto el panel de control clásico de los controladores. Esta tarjeta se maneja y controla prácticamente sola desde el Geforce Experience sin necesidad de que un usuario sin conocimientos tenga que estudiar de técnicas y parámetros de control. Basta el botón de optimizar el juego y este se ejecutara a las mil maravillas y sino siempre nos dará un método rápido y accesible de configurar nosotros los parámetros de cada juego sin tener tan siquiera que abrir el juego para ello.
Tecnologías como el DSR, Shadowplay (que en esta tarjeta soporta hasta 4k de resolución de captura a 60FPS y hasta 130mbps de bitratio) o incluso la configuración y el comportamiento de los leds de la tarjeta gráfica son fácilmente configurables desde Geforce Experience.
Vídeo capturado con Shadowplay:
Creo que la Geforce GTX 980 hay que mirarla desde dos parámetros importantes. Por un lado el precio, 550 Euros, que sin duda no es económico pero si 100 Euros más barata que su antecesora la Geforce GTX 780 cuando esta salió al mercado. Y por otro lado es una tarjeta capaz de manejarse decentemente en 4k, aunque lo suyo son dos de estas si tenemos un monitor de estas características, con un consumo que a mí me resulta casi ridículo de 165w.
Si integramos estos factores con sus pequeñas mejoras de rendimiento con respecto a tarjetas anteriores o de su competencia estamos ante el producto más completo que Nvidia ha lanzado en mucho tiempo y creo que es el camino a seguir aunque sin duda a todos nos gustaría seguir ese camino con precios más económicos. Quizás el equilibrio lo encontremos en la Geforce GTX 970, cuyo precio rondará los 350 Euros, pero eso lo veremos en un próximo análisis.