Nvidia Geforce GTX Titan X
Nvidia sin duda ha convencido a los jugadores con sus productos eficientes y de potencia contrastada. La Geforce GTX 980, también la finalmente malograda GTX 970, son un buen ejemplo del éxito de la arquitectura Maxwell. Aun así siempre han tenido el lastre de ser productos más orientados a resoluciones bajas o medias que a las nuevas tendencias de monitores Ultra HD o 4k.
Su problema fundamental siempre ha sido el ancho de banda, limitado para ciertas resoluciones, y por tanto incapaz de manejar con soltura ciertas resoluciones con cierto nivel de “frames” por segundo que se adecuen a la tendencia actual donde los jugadores buscan pantallas de 120 o 144Hz. El Geforce GTX Titan X viene potenciado en todos los aspectos pero quizás no sea suficiente. Habrá que comprobarlo por nosotros mismos.
Especificaciones técnicas
La Geforce GTX Titan X no lo tiene fácil, el listón esta alto. Para que esta grafica sea realmente atractiva, más al precio al que se comercializará, debe marcan amplias diferencias con respecto a sus hermanas menores. A su vez tiene que ser fiel a la esencia de la arquitectura que le da vida y por tanto tenemos que esperar de ella que permita buenos niveles de overclocking y un consumo controlado a pesar de ser el modelo más potente de su generación. Estos son los pilares que podrían atraer a los usuarios con más recursos para adquirirla.
Este nuevo modelo incorpora mejoras importantes a todos los niveles de hardware salvo, lógicamente, en la propia arquitectura. La mejora de hardware es realmente notable, gracias a la incorporación de la GPU GM200-400, con respecto a la Geforce GTX 980. Un 50% más de unidades de Shaders marcan el principio de una mejora notable.
Las frecuencias se reducen a 1000MHz nominales, 1075MHz en turbo, con una frecuencia de memoria de 7gbps que impulsa un bus de datos de 384-Bit que produce también un 50% más de ancho de banda de datos. Dos puntos fundamentales de la arquitectura de cualquier grafica moderna es un 50% más potente en este modelo que en su hermana menor más cercana que ya es per se un modelo de altas prestaciones que se vende cerca de los 600 Euros.
12GB en memorias SK-Hynix GDDR5 de alta velocidad.
Para mí la mejora fundamental sin duda está en el nuevo bus de datos que proporciona un 50% más de ancho de banda y eso es un 50% más de rendimiento sobre todo en situaciones donde el ancho de banda sea fundamental como en el uso de técnicas de antialiasing o el uso de resoluciones muy altas. Es una oportunidad para que esta tarjeta sea adecuada para sistemas con monitores 4k.
No todos los 50% son siempre para mejorar puesto que el consumo también aumenta en la misma cifra prácticamente. El TDP de esta gráfica, a su modo de consumo del 100%, está marcado en 250w. Un aumento de consumo notable que hace de la Titan X una gráfica más convencional, más de antiguas generaciones, pero sin duda con un potencial de rendimiento muy superior.
Algo que destaca mucho en esta tarjeta es su frame buffer con 12GB de VRAM. Una cantidad de RAM ingente pensada para dar soporte a esos juegos con texturas de alta definición que cada vez requieren de más RAM para su funcionamiento a máximos niveles de calidad gráfica. Los 12GB de RAM esta adecuadamente soportadas con 96 unidades de rasterización, y los 3MB de cache de segundo nivel, que aprovechan completamente toda su capacidad (no encontraremos tecnologías “especiales” en este modelo).
Podremos montar hasta cuatro tarjetas Geforce GTX Titan X gracias al doble conector SLI que se incorpora. Podríamos tener hasta 48GB de memoria RAM en el mismo PC con estas tarjetas y más de 12000 motores CUDA con un consumo cercano a los 1000w que obligaría usar fuentes de al menos 1600w o superiores.
Una tarjeta con menos ancho de banda de memoria no parece una forma lógica de acercarse a algo que cada día será más común que es disponer de una pantalla con resolución 4k (3840x2160) en casa o en el trabajo. Más aun cuando la reducción es importante y todavía hay una dependencia grande del ancho de banda de memoria para rellenar la pantalla con gráficos.
Menos ancho de banda pero más optimización. Nvidia cree en este camino y la verdad es que con los resultados obtenidos en nuestras pruebas parece que el resultado, sino espectacular, sí que aporta mejoras a pesar de lo que podrían indicar los números en un primer análisis. La optimización fundamental en 4k, a mi parecer, que introduce este nuevo chip lo encontramos en varios elementos que analizaremos en las siguientes páginas.
Básicamente mejores algoritmos tanto en el tratamiento de la calidad de imagen como en la gestión de texturas de grandes dimensiones que permiten no solo un mejor rendimiento en pantallas 4k sino que además invita a que el usuario, en ciertos juegos, aproveche la capacidad de proceso de la tarjeta para renderizar contenido 4k aunque su monitor sea de resolución 1080p.
A esto, que muchos hemos hecho forzando a nuestro sistema a detectar nuestra pantalla como algo que no es, Nvidia le ha puesto nombre DSR. “Dynamic Super Resolution” no es otra cosa que aplicar a nuestra pantalla una imagen renderizada en 4k con un filtro de reducción de pantalla que aumenta la definición y tiene un efecto de antialising 4x o superior con algo menos de afectación al rendimiento. Es como cuando cogemos una fotografía de alta resolución, aplicamos un filtro de reducción de tamaño con enfoque en este caso con un algoritmo gaussiano que mejora la definición de líneas y permite calidad 4k en pantallas de menos definición. Como podéis ver en nuestra captura realmente la imagen generada es a 4k pero nuestro monitor muestra sus 1080 puntos nativos. Hemos probado esta tecnología en Diablo 3 y los resultados son bastante buenos manteniendo unas tasas de FPS de gran calidad.
Otra de las tecnologías o mejor dicho de los algoritmos introducidos por Nvidia para esta generación de tarjetas (que seguramente también beneficien poco a poco a modelos anteriores a nivel de actualizaciones de drivers) que optimizan el ancho de banda de esta tarjeta aprovechando su potencia de cálculo es el MFAA. El multi-frame sampled Antialiasing es el nuevo algoritmo de Nvidia para corrección de filos en pantalla y afronta este reto desde un punto de vista bastante inteligente.
El patrón de renderizado es diferente entre ambos frames de muestra y con los resultados se aplica un filtro que genera una imagen de calidad similar a un muestro de cuatro píxeles adyacentes con una carga de proceso menor.
Lo que hace este sistema es generar dos frames, en vez de “samplear” diferencias entre cuatro puntos circundantes como hace el método tradicional, con un filtro aplicado que se traduce en una calidad similar al MSAA 4x (el que aplica DirectX) con la afectación de rendimiento que encontraríamos en un sistema MSAA 2x con algo más de carga de proceso en el algoritmo de calculo que hace de filtro para igualar niveles de calidad y reducción de filos entre texturas de polígonos. En definitiva otro método para que esa reducción de ancho de banda no se traduzca en una pérdida de rendimiento en técnicas tan apreciadas para mejorar la calidad de imagen de los juegos como es el antialiasing.
Otros de los puntos donde parece que Nvidia ha mejorado de forma notable la eficiencia en la gestión del ancho de banda de la memoria integrada es en la compresión de texturas en su paso por el bus de datos. Su tecnología “Delta Color Compression” ya va por la tercera generación y se compone de dos elementos: algoritmos mejorados de compresión de color y por otro lado una mejora de la efectividad de la cache aplicada a estos procesos. Esto en buena parte se logra con el aumento a 3MB de cache (1MB mas de cache que la GTX 980) en la GPU, el cuádruple que la generación anterior.
Con esto Nvidia afirma que sus requerimientos de ancho de banda en diversos títulos de uso intensivo de memoria, como puede ser “Metro: Last Light” o “Watch Dogs”, mejoran entorno al 25% la efectividad del ancho de banda real de la tarjeta. Según Nvidia la Geforce GTX Titan X, con su bus de datos de 7gbps, en realidad logra un bus efectivo de 9,3Gbps que se traduce en 420GB/s de ancho de banda teórico. Cosa que realmente, a la hora de la verdad, no hemos visto trasladado de una forma tan efectiva en ningún juego.
Esta tarjeta y su hermana es la primera generación de tarjetas de Nvidia que oficialmente se anuncian con este soporte aunque es lógico esperar que otros modelos anteriores de la marca también sean compatibles con el nuevo API de Microsoft llegado el momento. DX12 introduce varias mejoras importantes, algunas requieren hardware dedicado para ello, y entre las más notables encontramos el “Lower-level abstraction” que reduce la necesidad de cálculo previo por parte de la CPU y también aumenta el rendimiento general del motor gráfico. Por otro lado se introduce mejoras en el renderizado, también a bien de mejorar la calidad de imagen y el rendimiento, como la técnica “conservative rasterization” que rellena puntos no solo cubiertos por el triángulo que conforma cualquier imagen poligonal (el triángulo es la figura poligonal más “económica”) sino cualquier otro por donde pase la línea que conforma ese triángulo. Son técnicas que AMD ya aplica en su API “Mantle”, con aproximaciones diferentes y que formarán una de las API de bajo nivel más potentes y una verdadera revolución para los juegos y motores graficos actuales y futuros. .
Pequeñas mejoras que parece que Nvidia ha trabajado a nivel de hardware para ofrecer un soporte de DX12 excepcional. Esto tendremos que esperar algunos meses para comprobarlo puesto que el API no solo no es oficial todavía, seguramente llegue con Windows 10, sino que ningún juego actual o de próxima presentación lo soportan aun. Aun así DX11 todavía ofrece grandes niveles de calidad con técnicas de oclusión como el HBAO que Nvidia también está intentando mejorar en la próxima prestación que os vamos a describir.
VXGI son las siglas de “Voxel Global Ilumination”. Esta técnica utiliza los Voxel (volumetric pixel o pixel volumétrico). Que es la unidad básica de creación de un objeto tridimensional, es básicamente la traslación de un pixel (dos dimensiones) a un mundo tridimensional. Nvidia lo que hace es trabajar con una matriz basada en voxeles y trazado de iluminación en conos para calcula iluminación global y oclusión ambiental a través del hardware de la GPU. Esta técnica probablemente ya la podamos disfrutar en juegos basados en “Unreal Engine 4” que se esperaban para antes de que acabara 2014 pero que han sufrido retrasos como Eve: Valkyrie.
Nvidia combina esta técnica que se usa en renderizados profesionales, en el cine es muy habitual combinado con ray-tracing, con una técnica más eficiente como es la rasterización conservativa (que encontraremos en DX12) para acelerar el proceso de saber que pixeles son tocados por cada triangulo y por tanto son susceptibles de ser convertibles en voxeles.
VR Direct es otra de esas técnicas que quizás no saquemos partido ahora pero pueden ser todo una avance para algunos usuarios y eso dice mucho de la dedicación de Nvidia de ofrecer una experiencia completa para los usuarios de PC. VR Direct no es otra cosa que la adaptación de una técnica usada por los juegos compatibles con “Oculus Rift” para que cualquier otro juego, no preparado específicamente para Oculus, pueda tener latencias bajas en los desplazamientos de cabeza.
Lo que hacen los juegos compatibles con Oculus es renderizar de forma continua más imagen de la que realmente vemos con las pantallas de las gafas. De este modo se hace una cache de imagen renderizada para adelantarse a los movimientos continuos de la cabeza cuando usamos estas gafas de realidad virtual. VR Direct hace eso a nivel de driver, genera más imagen, y por tanto no requiere de una adaptación directa del juego para disfrutar de estas espectaculares gafas de realidad virtual.
Todas las tarjeta Titan usan modelo de referencia, de hecho el actual diseño de toda la gama alta de graficas de referencia de Nvidia están basadas en disipador y formato original de la primera Geforce GTX Titan. Este modelo mantiene el diseño aunque con algunos cambios sobre la última tarjeta en incorporar este disipador que no fue otra que la Geforce GTX 980.
Lo que más llama la atención es su diseño completamente negro, cosa que resulta curioso porque la Titan Black no lo era, y sin duda más de una crítica recibirá el que no tenga un backplate que le dé un acabado más perfeccionado a todo el conjunto. La razón según Nvidia, de retirar el backplate, es mejorar la entrada de aire en tarjetas continuas cuando usemos sistemas SLI complejos.
La Geforce GTX Titan X arriba, abajo la Geforce GTX 980.
La tarjeta se caracteriza por su acabado compacto, mide los mismos 27cm (10.5”) que todos los modelos anteriores con este disipador (salvo la Titan Z), y basa su sistema de disipación en una turbina posterior que impulsa el aire caliente sobre un radiador central hacia el exterior de la caja del ordenador mediante una rejilla frontal.
Esta tarjeta requiere dos cables de alimentación PEG (PCI Express Graphics). Uno con 8 conectores, 150 vatios, y el otro de seis conectores, 80 vatios. Esto hace 230w a los que podemos sumar los 75-80w que puede proporcionar el propio slot PCI Express. Eso hace que la Geforce GTX Titan X dependa también de la alimentación del slot y será aconsejable que si montamos varias en el mismo sistema la placa tenga algún método de alimentación adicional para los slots. En total tendremos 300w de margen de potencia con este diseño que, en mi opinión, hace de limitador para la capacidad de overclocking real de este chip.
La otra limitación la encontraremos en su capacidad de disipación ya que para mantener los 80-85 grados de trabajo normal que admite esta grafica tendremos que echar mano de buena parte de la potencia de movimiento de aire de su pequeña turbina. Sin duda veremos aparecer bloques de refrigeración líquida para esta tarjeta, que lograran resultados espectaculares, pero de serie tendremos una limitación importante en forma de capacidad y también del ruido que tendremos que soportar. En uso normal, sin estrés adicional, la tarjeta puede producir unos 45-50dB de ruido que sin ser crítico es algo ya poco acostumbrado en gráficas con diseños especiales. Nosotros hemos realizado estas pruebas en un sistema completamente cerrado, sin ventiladores adicionales, más que los que disipan al propio procesador del sistema.
Los consumos de 250w también hay que tomarlos con algo más indicativo de uso medio que un máximo de consumo real. Lo cierto es que en nuestras pruebas, de uso común como el que haría cualquiera en su casa jugando a un juego exigente, nos indican un consumo más cercano a los 275w que a los 250w y sin overclocking.
La conectividad de la tarjeta se mantiene como la de todas sus hermanas de la gama GTX 9xx. Es decir: tres puertos Displayport 1.2 con soporte 4k 60Hz, HDMI 2.0 con soporte 4k 60Hz y una salida DVI de doble enlace con resolución máxima 2k. Podemos contrar hasta cuatro monitores de alta definición con una sola de estas tarejtas.
Algo que os gustara saber es que esta tarjeta tiene las mismas buenas expectativas de overclocking que todas sus hermanas de arquitectura. A pesar de esta limitada en alimentación y disipación esta tarjeta hace con facilidad cerca de los 1400MHz de GPU y 7300MHz para sus 12GB de memoria. Sin duda tocando voltajes estas cifras serán muy superiores pero es un riesgo, siempre.
El rango de alimentación adicional que admite es de un 10%, en otros modelos suele llegar al 20%, pero sin necesidad de tocar voltajes es capaz de alcanzar estas frecuencias con estabilidad. Las temperaturas de trabajo normales de esta tarjeta alcanzan los 89 grados centígrados antes de cortar potencia y “throttlear” el rendimiento. Los resultados son más que esperanzadores aunque el diseño de alimentación puede ser un hándicap para los que busquen frecuencias extremas.
GPU Tweak de ASUS no acaba de detectar bien esta tarjeta pero si que nos permite hacer overclocking con ella. A la izquierda podeis ver las velocidades reales sostenidas durante nuestra prueba de overclocking con carga. Las temperaturas máximas las marcamos en 89 grados y se alcanzan durante al prueba.
Hemos añadido estos resultados de overclocking a nuestra batería de pruebas. Debo decir también que el ruido empeora, claro está, y el consumo puede alcanzar hasta 295w en estos modos de overclocking.
Equipo de análisis:
Procesador: Intel Core i7-5960X @ 4375MHz
Placa Base: ASUS Rampage V Extreme
Memorias: Gskill DDR4 F43000C15 4x4 Quad Channel
Fuente de alimentación: Seasonic Platinum Series 1200w
Driver: 347.77
Rendimiento 1080p:
Battlefield 4. 1920x1080. Calidad Ultra
Bioshock Infinite. 1920x1080. Calidad Ultra
Shadow of Mordor. 1920x1080. Calidad ultra. Benchmark.
Last Light. 1920x1080. Calidad Muy Alta.
Tomb Raider. 1920x1080. Calidad Ultra
COD Advanced Warfare. 1920x1080 FSAA 4x
Battlefield 4. 3840x2160. Calidad Ultra
Bioshock Infinite. 2560x1440. Calidad Ultra
Shadow of Mordor. 3840x2160. Calidad ultra. Benchmark.
Last Light. 3840x2160. Calidad Muy Alta.
Tomb Raider. 3840x2160. Calidad Ultra
COD Advanced Warfare. 3840x2160 sin FSAA
Valley Benchmark 1.0
3DMark Firestrike
3DMark Firestrike Extreme
La Geforce GTX Titan X es un monstruo en potencia bruta que la coloca con diferencia como el chip gráfico más potente hasta la fecha. Se come a sus hermanas y se come también a su competencia con diferencias notables de un 30% más de rendimiento de media. Eso, con la evolución que llevan los chips gráficos, es mucho decir. Solo le mantiene el ritmo una tarjeta compleja como es la Radeon 295X2 aunque cuando usamos el overclocking masivo que admite esta tarjeta las diferencias se hacen mucho mas livianas. También hay que recordar que la Radeon R9 295X2 es una tarjeta de doble GPU con casi 500w de consumo. Aunque tambien hay que recordar que a dia de hoy es mas economica que la propia Geforce GTX titan X.
Dicho esto hay que comentar también en que seguimos sin un motor gráfico que vaya sobrado para aquellos que dan el salto a la ultra alta definición. Los resultados son buenos pero alejados de los 120-144Hz que desearía tener cualquier jugador para disfrutar de la máxima calidad de juego en PC. De hecho le cuesta acercarse a los 60-70FPS. Aun asi la calidad de juego que se obtiene que esta años luz de lo que ofrece a día de hoy la mejor de las video consolas y por lo cual muchos decidimos gasta algo más.
Para mover un monitor 4k Gsync de 144Hz necesitaremos dos de estas amigas trabajando en paralelo. Para un monitor 1080 o 2k para gaming una de estas maravillas nos hará el trabajo ella solita sin despeinarse. OS hemos preparado también los siguientes Gameplay en 3840p30 y 1080p60. Todos estos videos han sido capturados mediante ShadowPlay.
Battlefield 4 3840x2160. Calidad Ultra:
Battlefield 4 3840x2160. Calidad Alta:
Battlefield 4 3840x2160. Calidad Media:
Battlefield 4 1920x1080. Calidad Ultra:
Diablo 3 3840x2160. Calidad Máxima:
Shadow of Mordor. 3840x2160. Calidad Alta:
La arquitectura Maxwell solo le queda un hito por cumplir que es montar una doble GPU en una única tarjeta, seguramente lo acabaremos viendo antes de que acabe el año, mientras algunos podrán disfrutar del chip gráfico más potente fabricado hasta la fecha. Un chip que tiene unas facultades portentosas y que deja a toda su competencia bastante detrás. Habrá que esperar a la Radeon 390X de AMD, que según parece aún necesita algunos meses, para ver si su reinado se ve amenazado.
Esto parece claro pero lo que también está claro es que los “early adopter” de las 4k tendrán que seguir sumando tarjetas en su PC o esperar a una próxima generación para que su sueño de ultra alta definición y altas tasas de FPS sea un realidad. Mientras pondremos nuestras esperanzas en DirectX 12 aunque dudo que las mejoras del API puedan traducirse en una mejora de rendimiento sustancial más cuando aún conocemos pocos títulos compatibles.
La nueva Geforce GTX Titan X se pondrá en pre-venta estos días en las tiendas online más populares de españa y llegará al mercado a finales de marzo con un PVP recomendado de 1199 Euros. Un precio sin duda elevado pero que no ha impedido a Nvidia tener productos exitosos dentro de esta gama Titan en el pasado.