NVIDIA G-Sync, la solución a los problemas de sincronización entre gráfica y pantalla
por Antonio Delgado 20
Actualmente el monitor y la gráfica son dispositivos separados sin ningún tipo de conexión que los sincronice más que la emisión de vídeo hacia el monitor, que dependiendo de la tasa de refresco que tenga, actualizará la pantalla para mostrar la imagen. Esto provoca los conocidos problemas de tearing y stuttering y entrecortes en la imagen al actualizarse la pantalla mientras se envía un nuevo frame desde la GPU, algo bastante molesto en los juegos. Para solucionarlo tenemos el vSYNC que sincroniza la tasa de imágenes por segundo generada por la gráfica con la tasa de refresco de la pantalla. El problema de esta tecnología es que limita a los FPS o imágenes por segundo correspondientes a los Hz de la pantalla, si tenemos un monitor de 60 Hz, tendremos un máximo de 60 FPS. Además, si nuestro equipo no es capaz de mantener los 60 FPS, el problema se mantiene
Para solucionar esto, NVIDIA ha presentado G-Sync, una tecnología que sincroniza el monitor con la gráfica para tener una imagen perfecta sin estos problemas antes mencionados, para ello ambos dispositivos tienen que estar perfectamente sincronizados y es necesario un chip integrado en el monitor, llamado Módulo G-Sync.
Será compatible con las gráficas de arquitectura Kepler de Nvidia, haciendo que los tiempos de sincronización se controlen desde la propia GPU en vez de basarse en los HZ de la pantalla, de tal manera que primero se genera la imagen, se envía al monitor y este actualiza lo mostrado por pantalla con una imagen correcta, de este modo siempre se conseguirá que el monitor muestre los juegos sin ningún tipo de problema de sincronización como el tearing, retrasos en la imagen o el stuttering.
Los primeros fabricantes que lanzarán al mercado monitores con NVIDIA G-Sync serán ASUS, BenQ, Philips y ViewSonic, aunque se espera que otros fabricantes empiecen a integrarlo paulatinamente.
Hemos podido ver en directo las demos que ha mostrado Nvidia con un equipo con G-Sync y otro sin el y la diferencia es apreciable a simple vista, naturalmente en el test preparado específicamente la diferencia es más apreciable, pero hemos podido ver el nuevo Tomb Raider y es innegable que se nota perfectamente la diferencia.
Podremos jugar con cifras por debajo de los 60 FPS y conseguir un vídeo fluido y sin problemas de sincronización, de la misma manera, si nuestra gráfica es capaz de generar más FPS que la frecuencia de actualización de la pantalla, se sincronizará automáticamente. En ambos casos se consigue una experiencia de juego impresionante, que nos hace preguntarnos por qué no se ha intentado solucionar este problema hace años.
Estará disponible el chip G-Sync durante el primer trimestre del año 2014 integrado en monitores de distinto tamaño, con distintas resoluciones e incluso tasa de refresco. La diferencia respecto al mismo monitor sin G-Sync será de un ligero aumento de precio que no afectará al precio habitual de los monitores dentro de su gama y características. En el momento de la salida al mercado de los primeros monitores se lanzará el driver para las tarjetas gráficas con arquitectura Kepler de Nvidia.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!
La verdad es que si es algo que siempre a ha afectado a los juegos de PC y llevamos siglos con el vsync únicamente como método de "control". Aún así lo ideal sería que esto fuera un estándar que sacaran los fabricantes de pantallas, por que al ser un chip propio de Nvidia... ahora habrá que mirar qué monitor compras y para qué gráfica la compras, en el momento que cambies una de las dos cosas ya no funcionará el sistema. A ver si AMD saca algo parecido, aunque el problema sería el mismo, pantallas asociadas a una gráfica :(
A ver si lo pillo, ahora con esto puedo usar v-sync a fps mas bajas ke 60?
@1 En la propia Nvidia esperan que AMD haga algún movimiento similar, pero si es cierto lo que dices. El G-Sync soluciona por fin el problema del tearíng y demás, pero a costa de tener que comprar gráfica y monitor "compatibles", eso limita bastante las opciones. No obstante hay que reconocerle a Nvidia el trabajo de preocuparse por el problema y lanzar por fin una solución, que es una vergüenza que llevemos sufriendo tanto tiempo este problema sin que ninguna compañía diera solución definitiva.
@2 No, de hecho el V-sync ya no lo necesitas. El V-sync lo que hace es que la grafica funcione a la velocidad que marca el refresco del monitor. Con esto no necesitas v-sync porque estos monitores lo que hacen es mostrar el frame justo cuando la grafica lo ha generado y mandado a monitor. Es decir, ahora la gráfica manda sobre el monitor. Saludos.
Y para los que tenemos conectado el ordenador a la televisión? yo ya hace años que dejé de comprar pantallas, tengo en el saalón una TV FullHD y la uso para todo
el tema es ke esto es solo nvidia, ahora tienes ke comprarte el monitor segun la grafica ke tengas, eso puede ser un problema, a ver si amd se pone las pilas.
@5 Igual que el que tenga un monitor lo tiene que cambiar para obtener esto, si salen TVs con esto tambien lo tendrías que cambiar, o sino plantearte usar un monitor de estos como TV.
@7 Pero harán televisiones con el chip este? o solo es para monitores, la única que hace TV de las empresas que pone la noticia es Philips me parece
Bueno, si ya empezamos con televisores también, al final hará falta calzoncillos de cada marca para poder usar sus componentes :D
Puede que salga en televisores en un futuro, realmente no es que sea una tecnología que haga que el monitor o TV solo se pueda usar con gráficas Nvidia, puedes usarlo con AMD pero no podrás usar el G-Sync, como ya pasa con el 3D Vision o el PhysX por GPU.
Shut up and take my money!!! JAJAJA Evidentemente, al margen de las patentes, habrá imitación de los resultados de esa tecnología en la competencia, en cuanto salga al mercado, o antes. No entiendo lo que hace este G-Sync. Porque a ver V-Sync en esencia sincronizaba VERTICALMENTE, las imágenes por segundo (Frames por segundo o FPS) con la frecuencia de refresco de la imagen en el monitor dada en Hz. Hasta ahí todo entendido... 1) Si la pantalla era de 60Hz, como máximo lograbas 60FPS teóricos que eso poca gente logra con su gráfica. Sabemos que más de 60Hz, se logran haciendo duplicados y rollos que no voy escribir, pero... Y que esos más de 60Hz son en esencia "teóricos" o logrados por algún tipo de desdoblamiento, esa no es la pregunta. ?¿Si la pantalla va a más de 60Hz (100Hz, 200Hz), V-Sync sincronizaba a esa frecuencia o bajaba a 60Hz 2) Si la tecnología G-Sync no logra una mejora en la calidad de la imagen sincronizando los FPS con el refresco de la pantalla en Hz... ¿ Con qué lo hace?, ¡Con qué se sincroniza! Cómo funciona.
@11 Hasta ahora los monitores todos han tenido una frecuencia fija que era 60Hz o 120Hz para los 3D. Lo que esto hace es añadir un chip en los monitores para que el monitor no funcione a una frecuencia fija, sino que funcione a la frecuencia que marque la GPU. Es decir, que el monitor no lea a su bola cada 16 milisegundos, sino que lea exactamente cuando la GPU ha generado la imagen. Dicho de otra manera, el monitor en vez de ser de 60Hz tendra una frecuencia de refresco variable marcada por los FPS de la GPU. No es algo que va en la GPU sino que es un chip que se integra en los monitores. Un saludo.
@11 Siguiendo con el asunto. El problema que tenía el V-Sync con las pantallas es que dependiendo del juego y la configuración no siempre es posible mantener esos 60FPS para cumplir con la frecuencia de refresco del monitor, lo que generaba problemas de Tearing, ya que la GPU no es capaz de generar los frames a tiempo, esto es un efecto feo que es bien conocido en juegos, igual que has visto en la segunda imagen de la noticia. El G-Sync lo que hace es dejar de que la frecuencia del monitor sea variable y esté controlado por la velocidad de generación de frames de la GPU. Lo del v-sync es un problema que se conoce desde que se inventó la GPU y hoy nvidia lo ha soucionado por fin, pero depende de los fabricantes de monitores para que esto se extienda y sea accesible. Por el momento habrá que esperar al primer trimestre del 2014 para que salgan reviews y podamos tener un monitor de estos a la venta. Saludos.
Muchas gracias por las explicaciones, Teejockey. :D En cuanto a lo que habláis de su salida al mercado. Es de esperar que AMD, no tarde en tener algo similar. Puede que incluso antes de comercializarse éste de Nvidia. No sería inteligente por parte de AMD recurrir a fabricantes de monitores para lanzar su producto en plan partners como ha hecho Nvidia. (En particular porque ya Nvidia ha cogido a los mejores) Creo que el esfuerzo de AMD irá a desarrollar un dispositivo, periférico no integrado en el monitor que sí se conecte a éste y a la gráfica. Y haga la misma función, pero siendo compatible con todas las marcas de monitor del mercado indistintamente y con sus gráficas, o puede que hasta incluso con las de la competencia JAAJAJA yo lo haría por joder. JAAJAAJA Es la opción que creo más acertada. Bueno, eso es todo, me ha gustado el artículo. Y hay que reconocer el trabajazo que tiene escucharse esas conferencias más o menos amenas donde se presentan productos, sólo por el placer de contárnoslo. Thanks, :D So feos!
@14 La idea del dispositivo externo estaría muy bien y la verdad sería algo más práctíco para evitar tener que atarte a una marca en monitor y gráfica. Pero teniendo en cuenta como funciona esto y que tendría que controlar dinámicamente la frecuencia de actualización no creo que sea posible de manera externa, al menos sin algún tipo de puerto adicional.
?¿Un puerto adicional, cómo? (algún estándard existente o algo nuevo) No crees que sería posible desarrollar un dispositivo periférico externo, anexo al monitor, similar al desarrollado por Nvidia, y al que le entrase la señal de vídeo desde la gráfica por vía HDMI 2.0 por ejemplo, y saliese por lo mismo, o algo similar aún no inventado... Lo ideal sería que pudiese transmitirse por algo ya inventado. Y dado que estos monitores con G-Sync, supongo que se conectarán a la gráfica por un cable HDMI convencional, no veo, el problema. Mañana mismo cojo el soldador y hago un apaño similar de ejemplo. :S jaajajaa
@16 ADG se refiere que para que esto funcione el monitor tiene que tener una placa integrada de NVIDIA dentro del propio monitor que toma posesion de la frecuencia de refresco anulando el standar de 60Hz cuando G-Sync está activado. La unica forma de no tener esto integrado en los monitores es que los monitores tengan un puerto para conectar esa placa integrada de nvidia de forma externa y que haga la misma función. Esto no existe y son solo especulaciones nuestras. NVIDIA de momento solo lo está haciendo integrándolo en determinados monitores de los fabricantes indicados. Comentar que para que G-Sync funcione la transmisión de la gráfica al monitor debe ir a través de DisplayPort, aunque si no recuerdo mal he oido algo de una posible implementación también para HDMI más adelante. Como de todas formas para que funcione te tienes que comprar el monitor, directamente vas a tener displayport, solo tienes que asegurarte de tener una tarjeta gráfica basad en Kepler con DisplayPort para que funcione. Un saludo.
@17 Ummmm... Lees la mente de ADG. Interesante. JAJAAJA :P es broma, es broma. En cuanto a lo que me refería de AMD, es todo especulación mía. Es lógico pensar; que AMD, busque una estrategia comercial diferente, que la de Nvidia. Buscando para ello: ?El uso de estándares de conexión, lo más extendidos y conocidos posible. ?Que su, supuesto, AMD-Sync (o como lo llamen) sea un aparato anexo, externo y completamente compatible con cualquier marca de monitor. Es la única forma que se me ocurre de contrarrestar el movimiento hecho por Nvidia. Pero claro... Ésto a nivel técnico es raramente posible, por no decir directamente imposible. Porque, como dices; G-Sync modifica o adapta la frecuencia de refresco de la pantalla adaptándola a la de la gráfica. Y eso es algo que a través de HDMI, no se puede hacer sin que haya algún cambio en los monitores, y eso requeriría: ? Acuerdos con los fabricantes para que integrasen algo dentro de sus monitores. ? Exigiría que nosotros comprásemos monitores nuevos. Así que estamos en las mismas. Que será algo que imitarán, es seguro... Y que se convertirá en una característica deseada y buscada por cualquiera y que todos fabricantes desearán tener, también. Ya veremos. JAAJAJA me dejo de especular. Dejemos a Sandro Rey hacer su trabajo. JAJAJA Así que AMD lo tiene complicado. :(
No puedes controlar la frecuencia de actualización de un monitor por su entrada de vídeo, por eso comentaba lo de un tipo de puerto especial (no tengo ni idea de si por un simple USB se podría hacer algo así), pero vamos, son especulaciones, eso a día de hoy no existe.
ESCRÍBE UN NUEVO COMENTARIO ¿Qué opinas sobre este tema? ¿Alguna pregunta?
Se enviará como Anónimo.