¿A Cuántos FPS Puede Ver el Ojo Humano?
Los videojuegos han alcanzado una gran relevancia mundial en los últimos años, llenando grandes estadios en competiciones de e-sports, juntando a miles de millones de jugadores alrededor del globo y convirtiéndose en una de las ramas más lucrativas del entretenimiento, con algunos videojuegos superando en mercado a algunos deportes tradicionales. Con ese gran aumento de popularidad, llego un gran aumento de interés y, por tanto, gente conociendo y metiéndose a ese mundo. A la vez, con ese aumento de usuarios ha venido un aumento en la demanda y el interés en los dispositivos relacionados con ese mundo.
Ese aumento de popularidad, ha hecho que se empiecen a desarrollar productos específicamente pensados para jugar y para los jugadores, generalmente anunciados con los términos "gaming" o "gamer" y enfocados a ofrecer una mejor experiencia a la hora de jugar frente a los dispositivos convencionales del mismo tipo. Uno de esos productos son los monitores de alta tasa de refresco, pensados para que podamos ver cientos de fotogramas cada segundo, lo cual obviamente puede generar varias preguntas. ¿Tiene sentido tanta frecuencia de refresco? ¿Podemos ver tantos FPS?
Para responder a esas preguntas tendremos que empezar por lo más básico: explicar que es un FPS y que es la frecuencia de refresco.
Los FPS es la unidad que mide la cantidad de fotogramas que un dispositivo genera o procesa durante un periodo de tiempo de 1 segundo, y se usa en videojuegos, aplicaciones y demás formatos multimedia que usan imágenes en movimiento. A veces se confunde con la frecuencia de refresco de una pantalla, medida en Hz (Hercios) la cual indica la cantidad de veces que se actualiza la imagen en el panel cada segundo y, por ende, la cantidad de imágenes diferentes que podrá mostrar la pantalla en ese periodo de tiempo.
En resumen, podríamos decir que los FPS miden las imágenes que se generan cada segundo, y los Hz, las imágenes que se muestran en nuestra pantalla en ese mismo periodo de tiempo. Dos conceptos que aunque son parecidos, no son exactamente lo mismo, como vamos a ver.
Los videojuegos han avanzado una barbaridad en los últimos años. Mapas más grandes, texturas más detalladas, escenarios mucho más vivos y realistas… En los juegos actuales disfrutamos de todas estas mejoras a altos FPS, pero esto no siempre fue así, y es que hace apenas 20 años experimentar un juego a 60 FPS era un privilegio en muchos casos, y no por falta de monitores capaces o de potencia, sino por un componente mucho más desconocido que ha avanzado mucho en estas décadas y que pasa desapercibido: los motores de juego.
Para entender esta limitación hay que ver como se genera un fotograma, un proceso en el que aquí no entraremos en detalle, pero que resumiremos brevemente a continuación:
Los fotogramas no nacen en la tarjeta gráfica, al contrario de lo que mucha gente cree, sino que aparecerán en el procesador central del ordenador, allí la CPU renderizará el contenido o diseñará la escena por primera vez generando el primer trocito de cada FPS: las directrices para que pueda ser representado visualmente.
Tras ello, la CPU hará la llamada al procesador gráfico, el cual realizará dos tareas gracias a sus dos diferentes segmentos de procesamiento: el de renderizado que hará visible la escena y todos los objetos que el procesador anterior ya había diseñado y un segundo proceso por el cual coloreará y aplicará las texturas y filtros de imagen a la foto de ese escenario. Una vez hecho eso, la imagen terminada se envía a la pantalla para mostrarse.
Si prestamos atención al resumen anterior, veremos que la CPU tiene la muy importante tarea de originar los fotogramas a renderizar, controlando por así decirlo el proceso en sí de la creación de cada imagen, al ser esta la primera tarea del proceso. Hoy día esto no es una limitación a la hora de alcanzar grandes cifras de FPS, pero anteriormente si lo era porque los motores de juego limitaban la cantidad de fotogramas que podía procesar la CPU a 60 FPS o incluso 30 FPS. ¿Por qué? Pues simplemente por la forma en la que estaban diseñados los juegos, que asignaban a cada ciclo no solo la creación de la imagen, sino también llamadas a otros sistemas del juego como las físicas, movimiento o actualización de valores, de forma que si un juego limitado a 30 FPS se corriera a 60 FPS las fuerzas aplicadas dentro del juego podían multiplicarse o incluso hacer que el juego fuera al doble de la velocidad a la que debería funcionar, haciendo imposible que se alcanzaran altos FPS.
Estas limitaciones hoy en día ya se superaron en muchos juegos, haciendo posible jugar a prácticamente infinitos FPS en la teoría. Pero ya no es únicamente el poder, sino que hay quien asegura que jugar con altos FPS en monitores de altas frecuencias de actualización no solo mejora la experiencia, sino que otorga ventaja frente a gente jugando a tasas más bajas. Especialmente en videojuegos con más acción y movimiento, como es el caso de los "eSports". Pero, ¿Tan importantes son los FPS en esos juegos?
Como acabamos de explicar, las altas tasas de refresco en videojuegos es algo relativamente novedoso, que hace algo más de una década no se veía fuera del sector profesional o aplicaciones muy específicas y que de repente ahora aparece a precios cada vez más asequibles y en cada vez más paneles, llegando incluso a móviles o televisores.
Si vamos a cualquier tienda online o física de informática y entramos en la sección de monitores, veremos que fuera de los contados modelos de ofimática y gama más baja, la gran mayoría de monitores "gaming" cuentan con al menos 144Hz de frecuencia de refresco, siendo cada vez más normal ver valores de 165, 240 o incluso 360Hz como este monitor Asus ROG, empujado muchas veces por los "eSports" que se juegan a altas tasas de refresco.
También si se buscan testimonios de jugadores, ya sean profesionales o casuales, suelen coincidir en un cambio a mejor al usar mayores frecuencias de refresco, aunque siempre hay debate entre a que frecuencias se deja de percibir el cambio y opiniones que van desde un extremo a otro asegurando desde cambios abismales hasta afirmar que no hay diferencia al cambiar de unos valores a otros.
Aparte, también en estas pantallas de alto rendimiento suelen aparecer tecnologías que afectan a la percepción de la imagen como el GSync o FreeSync para sincronizar altas tasas de imagen, o modos de bajo tiempo de respuesta que también afectan a la percepción de ese aluvión de imágenes que muestran a cada segundo.
Y es que a tan altas tasas al final todo depende de la percepción, la cual además depende a su vez de cada uno, lo que esté acostumbrado a ver y a las situaciones en las que vea ese contenido, además de otros factores.
En resumen, que la máxima tasa de imágenes que percibirá y a la cual reaccionará un humano dependerá de cada persona. Así que, si mirando los valores más altos no podemos sacar un valor exacto de FPS que puede ver el ojo, igual encontramos una mejor solución centrándonos en el otro extremo de la escala y explorando las tasas más bajas de fotogramas que al final son a las que más hemos estado expuestos históricamente y más estudiadas están.
Ya hemos comentado que actualmente se juega a videojuegos a altos FPS, pero no hay que olvidarse del resto del contenido multimedia, que lleva entre nosotros mucho más tiempo y que no destaca precisamente por tener una alta tasa de fotogramas: las películas, la televisión y los vídeos.
La primera existencia de imágenes en movimiento en una pantalla podríamos localizarla en el año 1895, con las proyecciones de cine de los hermanos Lumiere, y desde entonces ha avanzado mucho y variado en formato, pero siempre el concepto ha sido mostrar imágenes en sucesión para generar la sensación de movimiento, y el enfoque de mostrar la mínima cantidad de imágenes cada segundo para lograr este efecto tampoco ha cambiado mucho. La razón es que antiguamente meter más fotogramas significaba tener que aumentar el tamaño del rollo de película, haciendo que hacer producciones a más velocidad no tuviera sentido.
A medida que ha avanzado la tecnología el problema ha persistido, si se quieren meter más fotogramas habrá que aumentar el tamaño de la película, por lo que es razonable que se apueste por ajustarse al límite y que los formatos que se usen en el cine fijen la tasa de fotogramas en 24 FPS como estándar, que es la tasa de imágenes más baja que se ha comprobado que transmite la sensación de movimiento.
Los canales de televisión tampoco suben mucho esa cifra, con el formato NTSC utilizado en Norteamérica, ofreciendo 30 FPS, y el PAL, usado en la mayoría del resto del mundo dando 25 FPS, por lo que cada vez que encendemos la televisión, vemos una serie en Netflix o un partido de fútbol estaremos viendo contenido a 25 FPS o una tasa muy cercana a esa aunque nuestros dispositivos soporten velocidades mayores.
Tras explorar los dos extremos de las tasas de refresco nos puede surgir dudas: ¿cómo es que hay gente que necesita jugar a 240 Hz, pero a la vez puede sentarse a ver una serie a 24 fotogramas por segundo? ¿Si vemos la televisión perfectamente a tan bajas tasas de fotogramas porque alguien necesitaría un monitor con una alta tasa de refresco?
La clave para diferenciar y entender por qué existen estos dos extremos es la percepción del movimiento.
Hemos dicho que a partir de 24 FPS todo humano reconocerá movimiento sin problemas, pero a medida que aumentemos la cantidad de fotogramas que se muestran la percepción del movimiento cambiará. Y esto, irónicamente, más que estar relacionado con la tasa de imágenes, está relacionado con el tipo de contenido que se está mostrando.
Para entender esto pensemos en las típicas imágenes que se muestran en televisión, planos lejanos y lentos sobre escenarios, enfoques sin o con muy poco movimiento de gente hablando… La mayoría de imágenes que se emiten tienen poco movimiento o uno muy lento, de forma que de un fotograma al siguiente la diferencia entre ellos no es muy grande, lo cual hace que percibamos el movimiento de forma natural y no nos enteremos de la lenta sucesión. Pero cuando los movimientos son más rápidos y bruscos es cuando los problemas empiezan, porque en esas situaciones un fotograma y su siguiente mostrarán imágenes más diferentes que en el caso anterior, lo cual puede romper la inmersión y la sensación de movimiento. Para evitarlo se suele jugar con técnicas como el difuminado de movimiento o en raros casos, se graba la película con a una mayor tasa de imágenes si se sabe de ante mano que va a haber mucho movimiento, como por ejemplo en el caso de la última película del Hobbit.
En ese último caso donde nos encontramos con mucho movimiento rápido donde entran en escena las altas tasas de fotogramas, siendo los videojuegos de acción o “shooters” como la serie Call of Duty, Fortnite, CSGO o Apex Legends algunos ejemplos de juegos donde el jugador hace rápidos y precisos movimientos de cámara mientras está envuelto en trepidante acción. En esa situación, tener una alta tasa de refresco ayuda a que esos movimientos a gran velocidad se perciban como más naturales y fluidos a la vista.
Al mismo tiempo, hay otros juegos donde hay menos acción y se hacen movimientos lentos, donde tener muchos FPS no aportará nada, por eso mismo sería un error decir que necesitamos un monitor con alta frecuencia de refresco para todos los juegos, al igual que sería un error decir que los 24 FPS de la televisión son lo mejor para todo tipo de vídeo o película, ya que en una telenovela igual no tenemos problemas, pero si nos ponen la última película de James Bond es fácil ver en escenas de acción que los 24 FPS no dan para más.
Entonces, tras haber visto varios casos y situaciones con diferentes frecuencias de refresco: ¿A qué conclusión llegamos? ¿A cuántos FPS funciona el ojo humano?
Pues si se ha prestado atención durante el artículo, se habrá notado que en ningún momento parece haber un acuerdo en un valor exacto, siquiera de un valor máximo o mínimo, aunque en el caso de este último más o menos se diga que 24 FPS es lo mínimo para que se aprecie el movimiento y un video sea un video y no una presentación de imágenes. Por eso, si tras estudios hechos por investigadores expertos no se marca un valor, no cabe esperar que aquí os demos una respuesta definitiva, y es que si analizamos un poco el funcionamiento básico del ojo y las peculiaridades de la visión humana entenderemos el porqué de la ambigüedad en este caso.
Para empezar, la pregunta está mal formulada, los humanos no vemos por los ojos, al menos no solamente, sino que vemos cuando el “input” que proporciona ese órgano lo procesa nuestro cerebro, y más importante, lo interpreta. De forma que esa pregunta sería más realista si fuera algo más en la línea de cuantos FPS podemos percibir o interpretar
Al ojo, le entra luz de manera constante, no a fotogramas, o en lapsos de tiempo, como ocurre en el sensor de una cámara, por eso está de manera constante enviando información al cerebro, el cual, procesa esa imagen transformándola de varias maneras y cruzándola con la del otro ojo para generar la sensación de profundidad entre otros efectos, y luego, de esa imagen ya generada llega a nuestra parte consciente e inconsciente, pudiendo llamar a la imagen que “vemos” como ese proceso final por el que somos conscientes de la información que percibimos.
Podríamos meternos más a fondo en el funcionamiento del ojo, pudiendo responder también a preguntas como a cuanta resolución ve el ojo humano, pero con lo que hemos visto a lo largo de este artículo y para ya cerrar esta pregunta podríamos decir que el ojo ve movimiento, lo cual tiene sentido desde un punto de vista evolutivo, ya que un movimiento puede significar una amenaza y, por tanto, es importante reaccionar a ella, y es la percepción de ese movimiento lo que variará según los fotogramas que nos muestre la pantalla. Así que, como respuesta final, el ojo verá movimiento entre 24 FPS y lo máximo que cada uno pueda percibir, aumentando la fluidez a más fotogramas.