• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio con CDKeyoffer. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

[GUIA] ELECCION DE MONITOR: Dimensiones, resolucion y distancia

American Graffiti

Sombrerero Loco
Registrado
23 Ene 2013
Mensajes
5.488
Puntos
113
Elegir un monitor durante muchos añOs ha sido algo trivial, sin embargo en los últimos años han evolucionado muchísimo y hoy por hoy esa elección es cada vez más clave, puesto que una correcta elección del mismo nos va a permitir sacar mayor partido a nuestro hardware y una mala elección provocará que no aprovechemos el potencial de nuestro equipo. Por eso es normal que cada vez demos más importancia al monitor e invirtamos más dinero en el monitor, bien porque estamos montando un potente equipo gaming, porque lo utilicemos para diseño/edición o para consumir contenidos multimedia.

En primer lugar, recomiendo la lectura de GUIA PRACTICA Monitores (ENERO 2016) donde el amigo @chetodann explica a la perfección la diferencia entre unos tipos de paneles y otros, algunas de las tecnologías, quien es cada fabricante, enlaces interesantes... En esta guía se volverán a comentar algunos temas, pero con menor profusión.


TIPOS DE PANEL

Su elección depende del uso que vayamos a darle al ordenador, pues las diferencias son notables entre unos y otros. Las principales diferencias las encontraremos a nivel de colores, ángulo de visión, tiempo de respuesta y contraste.

- Panel TN (o TN+Film): Son los paneles más básicos y destacan por su menor tiempo de respuesta (1ms GtG), por lo que son los favoritos para gaming, además de ser los más económicos. Por norma general carecen de gosthing y bleeding, dos defectos habituales en paneles IPS. Por contra su paleta de colores es más restrictiva (entorno al 7X% de sRGB) y los ángulos de visión son más restrictivos, de modo que los colores no son consistentes si no la vemos de frente.

- Panel VA (o PLS): Son paneles "todoterreno" que ofrecen unas características intermedias entre el TN y el IPS. Ofrecen un buen rango de colores (entorno al 9X% de sRGB), con buenos ángulos de visión y un tiempo de respuesta algo superior al TN (~4ms GtG), todo aderezado con un muy bien contraste, que da como resultados imágenes más vibrantes y negros más puros. Es una muy buena alternativa para gaming, pero nos permitirá editar con cierta precisión y destacan en consumo multimedia (películas, series, youtube...)

- Panel IPS: Son paneles más enfocados a diseño y edición, no sólo por su rango de colores superior al 95%, sino por su mayor precisión de color. Los tiempos de respuesta son algo más altos (5-7ms GtG) lo cuál puede ser un inconveniente para los jugadores más exigentes que estén acostumbrados a paneles TN, pero se puede jugar perfectamente con ellos. Tienen menor contraste que los VA y la sensación puede ser de colores un poco "lavados" en juegos y multimedia (en comparación con los VA). Para su uso en edición y diseño (incluído CAD/CAM) se recomienda ir a modelos de gamas media/alta por su mayor consistencia y precisión de colores.


RESOLUCIÓN DEL MONITOR

La resolución es la cantidad de pixels que vemos en pantalla y se suelen denominar por el número de pixels verticales (720p, 1080p, 1440p, 2160p...). Todas las resoluciones tienen una doble nomenclatura, que viene definida por entre 2-5 letras mayúsculas que son el acrónimo de dicha resolución, las cuales son algo más específicas, ya que nos indican también la proporción del monitor (normalmente 4:3, 16:9, 16:10 ó 21:9). De hecho es posible encontrar diferentes nomenclaturas (algunas basadas en VGA y otras en HD), además de tener siempre la posibilidad de nombrar los pixels horizontales y verticales (por ejemplo, 1080p / 1920x1080 / FHD / Full High Definition se refiernen exáctamente a lo mismo). Por simplicidad utilizaremos las nomenclaturas simplificadas (1080p / FHD) salvo que sea necesario especificar algo (explicación de las principales resoluciones en el spoiler).

Spoiler


DENSIDAD DE PIXELS

A veces nos obsesionamos mucho con la resolución cuando lo más interesante es la densidad y la densidad "aparente" (osea la que vamos a percibir a la distancia que solemos estar). La densidad se expresa como el número de pixels que hay en un cuadrado de una pulgada de lado y normalemente podemos encontrarla como dpi (dots per inch), ppi (pixels per inch) o ppp (puntos/pixels por pulgada).

Para Windows la densidad "estandar" son 92dpi y toda su interfaz (así como la de la mayoría de programas) están pensados para funcionar a dicha resolución. Windows incluye la posibilidad de escalar la interfaz, pero sólo hacia arriba para adaptarse a monitores de mayor dpi, de modo que si compras un monitor con resolución inferior a 92dpi corres el peligro de que todo se muestre demasiado grande (por ejemplo un 27" 1080p). En internet sin embargo la densidad "estandar" ha sido durante mucho tiempo 72dpi, de forma que las imágenes se ajustaban a dicha resolución, para mayor compatibilidad con los equipos antiguos y las conexiones lentas.

Para un mismo tamaño de pantalla, una mayor resolución (por ejemplo 1440p vs 1080p) nos va a aportar un mayor espacio de trabajo ya que los menús, barras de herramientas, iconos, etc... van a ser más pequeños, algo muy útil cuando trabajamos con programas de diseño y edición. Por contra para otros usos puede que ciertos elementos como los textos se vean más pequeños, lo cuál podemos mitigar con el escalado de Windows o con el escalado propio del programa si lo incluyera (como es el caso de Chrome).

En juegos, una mayor densidad nos aporta mucha más definición e información en pantalla y sobretodo suavidad en los contornos y bordes de los objetos, reduciendo el molesto efecto de "dientes de sierra". Normalmente para combatir ese efecto los juegos y programas utilizan una técnica conocida como "antialiasing", la cual supone una carga extra para nuestra tarjeta gráfica al aplicar pesados filtros para combatirlo.

Calcular la densidad puede ser algo tedioso si lo calculamos a mano, sin embargo hay webs que permiten calcularlo de forma sencilla e intuitiva. Yo personalmente recomiendo esta web

Calculadora de pixeles por pulgada (PPP)


DISTANCIA DE USO

Como ya adelantábamos en el apartado anterior, la distancia a la que vamos a estar del monitor es tan clave como su densidad. Si estamos muy cerca puede que lleguemos a ver los pixels y si estuvieramos muy lejos no seríamos capaces de discernir entre una resolución y su inmediatamente anterior. Es decir, cada monitor tiene una distancia óptima de visionado y unas distancias mínima y máxima, que si las calculamos nos ayudará a elegir mejor nuestro monitor y a sacarle el máximo provecho.

Esta relación entre densidad y distancia podríamos definirla como densidad aparente, siendo un valor aproximado y que dependerá también de nuestra sensibilidad a percibir diferencias de resolución. Yo utilizo una terna de valores que son 50-60-75 que por mi experiencia son bastante aproximados a las distancias mínima-optima-máxima respectivamente, medidas desde el ojo hasta el centro de la pantalla.

- Distancia óptima = 60 / dpi = distancia en metros
- Distancia mínima = 50 / dpi = distancia en metros
- Distancia máxima = 75 / dpi = distancia en metros


Del mismo modo podemos darle la vuelta a la ecuación para ver qué tal estamos situados ante nuestro monitor, comprobando así si la densidad aparente a dicha distancia es correcta.

- Distancia de visionado en metros * dpi = Densidad Aparente

¿Pasa algo si me encuentro más cerca de esa distancia mínima calculada? Pues posiblemente empieces a percibir la matriz de pixels del monitor, lo cual resulta bastante molesto. ¿Pasa algo si me encuentro a más distancia de la máxima calculada? Pues que posiblemente no seas capaz de diferenciar entre un vídeo 1080p y uno 720p.

¿Se cumple esto con la resolución 4K? La verdad que supone un salto tan grande de resolución que rompe un poco los esquemas, ya que nos daría unas distancias muy muy pequeñas, que en el uso real son un poco absurdas. Por ello utilizaremos los valores 60-75-90, una terna algo diferente de la utilizada para el resto de resoluciones, pero que da unos valores algo más aproximados a un uso real.

- Distancia óptima 4K = 75 / dpi = distancia en metros
- Distancia mínima 4K = 60 / dpi = distancia en metros
- Distancia máxima 4K = 80 / dpi = distancia en metros


De todas formas insisto en que son unos valores aproximados (con un margen de unos 5cm) y que dependen de cada uno, por lo que recomiendo sacar tus propios valores.


TAMAÑO, RESOLUCIÓN, DENSIDAD Y DISTANCIA DE USO

Como vemos los 4 valores van ligados de la mano. Una mejora en resolución nos puede permitir un salto a un monitor de mayor diagonal, incluso ganando densidad de pixels y por tanto pudiendo acercarnos más al monitor, teniendo una doble ganancia de espacio de trabajo, como sucede al pasar de un 24" 1080p a un 27" 1440p, que es un caso muy recurrente. Vamos a ver los casos más habituales:

Monitores 1080p >> Calculadas con 50-60-75
- Monitor 21,5" 1080p >> 102dpi >> distancia óptima 60cm / mínima 50cm / máxima 75cm
- UltraWide 25" 1080p >> 111dpi >> distancia óptima 55cm / mínima 45cm / máxima 70cm
- Monitor 24" 1080p >> 92dpi >> distancia óptima 65cm / mínima 55cm / máxima 85cm
- UltraWide 29" 1080p >> 96dpi >> distancia óptima 62,5cm / mínima 52,5cm / máxima 77,5cm
- Monitor 27" 1080p >> 81dpi >> distancia óptima 75cm / mínima 60cm / máxima 95cm
- UltraWide 34" 1080p >> 82dpi >> distancia óptima 75cm / mínima 60cm / máxima 95cm
- Monitor 32" 1080p >> 69dpi >> distancia óptima 85cm / mínima 72,5cm / máxima 110cm


Monitores 1440p >> Calculadas con 50-60-75
- Monitor 24" 1440p >> 123dpi >> distancia óptima 50cm / mínima 40cm / máxima 65cm
- Monitor 27" 1440p >> 109dpi >> distancia óptima 55cm / mínima 45cm / máxima 70cm
- Ultrawide 34" 1440p >> 109dpi >> distancia óptima 55cm / mínima 45cm / máxima 70cm
- Monitor 32" 1440p >> 92dpi >> distancia óptima 65cm / mínima 55cm / máxima 85cm


Monitor 2160p >> Calculadas con 60-75-90

- Monitor 24" 2160p >> 183dpi >> distancia óptima 42,5cm / mínima 32,5cm / máxima 50cm
- Monitor 28" 2160p >> 157dpi >> distancia óptima 45cm / mínima 37,5cm / máxima 57,5cm
- Monitor 32" 2160p >> 137dpi >> distancia óptima 55cm / mínima 45cm / máxima 65cm
- Monitor 40" 2160p >> 110dpi >> distancia óptima 70cm / mínima 55cm / máxima 85cm


fSVQvSr.png

QpoDkCT.png

9wJFzLw.png


En las imágenes podemos ver la comparativa entre los diferentes modelos de monitor y cómo afecta la resolución y la densidad de pixels en la distancia de uso y en los ángulos de visionado. Mientras que las distancias dependen únicamente de la densidad de pixels, los ángulos de visionado son una constante para cada una de las resoluciones (no dependen del tamaño del monitor). Ese valor del "ángulo de visionado" es lo que en juegos conocemos como FOV (field of view) y que suele ser ajustable en aquellos juegos de primera persona (principalmente shooters y carreras) de modo que aumenta la sensación de inmersión si ajustamos correctamente ese FOV.

Monitores FHD 16:9 >>> FOV 45º~50º
Monitores WFHD 21:9 >>> FOV 60~65º
Monitores QHD 16:9 >>> FOV 55~60º
Monitores WQHD 21:9 >>> FOV 70~80º
Monitores WQHD+ 21:9 >>> FOV 80-85º
Monitores UHD 16:9 >>> FOV 65-75º
Monitores 2xFHD >>> FOV 80-90º

olhSBlF.png



Como utilidad para comparar tamaños de forma rápida y gráfica, me gusta recomendar la siguiente página Visual TV Size Comparison : Display Wars
 
Última edición:
[GUIA] ELECCION DE MONITOR: Frecuencia de refresco y sincronismo

En el primer post hemos hablado de tamaño, densidad, resolución, distancias... pero hemos dejado a parte la frecuencia de refresco y los métodos de sincronismo, por ser un tema más enfocado al gaming y no tanto a un uso ofimático o profesional. Del mismo modo, recomiendo leer los hilos con chincheta escritos por @chetodann para poder ampliar información, en este hilo intentaré ir al grano y no entrar demasiado en detalles técnicos, que se encuentran más desarrollados en los hilos que os comento.


FRECUENCIA DE REFRESCO

Los monitores no muestran una imagen estática, sino que la imagen cambia un número de veces por segundo (medido en hertzios, Hz ). Tu tarjeta gráfica por su parte tiene que generar tantas imágenes (o frames) por segundo ( fps ) como Hz tenga tu monitor, algo que cuando estamos en el escritorio o viendo un vídeo es muy sencillo, se complica enormemente cuando estamos en un juego. La carga de la gráfica es variable, no todos los segundos va a ser capaz de sacar el mismo número de fps que Hz tiene el monitor:

- Si saca menos fps que Hz, entonces algunas imágenes se repiten
- Si saca los mismos fps que Hz, entonces quedan sincronizadas uno a uno
- Si saca más fps que Hz, entonces tiene que saltarse algunos frames

Hay varios métodos para sincronizar los fps de la gráfica con los Hz del monitor, pero de eso hablaremos en el siguiente punto.


La mayoría de monitores funcionan a 60Hz (y prácticamente la totalidad de los televisores) por lo que normalmente intentaremos llegar al menos a los 60fps en juegos para lograr ese sincronismo. De hecho una de las grandes diferencias de jugar en PC a hacerlo en consola reside en esto, las consolas, al tener una menor potencia que un PC gamer, por lo general funcionan a 30fps, duplicando cada imagen para llegar a los 60Hz del televisor, mientras que en ordenador intentamos jugar a 60fps como mínimo. ¿Cuál es la diferencia? Ese mayor número de Hz hace que la imagen sea más fluida, más natural, lo cual se nota especialmente cuando hay rotaciones y cambios de cámara, siendo más notorio en los juegos en primera persona (ya sean shooter, RPG, coches...). De hecho las cámaras de acción ya graban todas a 60fps para aprovechar esa mayor fluidez, incluso nuestros propios móviles también graban a 60fps, incluyendo modos de 120-240fps para grabar a "cámara lenta" (en realidad es cámara super-rápida, lo que es lenta es su posterior reproducción a 30-60fps), mientras que en el cine que graban todo con cámaras fijas y con movimientos muy suaves graban a 24-48 fps segun el tipo de película, pues hemos acostumbrado la vista al aspecto cinematográfico de los 24 fps.

Sin embargo para gaming hay monitores que superan esos 60fps de largo, lo cual supone una ventaja en esos juegos en primera persona y con giros de cámara, pues logras aún más fluidez que en 60Hz (no digamos que en los 30Hz de las consolas) y eso se traduce en movimientos más suaves y fluidos, pero también mucho más definidos, lo que ayuda a poder apuntar más rápido en shooters o a lograr mayor sensación de realismo y velocidad en juegos de carreras (que son los 2 géneros más favorecidos). El problema de aumentar el número de Hz es que incrementas enormemente los requerimientos de computación, principalmente de la tarjeta gráfica (GPU) que tiene que sacar más fps, pero también del procesador (CPU) que tiene que tramitar esos fps y calcular las físicas y mecánicas del juego. Hay que tener claro que pasar de 60fps a 144fps implica multiplicar la exigencia gráfica x2,4, por lo que para jugar en 1920x1080@144Hz supone una carga gráfica similar a jugar en 3440x1440@60fps (es una estimación, cada juego "escala" de forma diferente en resolución y en fps).

Debido a esa mayor exigencia gráfica, este tipo de monitores se usa mucho con los juegos denominados "competitivos" o "e-Sports" (CS:GO, LoL, Overwatch, WoW, Dota2...), que suelen ser juegos con motores gráficos menos potentes donde lo que prima es la competición y ahí el tener 144Hz puede suponer una gran diferencia. Muchos de ellos son juegos lanzados hace varios años, pero que son muy populares y en ellos es más fácil alcanzar esas altas tasas de refresco, pudiendo incluso duplicarlas en muchos casos. Podemos encontrar en el mercado monitores gaming desde los 100Hz a los 240Hz, pero la cantidad que se ha vuelto más habitual es 144Hz. Por suerte la gran mayoría de estos monitores no sólo funcionan a ese número de Hz máximo, sino que suelen funcionar a varias tasas de refresco, siendo lo habitual que funcionen a 60-120-144Hz.


SINCRONISMO

Una vez hemos elegido los Hz de nuestro monitor, en función del tipo de experiencia y del tipo de juegos, el siguiente punto es informarnos un poco sobre los métodos de sincronismo, ya que algunos dependen directamente de tecnologías incluidas en los monitores y de su compatibilidad con las gráficas AMD o Nvidia.

Como vemos, la sincronización entre fps y Hz es clave para una buena experiencia en juegos. Tenemos que tener claro que una gráfica no envía un número constante de fps para un juego (por más que en una review nos digan que da 100fps en ese juego). Hablamos siempre de fps medios y mínimos, puesto que los máximos no interesan tanto (por ejemplo al entrar en un espacio pequeño, suele subir mucho los fps), por lo tanto es un número que está variando constantemente, lo cuál dificulta la sincronización. Cuando esa sincronización no se produce, aparecen defectos como el "tearing" y el "stuttering", unos pequeños defectos que pueden arruinar nuestra experiencia, sobretodo para aquellos que son muy exigentes, pues generan distracciones innecesarias. Recomiendo la lectura del hilo [A CLASE]. G-Sync versus FreeSync pues aparece muy bien explicado, incluso con imágenes, por lo que voy a describirlos de forma resumida:

- Tearing: Es un defecto visual en el que vemos parte de 2-3 frames al mismo tiempo, por lo que aparecen cortes horizontales y pequeños escalones en los elementos verticales. Se produce porque la GPU sólo logra dibujar una parte de la pantalla a tiempo y acaba superpuesta con otras.

- Stuttering: En el proceso de arreglar el tearing, algunos métodos de sincronismo pueden producir el "stuttering" o "tartamudeo". Al no tener la imagen lista, repiten la imagen anterior y al terminar la imagen, esta llega con retraso (lag), dando el efecto de un pequeño tirón.


Métodos de sincronismo

- VSync:
Se trata de un método por software que viene incluido en todos los juegos. Básicamente limita el número de fps que entrega la gráfica al número de Hz que tiene el monitor, logrando así la sincronización 1-1. Para que el VSync funcione de forma estable, necesitaremos tener unos fps superiores a los Hz, entorno a 10fps extra, pues tiene que descartar algunas imágenes. El problema del VSync es que puede generarnos algo de stuttering, sobretodo si tenemos pocos fps por encima de los Hz, siendo lo ideal tener más margen que esos ~10fps que comentábamos como necesarios para activarlo correctamente.

- Adaptive Sync VESA: La asociación VESA (Video Electronics Standards Association) en su estándar para DisplayPort 1.4 (también en HDMI 2.0) incluyó Adaptive Sync (o Adaptative Sync, pero es una mala traducción) que busca mejorar la relación gráfica-monitor y reducir así el tearing. Por sí sola esta tecnología no aporta nada, pero veremos cómo son capaces de sacarle partido las gráficas AMD y Nvidia, pues cada una lo hace de diferente forma.

- Adaptive Sync VESA + AMD FreeSync: AMD FreeSync es un módulo gratuito para aprovechar Adaptive Sync, pero requiere de que tengamos una gráfica AMD para funcionar (serie R9 300 o posterior). Funciona ajustando los Hz del monitor a los fps de la gráfica (y no al revés), por lo que evita el tearing, el stuttering y reduce el lag, ya que los frames no tienen que "esperar". Cuando funciona lo hace muy bien, pero puedes encontrarte juegos donde no funciona correctamente y suele conllevar jugar con los ajustes para que vaya fino. En la actualidad (mediados 2017) ya se empiezan a ver monitores bajo el estándar FreeSync2 que viene a mejorar el rendimiento en 4K y la reproducción de color por encima del rango sRGB, para así adaptarse al HDR que está empezando a desembarcar en monitores.

** A la hora de comprar un monitor, hay que tener en cuenta que Adative Sync y FreeSync pueden considerarse sinónimos. En las especificaciones del monitor puede aparecer una denominación o la otra indistintamente. Cualquier monitor marcado como Adaptive Sync es compatible con FreeSync, sólo que el fabricante no ha querido pagar por certificarlo.

- Adaptive Sync VESA + Nvidia G-Sync: Es la alternativa de Nvidia a FreeSync y requiere que el monitor tenga un módulo físico (un "chip") para que pueda funcionar, lo que encarece los monitores G-Sync frente a los FreeSync. Además requiere que tengamos una gráfica Nvidia, siendo el funcionamiento análogo al de FreeSync, aunque algo más depurado al tener ese "chip" dedicado en el monitor. G-Sync sólo funciona por DisplayPort y por ello los monitores con G-Sync pueden llegar con menos entradas de vídeo (algo a tener en cuenta si utilizas varios dispositivos en el monitor).

*** En realidad podría funcionar sin dicho módulo aprovechando el potencial de Adaptive Sync VESA, de hecho hay portátiles que cuentan con G-Sync que no requieren de un módulo físico, pero es que mientras sea lucrativo para Nvidia, seguirá vendiéndolo como un extra. El mismo monitor con G-Sync que sin él, puede haber una diferencia de 100-150€.

Como veis no he querido extenderme en exceso con las explicaciones y diferencias entre FreeSync y G-Sync, pues están más desarrolladas en el enlace que recomendamos al principio. Además de G-Sync, Nvidia cuenta con otras 2 tecnologías de las que se habla poco y que, pese a no requerir condiciones especiales del monitor, puede ser interesante conocer si estamos pendientes de elegir entre una GPU Nvidia/AMD o entre un monitor G-Syncv/FreeSync.

- Nvidia Fast Sync:
Básicamente se trata de un Vsync mejorado con un buffer adicional, de forma que la gráfica siempre tenga listo un frame para enviarle al monitor y evitar así el stuttering, además de reducir el input lag que mete VSync. Sin embargo esto requiere que tengamos mínimo un 50% adicional de fps (aunque Nvidia recomienda un 200%) lo que hace que su uso esté muy enfocado en juegos competitivos (CS:GO, LoL, Dota2...) donde fácilmente llegamos a los 300-400fps, pudiendo incluso usarlo en monitores de 144Hz.

- Nvidia Adative VSync: Esta tecnología lo que hace es activar o desactivar el VSync según estemos por debajo o por encima de los Hz del monitor, ni más ni menos, lo cuál puede ser una ayuda para juegos donde nos falte muy poco para llegar de forma estable a tener los mismos fps que Hz del monitor.

- AMD Enhanced Sync: Esta nueva tecnología de AMD viene a ser similar a lo que hace Nvidia Fast Sync, es decir un sincronismo que busca reducir la latencia al mínimo, evitando el input lag que mete VSync. Al igual que en Fast Sync tendremos que manejar una tasa de frames superior a la del monitor para su correcto funcionamiento. Para poder accionar Enhanced Sync necesitamos una gráfica de las series RX y tener instalados unos drivers posteriores a Radeon Software Crimson ReLive 17.7.2. Adicionalmente esta tecnología sólo funciona en juegos que corran bajo DirectX, quedando fuera tanto OpenGL como Vulkan.

mKUYId.png



- Sincronismo con Riva Turner (RTSS): Otra forma de mejorar el sincronismo y tener unos frametime más constantes es limitar los fps con Riva Turner y a diferencia del VSync no necesitaríamos tener esos ~10fps extra.

Dejo este apartado "en construcción" hasta que saquemos unas conclusiones más claras en el siguiente hilo: Como conseguir una experiencia de juego fluida RTSS


¿Es posible hacer funcionar G-Sync en monitores FreeSync?

Dado que ambas tecnologías simplemente están aprovechando la tecnología Adaptive Sync VESA era cuestión de tiempo que Nvidia tuviera que abrir su tecnología G-Sync al resto. De modo que Nvidia anunció a principios de año (en el CES-2019 de Las Vegas) que iba a "habilitar" las funciones G-Sync en monitores FreeSync que ellos prueben y en los que certifiquen que todo funciona correctamente, sacando un listado inicial, al que luego ha ido añadiendo algunos modelos (y que van actualizando periódicamente)... de modo que habría 3 niveles de compatibilidad.

28JRWu.png



Ésto nos pone la pelota en el tejado de los usuarios, que tendremos que andar buscando información de cada monitor para ver si realmente es compatible o no con G-Sync. Esperemos que en los nuevos modelos venga de forma explícita en las cajas y en las especificaciones el nivel de compatibilidad con G-Sync para evitar la gran confusión que va a generar este movimiento ante usuarios no muy informados. De momento os dejo unos enlaces de interés al respecto donde poder seguir el tema y ver si tu monitor (o el que tienes pensado comprar) es compatible con G-Sync.

- [A CLASE]. G-Sync versus FreeSync
- Listado no oficial de monitores FreeSync compatibles con Nvidia G-Sync
- Hoja de cálculo con información directa de los usuarios que han ido probando la compatibilidad

__________________________________________

Mi intención es seguir ampliando la guía con un par de temas más que me gustaría tocar, cualquier alusión o pregunta que tengáis a alguna parte de la misma, es preferible que hagáis un quote sólo del fragmento, para evitar quotes enormes que dificulten la lectura del hilo y de vuestros comentarios.
 
Última edición:
[GUIA] ELECCIÓN DE MONITOR: Escalado, reescalado, interpolación, multimedia, HDR, consolas y espacios de color
________________________________________________________________________________________________________________________________________________

Seguimos ampliando la guía con alguna de las dudas que veo que han ido saliendo, bien en este hilo, bien en otras consultas sobre monitores.


RESOLUCIÓN NATIVA, ESCALADO Y ANTIALIASING

La característica principal de toda pantalla (monitor, móvil, televisión...) es su resolución que es el recuento de pixels verticales y horizontales que contiene el panel. Sin embargo no siempre utilizamos una "fuente" (el contenido que enviamos a la pantalla) que tenga exactamente los mismos pixels que el panel, lo que le obliga a tener que realizar una "interpretación" de los pixels que le faltan o que le sobran.

- Resolución nativa: es el número de pixels horizontales y verticales que puede mostrar un monitor con un escalado 1:1 (1 píxel de imagen:1 píxel de pantalla). Es el modo "ideal" de usar una pantalla y nos asegura su correcta visualización.

- Upscaling/Downscaling: Significa jugar con la escala de resolución de una fuente (de vídeo normalmente) aumentando/reduciendo su resolución mediante interpolación, siendo unos términos relacionados con la edición de vídeo, por ejemplo para adaptar la calidad de un vídeo para subirlo a redes sociales a 720p por ejemplo. Es un término que no hace referencia a la resolución del monitor, sólo a la fuente, por lo que generalmente usaremos más los términos upsampling/downsampling.

- Upsampling/Downsampling: Significa utilizar una fuente (de vídeo normalmente) con una resolución inferior/superior a la resolución nativa de la pantalla, para que mediante interpolación veamos esa fuente "convertida" (o reescalada) a la resolución nativa de la pantalla. Por ejemplo ver un vídeo en 1080p en una televisión 4K sería upsampling, mientras que ver un vídeo 4K en una pantalla de 1080p sería downsampling. En ambos casos estaremos obligando a la pantalla a hacer un reescalado de la imagen mediante interpolación.

- Interpolación: Es un proceso matemático que permite la obtención de nuevos puntos partiendo de un conjunto discreto de puntos previo. En el caso de pasar de 1080p a 4K (upsampling) tienes que sacar 4 pixels de cada pixel previo, de forma que calcula valores medios de color con los puntos adyacentes para asignar a esos nuevos pixels. Es decir, nos inventamos pixels. Y en el caso contrario, de pasar de 4K a 1080p (downsampling) tiene que sustituir 4 puntos por un único pixels cuyo color será la media de esos 4 pixels.

- Aliasing/antialiasing: Debido a que las pantallas se componen de líneas verticales y horizontales, la representación de curvas y de líneas inclinadas produce un efecto de "diente de sierra" denominado aliasing. Los filtros antialiasing lo que hacen es interpolar los puntos adyacentes para suavizar dichos "dientes de sierra". Estos filtros se usan en diferentes sectores, pero fundamentalmente los veremos ligados al mundo del gaming. En juegos también es frecuente que la gente utilice el downsampling para obtener un resultado "paredico" al antialiasing, dando una sensación de mayor definición al eliminar el aliasing, incluso haciendo que se vea mejor con ese downsampling que con la resolución nativa y los filtros antialiasing.

Spoiler

Con estos 5 conceptos tenemos ya más claro cómo funciona el tema del reescalado de imágenes. Es algo más teórico que otros de los puntos de la guía, pero resulta imprescindible para poder entender realmente lo que viene a continuación.



MULTIMEDIA, RESOLUCIONES DE VÍDEO, FORMATOS DE ARCHIVO, CODIFICACIÓN Y TAMAÑO DE ARCHIVO

Por otro lado, hay que aprender a ver que la resolución de vídeo no lo es todo, una misma película en 1080p puede pesar desde 1,4GB a 14GB. Si ya pasas a 4K esas diferencias se disparan aún más, superando los 60GB una película en muy muy buena calidad. ¿Dónde está la diferencia? Pues en el formato que se utilice y en los códecs de compresión (tanto de vídeo como de audio), desde el DivX al MKV, pasando por todo tipo de ripeos de calidades variopintas. ¿Cómo es posible? Pues porque tenemos un producto más comprimido y que ha perdido gran parte de esa información, por eso en las escenas oscuras se suelen notar los escalones en la escala de grises (posterización), en vez de ser algo más progresivo.

Estamos acostumbrados a manejar formatos de audio/imagen/vídeo "comprimidos" como son mp3 en música, jpg, png y tiff en imágenes o avi, mpg o mkv en vídeo. Sin embargo cuando alguien hace una fotografía o vídeo profesional la hace en "formato RAW" (significa crudo, sin modificar), luego las procesa y el resultado lo saca de forma más comprimida en los formatos que hemos comentado. En ese proceso de compresión se pierde información, por ejemplo eliminando las frecuencias que no tienen sonido en audio, reduciendo los bits de color en imágen o ajustando los fps de grabación a los 24-30Hz que vemos en la tele; dando como resultado archivos mucho más manejables a costa de sacrificar calidad.

De hecho esto que parece que es cosa de "profesionales" lo hacemos nosotros a diario. Cuando grabas un vídeo con tu cámara de acción a 1080p@60fps el resultado es un archivo masivo, que puede superar 1GB por cada 5min de vídeo, algo que difícilmente vas a poder pasar a tus amigos. Pero es que cuando grabas un vídeo o haces una foto desde el móvil y la envías por Whatsapp, también estás comprimiéndola para que esta sea más fácil de enviar y de recibir, pasando ese vídeo de 5min que pesaba 1GB de forma que sólo pese 20-30MB.


Dependiendo de la resolución, del formato utilizado y de los codecs (que serían las bibliotecas de órdenes de compresión) podemos tener como resultado archivos con tamaños tan dispares como los que hemos comentado al principio.

- Si la fuente de vídeo es de buena calidad, aunque la resolución no sea la nativa de la pantalla (por ejemplo 720p>>1080p ó 1080p>>4K) el resultado de ese upsampling será mucho mejor que si partimos de una fuente de vídeo más comprimida. Incluso es posible que el resultado sea mejor que una fuente de menor calidad pero que sí sea de la resolución nativa de la pantalla. Es posible que notes algo de aliasing, pero sin embargo no tendrás casi posterización.

- Para el caso de un monitor 1440p, la diferencia de que la fuente varíe la resolución entre el 720p/1080p se nota incluso más que entre 1080p/1440p. El aliasing de pasar de 720p a 1440p se hace muy evidente, viéndose los contornos de las figuras muy poco definidos. ¿Por qué al pasar de 1080p a 4K eso no se nota tanto, si en ambos casos multiplica la resolución x2? Pues porque los monitores 4K tienen unas densidades de pixels muy altas y las televisiones 4K las vemos a una distancia superior a la óptima.

- Y en cualquier caso, siempre la distancia de visionado va a influir en cuál sea tu percepción sobre todo esto. Cuanto mayor sea la distancia menos capaz serás de diferenciar entre las diferentes resoluciones.


En el primer post de esta guía hemos estado hablando de las distancias de visionado y cómo hay unas distancias "límite" para percibir las diferencias de resolución. Como véis ahora esto no es una ciencia exacta... pues el downsampling te permite "emular" una resolución mayor (ficticia) y lograr una mejora de nitidez de imagen (que es real y la percibes).



HDR, CANDELAS Y NITS

Llevamos unos años bastante familiarizados con el término HDR y empezamos a encontrarlo por todas partes (cámaras de fotos, televisiones, consolas, móviles, monitores...) pero muchas veces no tenemos muy claro qué expresan realmente esas iniciales. En principio voy a hacer un repaso más o menos rápido, para aquellos que realmente estén muy interesados en el tema, les aconsejo pasar por el hilo HDR (High Dynamic Range)

HDR (High Dynamic Range) que traducido al español es Alto Rango Dinámico es una técnica de procesado fotográfico que busca combinar varias fotos con diferentes exposiciones para lograr una foto que tenga un mayor rango de color. En realidad es algo que nosotros hacemos de forma natural al mezclar las imágenes que obtenemos de los 2 ojos uniéndose en una única imagen en nuestra cabeza, lo que nos permite diferenciar detalles tanto en zonas oscuras como en otras iluminadas al mismo tiempo.

HDR-comparativa-734x243.jpg

**En la foto de la izquierda vemos como casi no somos capaces de sacar detalle de las zonas en sombra, mientras que en la derecha (HDR) podemos ver muchos más matices, tanto en las zonas en sombra, como en el cielo y el sol que antes aparecían quemados.

Pues bien ese HDR (que hemos explicado en fotografía) con el tiempo ha dado el salto al soporte vídeo y el siguiente paso fué el hacer pantallas capaces de representar ese HDR con precisión. Sin embargo nos encontramos con un primer problema de cantidad de brillo:

86aKHq.png


Es decir para tener una experiencia HDR real necesitamos una cantidad de brillo y contraste (brillo de 1000 nits y contraste 5000:1) muy superior a la que ofrecen nuestros monitores actuales (brillo de 250~350 nits y contraste 3000~1000:1). Además conllevaría mejorar la uniformidad de la iluminación de los paneles, que éstos fueran de 10bits de color (mínimo) y manejar un espacio de color (DCI-P3) más amplio que el habitual sRGB (en la siguiente sección comentaré los diferentes espacios de color). *** ( 1nit = 1cd/m²)

Para unificar un poco los requerimientos del HDR han surgido varios estándares, pero los principales son HDR10 y DolbyVision.

- HDR10: es el estándar más extendido y requiere de 1000nits y 10bits de color.
- DolbyVision: es un estándar que empiezan a alcanzar las TV de alta gama, exigiendo más de 1000nits y 12bits de color.

Pero como veíamos al principio, la gran mayoría de monitores están lejos de alcanzar esos 1000nits y 10bits. Sin embargo tenemos ya algunos monitores que empiezan a utilizar la coletilla HDR sin llegar a alcanzar esos estándares, pudiendo denominarlos pseudo-HDR:

- Dell HDR: Supuestamente son monitores con un brillo de 450-550nits y 10bits de color, compatibles con contenidos HDR10. Y digo supuestamente porque tienen algunos modelos con 250-300nits, ojo con eso.
- BenQ HDR: También andan manejando cantidades entorno a los 400nits y con soporte HDR10 y DCI-P3 (~90%). Sin embargo algunos de estos monitores son 8bits o no alcanzan esos 400nits, ojito también.
- Samsung QuantumDots: Son paneles con una capa denominada Quantum Dots que mejoran el contraste y superan el 125% sRGB (cuando el resto de monitores VA se quedan en el 95-100%). Son monitores muy coloridos, pese a quedarse en unos 350nits. Samsung no los denomina HDR, pero sí los marca como "HDR Support".
- LG HDR PC: Otro fabricante que da soporte a HDR10 pero que no llega a alcanzar sus mínimos, se queda en los 350nits y 10bits (8bit+FRC). Como curiosidad incluye un modo "HDR Effect" para simular el HDR en contenidos que no sean HDR.
- Seguro se me olvida alguno... ya completaré.


Criterios VESA y los certificados HDR400 / HDR600 / HDR1000

Como vemos los monitores actuales quedan lejos de alcanzar los criterios del HDR10 y DolvyVision. Por eso VESA (Video Electronic Standards Association) ha creado una serie de etiquetas/certificados para "monitores HDR" (pseudo-HDR) que se pueden consultar en esta web >> Performance Criteria - Vesa Certified DisplayHDR™

Unknown.jpeg


Como vemos en la tabla, establecen limitaciones referidas a la luminancia (cd/m²), a los niveles de negros y al espacio de color (gamut y bits de color). Exigencias que siendo inferiores a las de HDR10 les siguen quedando grandes a la mayoría de monitores y aunque ya se empiezan a ver los primeros monitores con HDR400 (e incluso HDR600) ya avisan en la tabla que para alcanzar los valores de HDR600/HDR1000 tenemos que irnos a monitores con local dimming (es decir que sean capaces de apagar/encender/atenuar dinámicamente los leds de retroiliminación de la pantalla, no sólo "oscurecerlos" en la capa LCD)



MONITORES, HDR y CONSOLAS

Desde hace tiempo empieza a ser habitual que la gente quiera comprar un monitor para jugar a la consola, bien por manejar unas dimensiones reducidas, bien porque buscan unos tiempos de respuesta que las TV no son capaces de ofrecer, bien porque juegan tanto al PC como a la consola y quieren tener una única pantalla.

Ahora mismo nos encontramos en una situación de doble generación consolil, tenemos las PS4 y Xbox One que funcionan a 1080p y las PS4 Pro y Xbox One X que funcionan hasta 4K+HDR. Por el tipo de contenidos que vamos a consumir en las consolas (80-90% juegos / 10-20% multimedia) lo ideal es ir a por un panel VA que nos dará mayor contraste y colores más vivos, pudiendo ir a por un IPS en caso de que juguemos acompañados (por los mejores ángulos de visión). Los TN en principio los descartaría.

En principio las consolas sólo sacan formato 16:9, mucho ojo con esto, sobretodo si alguno tenía pensado coger un Ultrawide. No es que no vaya a funcionar, pero tendrás que elegir entre tener franjas negras a los lados o ajustarlo al ancho y perder algo de imagen arriba y abajo (o que la imagen quede achatada según el modo que pongamos en la pantalla).

En cuanto a resolución TODAS son capaces de manejarse desde los 720p a los 2160p (4K).

- PS4 y Xbox One sólo alcanzan los 1080p (FHD), por lo que en pantallas de mayor resolución veremos un 1080p reescalado.*
- PS4 Pro y Xbox OneX alcanzan los 2160p (4K) nativos. Sin embargo el soporte a 1440p (2K) nativo depende de que haya sido implementado (o no) por el desarrollador del juego*. De no ser así será un 1080p reescalado.

Respecto al HDR tanto PS4 Pro como Xbox OneX tiene soporte para HDR10. Pero como hemos visto en el punto anterior hay pocos monitores que cumplan ese HDR10, sin embargo debería poder funcionar el HDR en cualquiera de los monitores con "soporte HDR10" que hemos comentado en el apartado de HDR, con independencia de si son 1080p, 1440p o 2160p.

* Se supone que todas las Xbox One tienen desde primavera de 2018 soporte nativo para 1440p.
** En Xbox hay todo un jaleo de resoluciones nativas de los propios juegos, algunos tienen soporte nativo 2160p (4K), otros sacan un 1760p y desde ahí reescalan a 2160p (4K), mientras otros van a 1440p (como hemos dicho tiene soporte nativo ya) y de ahí reescalan a 2160p. Por su parte PS4/PS4Pro sólo considera las salidas a 720p/1080p/2160p de modo que a 1440p funcionará como reescalado a 1440p por más que la consola utilice esa resolución internamente para renderizar juegos que luego reescala a 4K.
*** No soy experto ni mucho menos en consolas, tengo una PS4 Slim que se pasan meses entre cada uso. Si os interesa el tema investigar un poco más respecto a vuestra consola.



Consolas y compatibilidad con la tecnología FreeSync

Es conocido que AMD es quien fabrica las "tripas" de la actual generación de consolas Xbox y PS (incluidas sus versiones "Pro"). Y el hecho es que esas "tripas" tecnológicamente son compatibles con FreeSync (algo que ha pasado bastante desapercibido para la mayoría). En el caso de Sony (PS4 y PS4 Pro) no ha habilitado dicha compatibilidad... mientras que Microsoft ha visto la oportunidad y sí da soporte para FreeSync en sus consolas (Xbox One S y Xbox One X). Eso sí, para tener compatibilidad debes tener un monitor (o TV) con FreeSync mediante HDMI (por HDMI 2.0 si quieres usarlo en 4K con FreeSync).

Para activarlo en tu Xbox tienes que ser "insider" y en el apartado vídeo del a consola tienes que activar el la opción de "tasa de refresco variable" (o algo parecido se llama) y ya está, no tienes que hacer más (bueno sí... activar el FreeSync en el monitor).

*** En cualquier caso, antes de comprar un monitor, busca en Google si alguien ha probado dicha compatibilidad con la consola.... así evitarás posibles desilusiones por haber comprado un monitor que luego no es compatible.


Consolas y 10bits de color

Las consolas PS4 Pro y Xbox One X están preparadas para funcionar en 4K y además aprovechar el estándar HDR10 (10bits y 1000nits). Lamentablemente no hay monitores HDR10 reales (todavía) entre otras cosas porque el brillo de los monitores suele rondar los 250-400 nits (1nit = 1cd/m²). Sin embargo sí hay monitores de 10bit de color y sí hay monitores con "compatibilidad" con contenidos HDR10. ¿Tengo que hacer algo para aprovechar esos 10bits de color? (en el apartado siguiente explicamos las diferencias entre espacios de 8bits y 10bits)

Supuestamente no tienes que hacer nada... tan sólo conectar tu consola PS4 Pro o Xbox One X con un HDMI 2.0 a un monitor con 10bits y HDMI 2.0 (no sé qué tan bien puede funcionar con adaptadores HDMI 2.0 a DP). Así que aseguraté de que cumple ésto cuando vayas a comprar un monitor para tu consola.


Resumiendo... si buscas un monitor para consolas (además de los criterios de distancia/resolución) vemos que preferiblemente que tenga FreeSync (aunque tu consola actual no lo aproveche, seguramente la siguiente que compres sí lo haga), mejor que tenga un panel de 10bits nativo (supongo que 8bit+FRC vale también) y si tiene función HDR posiblemente la vas a poder aprovechar (algo que en PC de momento se aprovecha menos). Adicionalmente si tienes una Xbox One S (o One X) y no quieres irte a un monitor 4K, puedes ir a por un monitor 1440p ya que tienen soporte nativo.



ESPACIOS DE COLOR, BITS, QUANTUM DOTS (QLED) y NanoIPS

Podríamos irnos mucho por las ramas si empezamos a explicar esto desde el principio (en plan Sheldon Cooper) empezando por la teoría de color y la colorimetría... Voy a intentar explicarlo con ejemplos fáciles.

Esos tres (sRGB, Adobe RGB, NTSC) son sólo algunos de los espacios de color existentes en los ordenadores, pero no son los únicos, hay otros como ProPhoto RGB, CMYK (esto sería para plotters), YCbCr (para compresión de vídeo), HSV, HSL, Apple RGB, ColorMatch RGB... Los colores en las pantallas son "aditivos" pues se forman mezclando rojo/azul/verde y los diferentes espacios hacen referencia a diferentes formas de mezclar los colores y todo el abanico de colores que podrías sacar en el mismo. Pero ¿qué diantres es un espacio de color?

Pues imagina cuando estabas en el colegio y tenías la mítica caja de lápices de colores "Alpino" de 8 colores, siendo 3 verdosos, 3 rojizos y 2 azulados. Pues mezclando los colores de podrás sacar una serie de colores (2^8) que darían un total de 256 colores. Bien, pues eso básicamente es un espacio de color de 8bits como tenían los ordenadores de hace 25 años. Sin embargo llegaba un amigo con una caja más grande, de 16 lápices, con 5 verdosos, 5 rojizos, 5 azulados y 1 blanco, que mezclándolos podía sacar colores que tú no podías reproducir (2^16) sacando un total de 65.536 colores. Vale esto sería un espacio de color de 16bits o High Color. Al año siguiente llegaba otro compañero con una caja aún más grande, de 24 lápices, sacando (2^24) 16.777.216 de colores, pudiendo pintar con eso cualquier cosa. Ok, esto sería un espacio de 24bits. Y así podríamos seguir explicando las cajas de 36 y 48 lapiceros (36 y 48 bits).

Sin embargo, llegó un niño raro de fuera, que no usaba Alpino sino Faber Caster de 24 lápices comprados en Japón por su tío y resulta que teniendo el mismo número de lápices (y por tanto sacando los mismos colores) estos no eran exáctamente iguales, su azul clarito era diferente del tuyo y su verde molaba mucho más. Es decir, el espacio de color "Alpino" no coincidía con el espacio de color "Faber Caster" pese a que los dos eran de 24bits.

Bueno pues ahora ya entendemos más o menos de que va el tema, así de forma simplificada. De modo que veamos la imagen

colorspace.png


Ahí tenemos un gráfico con algunos de los espacios de color más comunes. Vemos como no son iguales, algunos como Adobe RGB meten muchos más verdes, otros como ProPhoto están girados respecto al resto. De hecho eso es una simplificación, ya que el "abanico de colores" de cada espacio en realidad debería representarse de forma tridimensional, dando como resultado una forma de ostra (o de cualquier otro molusco bivalvo).

4colorspaces-1024x651.jpg



Cuando miramos las especificaciones de un monitor, vemos que da un valor normalmente de 8bits por canal (24bits con un total de 16millones de colores), sin embargo viene también esa comparación con sRGB (en porcentaje) para saber cómo de coincidente es el color del monitor con el sRGB (que suele ser el espacio de color de referencia más habitual).

Los monitores TN durante mucho tiempo tuvieron sólo 6bits por canal (18bits y 262.144 colores) de forma que se inventaron el FRC (Frame Rate Control) que viene a ser como cuando pasabamos el dedo para difuminar, toma los valores de los puntos adyacentes para hacer una media, sacando así 2bits extra (6bits+2bits por canal>> 24bits). Explico esto del FRC porque ahora sigue usándose, no sólo en monitores TN, también en algunos VA e IPS, de forma que sacan 8bits+2bits por canal. ¿Por qué usar FRC si ya tienes 8bits por canal? Pues muy sencillo, porque el abanico se queda algo pequeños comparado con sRGB y el FRC ayuda a completarlo. De modo que el FRC nos ayuda a completar el sRGB, pero hace que no sea tan exacto, por lo que si nos dedicamos a labores de edición, siempre será mejor un buen panel de 8bits que uno más barato de 8bits+2bits (FRC).

Actualmente hay algunas tecnologías nuevas como Quantum Dot de Samsung que hacen que el monitor saque un 125% de sRGB con 8bits por canal, logrando imágenes muy coloridas y que el panel luzca espectacular, sin embargo para temas de edición no serían recomendables, puesto que perdemos precisión de color aunque intentáramos calibrar el monitor.


¿Realmente alguien usa algo más allá del sRGB y 24bits?

Bueno las gráficas "gaming" normalmente manejan sólo 24bits de modo que para la mayoría de gente no hay vida más allá de eso. Sin embargo existen monitores que exceden el sRGB y pasan a los 10bits por canal, denominándose "Wide Gamut" (que vendría a ser "gama amplia" o "gama ampliada") que son utilizados por profesionales de la edición fotográfica y de las artes gráficas (por ejemplo un editor de revista) y que valen un riñón. Básicamente vienen a cubrir entero (99-100%) de Adobe RGB y NTSC (un espacio que se usa en Japón y Norteamérica) e incluso llegan a superarlos. De hecho hay incluso espacios de 40bits y de 48bits que se usan en ciertas áreas y que tienen billones de colores (billones europeos, osea millones de millones)


¿Qué son los Quantum Dots (o QLED)?

Bien, esto es una tecnología propietaria de Samsung que viene a ofrecer un plus de viveza a los colores, llegando hasta el 125% sRGB creciendo sobre el lado de los rojos y los verdes... pero ¿cómo lo hacen? (hay que leerlo con la voz de narrador del Discovery Max)

Un monitor LED (que son la mayoría ahora mismo) su iluminación se produce con un panel de diodos led en su interior, que luego de pasar por varias capas convierte en puntos (pixels) de color. Para poder sacar luz blanca tiene que hacer una mezcla de leds rojos, verdes y azules... sin embargo para que ese blanco sea realmente blanco (y no amarillento) tiende a exagerar el color azul, lo cual limita un poco las gamas de colores rojo y verde (siempre el azul está "sobrecargado"). El Quantum Dots es una capa que permite mediante microcristales de fósforo (de nanómetros de tamaño) que la luz blanca no tenga que llevar ese exceso de azul, obteniendo unos subpixels rojos y verdes puros (sin tonalidades parásitas) que hace que todas los colores resulten mucho más cálidos y brillantes y tener esa ganancia de colores.

nano_quantum.jpg


¿Qué es la tecnología NanoIPS de LG?

Pues básicamente LG ha seguido el mismo camino de Samsung, implementando una capa de "nanopartículas" (de ahí lo de NanoIPS) que como Quantum Dots permite obtener un mayor rango de colores en las gamas cromáticas verdes y rojas, llegando al 125% sRGB. La novedad con estos NanoIPS es que además incluirán iluminación local dimming lo que aproximará mucho a los paneles IPS respecto a los VA en cuanto a profundidad de negros, además de reducir al mínimo las fugas de luz (bleeding). Lo explicamos más a fondo en el siguiente apartado.


TIPOS DE ILUMINACIÓN DEL PANEL: FULL ARRAY, EDGE-LED, DIRECT LED, LOCAL DIMMING...

Como hemos visto los monitores se componen de diferentes capas, tanto en su interior (panel LCD, polarizadores, difusores...) como en su exterior (cristal, acabado mate/brillo... incluso capas de nano-partículas). Sin embargo poco hemos hablado de su iluminación, algo que había sido tan importante en la evolución desde los monitores de tubo a los monitores planos (el paso desde tubo catódico, pasando por los fluorescentes y llegando a los LED). Así que vamos manos a la obra... a ver si podemos dar unas pistas de las ventajas/desventajas de cada tipo de iluminación. En realidad vamos con años de retraso respecto a las TVs en temas de backlighting (iluminación), en parte porque el gran tamaño de las TVs actuales hace más fácil la implementación de diferentes tipos de iluminación, mientras que en monitores hemos estado años atascados en las 24"@1080p. Básicamente podemos diferenciar 3 tipos de iluminación LED que podemos ver en la imagen.

FALD-Direct-Edge.jpg

- Full Array: conlleva una malla densa de pequeños led dispuestos homogéneamente por todo el panel, que iluminan de forma más directa el panel. Ésto permite paneles más finos al tener una iluminación más directa... pero se lleva mejor con paneles de formatos grandes (de 27" en adelante)

- Edge-LED: los led tan sólo están dispuestos en los bordes, puede ser en sólo 2 bordes o en los 4 bordes. Son menos propensos a tener bleeding (fugas de luz) en las esquinas, pero a cambio tienen biseles más anchos. Es un tipo de iluminación que se usó mucho en las primeras generaciones de monitores LED y que ahora algunos fabricantes están volviendo a ellas (mejoradas).

- Direct LED: es una malla de led menos densa que los "Full-Array" y que necesitan una mayor distancia para que la luz se difumine de forma uniforme, dando paneles un poco más gruesos que los "full-array". Sin embargo es una tecnología que funciona bien a todas las escalas y por lo general da mejores resultados de uniformidad que los paneles Edge-LED.

l2NvkI.png


Pocjai.png


Pero ésto sólo es la punta del iceberg... el local dimming supone la posibilidad de iluminar de forma diferencial el panel, haciendo que esa iluminación ya no sea homogénea y constante, sino que permita a los grupos de led emitir en función de la imagen que tienen encima... y cuanto más pequeños sean esos grupos, más exacta será esa iluminación (llegando hasta el extremo de los paneles OLED que cada pixel emite su propia luz). Esta iluminación por zonas nos va a aportar mayores contrastes, mejores negros, un mayor gradiente de grises... pero sobretodo supone un gran paso en la implementación de un HDR real como el que llevamos años teniendo en TVs. Veamos las diferentes nomenclaturas que relacionan el local dimming con el tipo de backlight.

- Discrete LED: se refiere a paneles donde el control de iluminación es LED a LED, con indiferencia de si son Full Array o si son Direct LED.

r3IngF.png



- FALD (Full Array Local Dimming): es un término acuñado por LG, estaríamos ante un panel completo (full array) y con un local dimming de multitud de zonas (la imagen de arriba es esquemática... esas zonas suelen ser desde grupos de 2x2 LED a grupos de 12x12 LED).

- Direct LED - Local Dimming: la iluminación es zonal, dando un resultado similar al dibujo que representa "normal local dimming". Mejora la experiencia al tener iluminación zonal, pero no alcanza la precisión de los FALD o Discrete LED. Aún así puede ser más que suficiente para monitores con certificados HDR400-HDR600.

vSqgcu.png



- LED-Plus (EDGE-LED - Local Dimming): permite a los led de los laterales iluminar de forma diferencial, lo que genera esa iluminación en forma de cruces (de ahí el calificativo "plus" que identifica al símbolo + que genera esta iluminación). Es una solución relativamente barata para tener iluminación local dimming en paneles de tamaños contenidos... y muy posiblemente la vamos a ver con frecuencia en los próximos años en el mundillo de los monitores cogiendo popularidad.

4AO5C0.png




**** Próximamente****
 
Última edición:
S/T

Muy buen tutorial y bien redactado Felicidades.
 
Última edición:
Menudo curro .... si señor
 
Gracias por el tutorial, es muy interesante esa info.
 
Gracias por detallarlo tan bien, me ayudo mucho a la hora de comprender estas tecnologias :)
 
Buen aporte compañero.

Enviado desde mi SM-N9300 mediante Tapatalk
 
Gran aporte Compañero


Enviado desde mi iPhone utilizando Tapatalk
 
Una duda. Como afecta el ver un película mkv 720p o 1080p en un monitor 2k 2560x1440 con respecto a un monitor full hd 1080p? Se ve mejor igual o peor?

Enviado desde mi LG-H960 mediante Tapatalk
 
Una duda. Como afecta el ver un película mkv 720p o 1080p en un monitor 2k 2560x1440 con respecto a un monitor full hd 1080p? Se ve mejor igual o peor?

Enviado desde mi LG-H960 mediante Tapatalk

Depende del monitor y su nivel de interpolación... en principio no debería haber diferencia... pero lo normal es que se pierda cierta nitidez (sí, la lógica induce a que debería verse mejor, pero...)
 
Depende del monitor y su nivel de interpolación... en principio no debería haber diferencia... pero lo normal es que se pierda cierta nitidez (sí, la lógica induce a que debería verse mejor, pero...)
Lo de los videos y el rescalado sigo sin tenerlo claro.
En un monitor 1080p un mkv 720p se ve tan bien como un mkv 1080p o por lo menos sin diferencias apreciables y el 720p debe rescalar a 1080p.
Dicho esto en un monitor 2560x1440 para un mkv 720p el rescalado debería ser mejor porque es exactamente el doble 1280x720 es la mitad exacta de 2560x1440.
Para un mkv 1080p pasar a 1440 no debería ser peor que para un 720p pasar a 1080 que ya he indicado que se ve bien.

Esto en mi.opinion. Hay alguien que tenga experiencia y hay visto mkv en un 2560x1440?

Gracias

Enviado desde mi LG-H960 mediante Tapatalk
 
Lo de los videos y el rescalado sigo sin tenerlo claro.
En un monitor 1080p un mkv 720p se ve tan bien como un mkv 1080p o por lo menos sin diferencias apreciables y el 720p debe rescalar a 1080p.
Dicho esto en un monitor 2560x1440 para un mkv 720p el rescalado debería ser mejor porque es exactamente el doble 1280x720 es la mitad exacta de 2560x1440.
Para un mkv 1080p pasar a 1440 no debería ser peor que para un 720p pasar a 1080 que ya he indicado que se ve bien.

Esto en mi.opinion. Hay alguien que tenga experiencia y hay visto mkv en un 2560x1440?

Gracias

Enviado desde mi LG-H960 mediante Tapatalk

Una imagen vale más que mil palabras:

Monitor de 1440p

interpolation.jpg



Arriba texto a su resolucion nativa, abajo, a 1080p en su misma relación 16:9. Como puedes observar se pierde nitidez al interpolar.

A la inversa:
Las películas tiene una resolución nativa de 1080p. Si las visionamos en una monitor 1440p, este debe inventarse los pixeles que faltan, por lo que se pierde nitidez. Si la fuente es 720p, la cosa empeora por momentos. También Depende y mucho la distancia de visionado para detectar los posibles defectos/carencias.
 
Última edición:
Una imagen vale más que mil palabras:

Monitor de 1440p

interpolation.jpg



Arriba texto a su resolucion nativa, abajo, a 1080p en su misma relación 16:9. Como puedes observar se pierde nitidez al interpolar.

A la inversa:
Las películas tiene una resolución nativa de 1080p. Si las visionamos en una monitor 1440p, este debe inventarse los pixeles que faltan, por lo que se pierde nitidez. Si la fuente es 720p, la cosa empeora por momentos. También Depende y mucho la distancia de visionado para detectar los posibles defectos/carencias.


De hecho es algo más complejo que todo esto... creo que conviene explicar varios términos:

- Resolución nativa: es el número de pixels horizontales y verticales que puede mostrar un monitor con un escalado 1:1 (1 píxel de imagen:1 píxel de pantalla). Es el modo "ideal" de usar una pantalla y nos asegura su correcta visualización.
- Upscaling/Downscaling: Significa jugar con la escala de resolución de una fuente (de vídeo normalmente) aumentando/reduciendo su resolución mediante interpolación, siendo unos términos relacionados con la edición de vídeo, por lo que generalmente usaremos más los términos upsampling/downsampling.
- Upsampling/Downsampling: Significa utilizar una fuente (de vídeo normalmente) con una resolución inferior/superior a la resolución nativa de la pantalla, para que mediante interpolación veamos esa fuente "convertida" (o reescalada) a la resolución nativa de la pantalla.
- Aliasing/antialiasing: Debido a que las pantallas se componen de líneas verticales y horizontales, la representación de curvas y de líneas inclinadas produce un efecto de "diente de sierra" denominado aliasing. Los filtros antialiasing lo que hacen es interpolar los puntos adyacentes para suavizar dichos "dientes de sierra".

Por otro lado, hay que aprender a ver que la resolución de vídeo no lo es todo, una misma película en 1080p puede pesar desde 1,4GB a 14GB. Si ya pasas a 4K esas diferencias se disparan aún más, superando los 60GB una película en muy muy buena calidad. ¿Dónde está la diferencia? Pues en el formato que se utilice y en los códecs de compresión (tanto de vídeo como de audio), desde el DivX al MKV, pasando por todo tipo de ripeos de calidades variopintas. ¿Cómo es posible? Pues porque tenemos un producto más comprimido y que ha perdido gran parte de esa información, por eso en las escenas oscuras se suelen notar los escalones en la escala de grises (posterización), en vez de ser algo más progresivo.


Sabiendo ya esto, pues se puede atacar un poco mejor el tema.

- Si la fuente de vídeo es de buena calidad, aunque la resolución no sea la nativa de la pantalla (por ejemplo 720p>>1080p ó 1080p>>4K) el resultado de ese upsampling será mucho mejor que si partimos de una fuente de vídeo más comprimida. Incluso es posible que el resultado sea mejor que una fuente de menor calidad pero que sí sea de la resolución nativa de la pantalla. Es posible que notes algo de aliasing, pero sin embargo no tendrás casi posterización.

- Para el caso de un monitor 1440p, la diferencia de que la fuente varíe la resolución entre el 720p/1080p se nota incluso más que entre 1080p/1440p. El aliasing de pasar de 720p a 1440p se hace muy evidente, viéndose los contornos de las figuras muy poco definidos. ¿Por qué al pasar de 1080p a 4K eso no se nota tanto, si en ambos casos multiplica la resolución x2? Pues porque los monitores 4K tienen unas densidades de pixels muy altas y las televisiones 4K las vemos a una distancia superior a la óptima.

- Y en cualquier caso, siempre la distancia de visionado va a influir en cuál sea tu percepción sobre todo esto. Cuanto mayor sea la distancia menos capaz serás de diferenciar entre las diferentes resoluciones.
 
He ampliado un poco la guía, que la verdad la tenía un poco abandonada...

- Mejora de los gráficos comparativos de monitores
- Añadida información sobre FOV según resoluciones
- Ampliada información sobre FreeSync 2
- Tercer post (aun en construcción) hablando del reescalado, downsampling, antialiasing, multimedia...
 
He ampliado un poco la guía, que la verdad la tenía un poco abandonada...

- Mejora de los gráficos comparativos de monitores
- Añadida información sobre FOV según resoluciones
- Ampliada información sobre FreeSync 2
- Tercer post (aun en construcción) hablando del reescalado, downsampling, antialiasing, multimedia...


buen curro te has dado.......a ver si puedes ampliar algo de los monitores 21:9......me interesa....

por cierto, hace un par de días te dejé un privado....:gaydude:
 
buen curro te has dado.......a ver si puedes ampliar algo de los monitores 21:9......me interesa....

por cierto, hace un par de días te dejé un privado....:gaydude:

Acabo de responderte el privado. Estoy pensando en cómo ampliar esa información sobre los monitores 21:9, pero creo que voy a meterlo mejor en el hilo de las reviews que cree el otro día.

-----------------------------

Añado el enlace a la Battle of Monitors: ULTRAWIDE (Q3 2017)
 
Última edición:
Añadida información sobre:

- AMD Enhanced Sync
- HDR
- Consolas
- Espacios de color
 
Hola, me repasado el hilo y estoy hecho un lio........ Resulta que estoy en el trance de cambio de monitor (principalmente para fotografia, Lightroom, Photoshop.....) y de momento barajo un 27" y la duda és si la resolución és mejor en 2K o 4K. Unas tiendas me aconsejan que sin duda 4K que és el futuro y otras que a 27" se verà igual en los dos casos.
Que opinais, Gracias.

#Joan
 
Arriba