marzo 15, 2022

Tipos de HDR y sus características

¿Te sientes abrumado cada vez que vas a comprar un televisor, una pantalla, una cámara o un teléfono? Hay tantas siglas cuyo significado es desconocido, especificaciones y funciones de lo que podemos memorizar. 

Pero no te preocupes, en esta oportunidad estaremos tratando con uno de los elementos más importantes dentro de la tecnología visual: el High Dynamic Range, que en español significa Alto Rango Dinámico

Si quieres conocer más de este elemento, sus características más importantes, tipos y cómo funciona, entonces continúa leyendo. 

¿Qué es el HDR?

El “HDR” es un acrónimo utilizado para referirse al Alto Rango Dinámico, en sus siglas inglesas. Es una técnica que se utiliza para capturar los máximos niveles de exposición de una imagen (ya sea fija o en movimiento), con el objetivo de acercarse lo más posible a la percepción del ojo humano. 

¿Pero qué tiene la percepción del ojo humano de especial? Pues es capaz de lograr visualizar más de 20 “pasos de luz”, es decir, la cantidad de luz en cuanto a su incremento o disminución, esto se debe gracias a la velocidad de ajuste del diafragma ocular. 

Por años, las grandes empresas de tecnología han intentado reproducir esta calidad en el ajuste de luces, pero hasta los momentos solo se ha logrado tener un rango dinámico de 10 a 13 pasos de luz en las pantallas digitales. 

Es por eso que el HDR parece ser la solución a este problema. Ya que, en vez de intentar capturar la mayor cantidad de pasos de luz en una imagen, obtiene la información que se desea de distintas tomas y luego las junta o sobreexpone en una sola. Esto hace que tanto las luces como las sombras de una misma figura, tenga una mayor calidad y detalle.

Entonces… ¿La tecnología HDR donde la podemos encontrar?

Este tipo de técnica nació en el mundo de la fotografía, por eso que actualmente lo podemos encontrar en teléfonos y cámaras, que capturan este rango de manera automática. Si bien el acabado no es tan cuidado en comparación a un HDR manual, sigue siendo de igual forma satisfactorio.

Por otro lado, desde hace relativamente poco, la tecnología HDR empezó a estar presente en televisores y monitores de pantallas. Trayendo desde entonces, una constante evolución de esta herramienta, debido a la dificultad en el ajuste de algunos paneles.

Un ejemplo de esto es la distinción del HDR en televisores LCD, LED y OLED, ya que, dependiendo del modelo del panel, este puede ofrecer más o menos luz que el otro. Esto causa que en un HDR convencional, es decir sin ninguna modificación extra, las sombras puedan ser muy brillantes o que la imagen en general tenga demasiado contraste.  

¿Esto significa que hay distintos tipos de HDR en la actualidad?

La respuesta es, sí. Debido al constante avance de esta tecnología, hay variedad de versiones de esta, dependiendo siempre del producto en donde se encuentre. Porque no es lo mismo la herramienta HDR automática en smartphones, que en cámaras o monitores de pantalla.

Sin embargo, tomando el caso específico de los monitores de pantalla y televisores, hay dos tipos de estándares o versiones de HDR que se ve normalmente en el mercado, y con lo cual las empresas intentan dominar las ventas, y esos son:

  • HDR 10
  • Dolby Vision

De todas formas hay que tomar en cuenta que la mayor diferencia que presentan los distintos tipos de HDR, recae en el brillo, el contraste y la profundidad que presentan los colores. 

HDR 10: menos requisitos y más amigable con el fabricante

Esta versión de HDR es una de las más populares en el mercado, debido a que cualquier empresa fabricante puede costearlo sin pagar un cargo extra de licencia; además, que casi cualquier monitor de pantalla es compatible con esta versión.

Entre los requisitos mínimos que debe tener un panel para poder ser compatible con el HDR 10, se encuentran soportar una profundidad de color de 10 bits, es decir que puede visualizar aproximadamente 1.070 colores, y picos de brillo con un máximo de 1.000 nits. Si hacemos una comparación con los televisores más actualizados del mercado, encontramos que pueden aguantar hasta 4.000 nits, así que en si los requisitos son bastantes accesibles.

Sin embargo, uno de los fallos más importantes que podemos encontrar en este modelo, es que no cuenta con metadatos dinámicos. Es decir, la configuración inicial en cuanto al brillo y las sombras, se mantendrá estática durante todo el audiovisual. 

Dolby Vision: el estándar más ambicioso a nivel técnico 

Si comparamos el HDR 10 y Dolby Vision, este último compensa la falla del primero. Debido a que las luces, los colores y las sombras, no se quedan en una sola configuración durante toda la reproducción; sino que trabaja con la información individual que está presente en cada cuadro de imagen. 

Es por esto último, que los recursos necesarios de una pantalla para tener Dolby Vision son bastante elevados. Hasta el punto de necesitar aproximadamente 12 bits en profundidad para el color, y 10.000 nits en brillo.

Sin embargo, en la actualidad no hay ningún producto que tenga el mínimo de estos requerimientos. Es por eso que con la tecnología que se tiene a la venta, no se puede aprovechar en su totalidad el potencial del DV, aunque eso no impide que se puede disfrutar de la calidad de este estándar con paneles de recursos menores.

Otros estándares no tan conocidos, pero que igual se ven en el mercado

Si bien las dos versiones de HDR antes mencionadas son las que dominan el mercado, no son las únicas que existen ni que están en paneles a la venta. Actualmente están surgiendo nuevos monitores con tecnologías novedosas, y que muy pocos pueden llegar a conocer, debido al limitado alcance que estas tienen o están en pleno desarrollo comercial. 

Así que a continuación, haremos un pequeño repaso de otros tipos de HDR que puedes encontrar, al igual que sus fallos y sus aciertos: 

  • HDR 10+: Este estándar podría considerarse una versión mejorada del HDR 10, debido a que solventa el fallo de los metadatos de la versión anterior, y vuelve estos más dinámicos sin la necesidad de consumir alta cantidad de recursos como Dolby Vision.
  • Hybrid Log-Gamma (HLG): Esta nueva propuesta, traída por cadenas públicas de la televisión británica y japonesa, toma todas las virtudes del HDR 10+ pero para transmisiones en vivo. Cosa que los otros estándares se han visto limitados en satisfacer, ya que, se especializan en audiovisuales pre-grabados.  
  • Technicolor HDR: Hasta ahora no hemos hecho más que insinuar que una de las grandes fallas del High Dynamic Range, es que solo sirven en dispositivos específicamente creados para reproducir contenido HDR. Es por eso que Technicolor, está siendo pionera en un nuevo estándar que pueda disfrutarse en cualquier tipo de pantalla. 

Conclusiones: ¿El HDR se puede ver en cualquier dispositivo?

La respuesta es, dependiendo. El HDR es una tecnología que ha venido en auge desde hace unos años, y que se busca constantemente innovar para mejor la experiencia del usuario.  Sin embargo, hay que tomar en cuenta que no todos los contenidos audiovisuales o de fotografía hacen uso de esta técnica, al igual que no todos los dispositivos pueden reproducirla.

Por ejemplo, el HDR 10 es compatible con la mayoría de los dispositivos, debido a que no se necesitan altos requisitos para poder reproducirla. Otra ventaja que tiene es su fácil manejo y su bajo costo, así que es la opción más económica para un fabricante,  a expensas de metadatos dinámicos. 

Aunque este fallo se ha solventado gracias al HDR 10+, que es un estándar relativamente nuevo que mantiene la calidad de la imagen sin consumir grandes requisitos, y sus metadatos logran ser personalizados para cada encuadre. 

De igual forma, tenemos el Dolby Vision que ofrece la mejor calidad en cuanto a imagen gracias a la movilidad de sus metadatos, pero los requisitos mínimos que se necesitan para reproducirla no lo tienen la mayoría de los dispositivos en el mercado. Además de tener un costo considerablemente más elevado, para el fabricante.

Sin embargo, las dos opciones anteriores se le dificulta manejar el formato de contenido en vivo, así que si quieres consumir esta clase de programación en alta calidad, deberás buscar el Hybrid Log-Gamma (HLG). Es un proyecto aún en desarrollo, pero ha arrojado grandes resultados. 

Al igual que el HLG, hay muchos otros estándares que se están trabajando actualmente, en la búsqueda de mejorar la calidad de imagen, independientemente del dispositivo o contenido.

Un último apunte importante es: el HDR es una técnica que tiene que ser incorporada al audiovisual. Es decir, no todos los contenidos de entretenimiento cuentan con esto, independientemente que sea películas, series, fotografía o video juegos.

Si tienes todo estos estos factores en cuenta al momento de consumir un contenido con HDR, entonces solo falta que te acomodes en tu sofa favorito y disfrutes de un entretenimiento de calidad sin inconvenientes.

Rubén

Friki de los videojuegos y en general de las nuevas tecnologías. Experto en televisores y monitores, me informo cada día sobre las novedades que salen al mercado y realizo guías en YaTeMiro.

Ver todas las entradas de Rubén →