¿Estás listo para otro campo de batalla en la guerra entre AMD y Nvidia? Bueno, resulta que puedes obtener resultados muy diferentes cuando manejas ciertos monitores HDR dependiendo de si estás usando hardware de gráficos AMD o Nvidia.
Como monitores sin caja (se abre en una pestaña nueva) explica, las razones de esto son complejas. No es necesariamente que AMD o Nvidia sean mejores. Pero ciertamente agrega una capa de complejidad al conjunto «¿qué tarjeta gráfica compro?» adivinanza. Como si las cosas no fueran lo suficientemente complicadas, con el trazado de rayos, FSR versus DLSS y todas las demás cosas que debe sopesar al elegir una nueva tarjeta gráfica.
La investigación aquí se centra en Alienware 34 AW3423DWF. Esa es la versión un poco más barata del monitor de juegos OLED de 34 pulgadas de Alienware que abandona la tecnología G-Sync de Nvidia para una actualización adaptativa más genérica y AMD FreeSync.
Alienware 34 AW3423DW no equipado con G-Sync (se abre en una pestaña nueva) en realidad funciona de manera diferente con HDR, lo que le da una idea de lo complicado que puede llegar a ser todo esto. De todos modos, el problema tiene que ver con el rendimiento de la AW3423DWF cuando se usa el modo HDR 1000.
Ese es el modo que debe usar para lograr el brillo máximo declarado de Alienware de 1000 nits, a diferencia del modo True Black HDR, que alcanza un máximo de solo 400 nits. De forma predeterminada, el modo HDR 1000 simplemente aumenta el brillo de todo lo que aparece en la pantalla.
Eso no es realmente ideal. En cambio, HDR 1000 debería aumentar el brillo de los objetos más brillantes, pero dejar los objetos más oscuros que están destinados a alcanzar niveles de brillo por debajo de los 400 nits solos. Ese es el objetivo de HDR: aumentar el contraste entre objetos brillantes y oscuros, no solo aumentar el brillo general.
La diferencia entre las GPU AMD y Nvidia surge cuando intenta ajustar Alienware para lograr un brillo más preciso. En el menú de configuración, hay una opción para usar el «mapeo de tonos de origen» que esencialmente configura el monitor para usar la curva de brillo codificada en el contenido de origen para dictar el brillo.
El problema es que esa opción solo está disponible para los usuarios de GPU Nvidia. ¿La razón por la cual? Según Monitors Unboxed, se debe a que las GPU de AMD utilizan el mapeo de tonos propio de AMD, que forma parte del conjunto de funciones de FreeSync.
Para ser claros, si bien este problema no es universal para todos los monitores HDR, es indicativo de las complejidades de implementar HDR. La forma en que un monitor determinado implementa canalizaciones de mapeo de tonos para contenido HDR puede significar, a su vez, que obtendrá resultados muy diferentes según la GPU que se utilice.
Desde su introducción en la PC, HDR ha sido un asunto impredecible. Pero esta es la primera vez que vemos informes de rendimiento HDR dramáticamente diferente según la elección del proveedor de GPU. Como mínimo, mantendremos nuestros escáneres abiertos para ver cómo funciona la nueva generación de pantallas OLED y mini-LED HDR con GPU AMD y Nvidia cuando se ejecuta contenido HDR.
Puedes ver el video completo (se abre en una pestaña nueva) en Monitores sin caja si desea obtener más información.