Pregúntale a ver si su Oled llega a los 10.000 Nits de brillo máximo que marca el 'verdadero' estándar HDR...
Cada tecnología tiene sus ventajas/desventajas, puedes tener un proyector HDR de la hostia y proyectar en pared de gotelé...
Me parece que el que no se entera de lo que es HDR eres tú...
Respondiendo a la pregunta del OP, salvo monitores de referencia IPS con doble panel, ninguna pantalla de consumo muestra HDR en todo su esplendor.
Puedes elegir entre dos males.
-Dar brillo y perder negros, ya sea "bien hecho" con muchas zonas de local dimming con lo que mas o menos simulas la "H" de HDR yendo mas allá de la ventana de contraste del panel VA/IPS a costa de una serie de defectos (halos/blooming), o "mal hecho" que es darte X nit y tener unos negros mierdosos con lo que ni tienes la H de HDR, solo una simulación.
La tipica TV widegamut "no OLED" buena hace lo 1º. El típico monitor HDR400 hace la guarrada 2º. Puedes tener un monitor HDR que de 600 u 800nit con pocas zonas de local dimming y haga mal las dos cosas.
-Dar mucho rango dinámico, gracias al negro OLED y llegar hasta cierto brillo. Tienes realmente la "High dynamic range", aunque en una "ventana" reducida, como con los VA/IPS de antes, pero limitado por rbillo no por negro.
Aqui hay 2 formas de hacerlo: A) "bien", como los nuevos QD-OLED que llegan mas arriba con los primarios R G B, si bien en áreas de pantalla muy pequeñitas. B) MAL, con el típico W-OLED donde los primarios RGB no llegan muy arriba en brillo y se consigue a base del subpixel blanco, con lo que no puedes mostrar colores muy saturados con mucho brillo, aparte de sufrir la misma limitación en tamaño área brillante.
Para "consumir contenido" sabiendo que hay cosas que no vas a ver o que vas a ver con defectos, elige el mal que te parezca menor.
Probablemente una TV VA con muchas zonas de local dimming sea lo mejor en términos de compromiso de que gamas y que pierdes para ver HDR.