Ese monitor no es de 10 bits sino de 8+2 FRC. En pocas palabras, que se inventa esos 2 bits.
Para los 10 bits, tendrías que irte a la línea Quadro. No se hasta que punto te merece la pena cogerte una Quadro en vez de una GTX.
¿Eres fotógrafo muy pro?
El OP y esta respuesta confunden algunas cosillas que con unas líneas se pueden aclarar:
-el escritorio de win se compone a 8bit, da igual lo que tenga o deje de tener el monitor
-algunas app a pantalla completa pueden usar 10bit si el monitor lo admite como entrada. Da igual el panel, basta que el monitor lo admita, es responsabilidad de la pantalla truncar sin que se note si el panel es menor. Aqui lo importante es que la aplicación no debe saber como truncar a algo por debajo de 10bit. Esto con que el monitor admita 10bit por DP/HDMI y no sea muy vieja cualquier nv o amd lo da.
-algunas app de escritorio, Photoshop y practicamente sólo él, pueden hacer lo mismo mediante un truco que es pintar sobre una conexion 10bit y un escritorio compuesto a 8bit (pading de 0s) una superficie OpenGL a 10bit. Par esto hace falta un driver especial en la GPU y las marcas no lo solían ofrecer a todos los modelos. Esto entiendo que es lo que pregunta el OP. Al igual que en el ejemplo anterior
no se usa realmente para ver colores en 10bit (no hacen falta en SDR), sino para que la app de edición de imagen no tenga que lidiar con el truncado de X bit a 8. Photoshop hace el truncado de forma basta, torpe, como GIMP, DxO y muchos otros. Por eso PS necesita 10bit. Como dice Chetodann LR/CaptureOne o el propio ACR de Photoshop lo hacen bien y no necesitan esto.
Ahora con las nvidia gamer y el driver Studio se puede usar 10bit en Photoshop. Con las mas nuevas AMD gamer también. Con poder usar me refiero a que el truco de evitar que el programa (PS) trunque funciona. Realmente por debajo el driver OpenGL puede componet la imagen en 10bit...o puede truncar "bien" y seguir con el escritorio compuesto a 8. Esto por ejemplo pasa en los macbook no muy viejos (pantalla 8bit)
Es decir,
1) si el monitor admite 10bit, ya no hacen falta Quadros.
2) los 10bit no son para ver mas colores, que podría usarse pero da igual en SDR, es para que PS no la cague al truncar.
Luego como tema aparte está lo de las LUT para calibrar el gris en grafica. Nvidia por sus multiples cagadas, trunca las LUT al bitdepth de la conexion. AMD hace dither del contenido íntegro de las LUT al ditpdeth de la conexion.
Al igual que en el ejemplo de PS y LR, el 1º caso hace banding si la conexion no es a 10bit, el 2º caso (AMD silimar a LR) no hace banding.
Es importante comprender que es lo mismo que pasa en esos programas, es un problema de truncado.
Si tuvieras un monitor que admite 10bit y además tuvieras una nvidia gamer y la conectas por DP y lo configuras a 10bit es posible que una calibracion en grafica, con corrección del gris en perfil ICC no te haga banding. Si alguna de estas cosas se cae tienes banding porque las nvidia no usan dither aunque jugueteando con el registro algunos lo han logrado paliar "a ratos", porque como el monitor entre en suspensión o alguna cosa asi se fastidio el invento hasta reinicio.
Si el OP no va a calibrar en grafica, esto le viene a dar igual.