Para escritorio SIEMPRE RGB 4:4.4 a los bit que te deje, si son 8 pues 8.
Si usas cualquier otra configuración se pierde calidad de imagen porque cada pixel deja de ser independiente. Otra cosa es que la fuente, por ejemplo una película, no tenga esa calidad que es lo habitual (por ejemplo las demos HDR 4:2:0 60fps 10bit). En ese caso sí, pero sólo para esos contenidos.
Con juegos pasa igual. Si no es 4:4:4 se ve peor. Otra cosa es que esa perdida de nitidez en una pantalla a varios metros y con juegos tipo FPS "sin texto" ni lo notes. Si el juego no es HDR es absurdo poner 4:2:0, lo vas a ver peor y no vas a ganar nada.
Si no te deja poner RGB 4:4.4 10bit a X Hz es porque el monitor o la tarjeta gráfica no tienen mas ancho de banda en su versión HDMI (que no dices cual es, imagino que 2.0 por las limitaciones que describes). Perdiendo la independencia de pixeles (busca en wiki chroma subsampling), es decir, perdiendo información y con ello calidad de imagen, recuperas parte del ancho de banda que se puede usar para subir los bits por canal.
HDMI esta pensado para contenido de TV y siempre va a ir por detrás de lo que un monitor y grafica te ofrezcan por display port.
Para usar una pantalla, la que sea, con un PC SIEMPRE RGB 4:4:4 a los bits que te deje, excepto en esas excepciones: video (porque el contenido no es tan nitido) y cosas asi.