• Compra una licencia de Windows 10/11 (9,5€) u Office (18,3€) al mejor precio u Office al mejor precio con CDKeyoffer. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

¿Monitor 4k o 1440p para mi nuevo PC?

Ahí yo discrepo. Depende de la persona, tengo uno de 32" y no lo quiero curvo ni de coña, quizas no he estado mucho delante de ellos, pero se me hace raro. A parte de la relación, ya que suelen ser ultrawide y algunos juegos no dan esa relación..

Con una 4070ti ya puedes pasar al 4k, eso si, depende del juego olvidate de mucho mas de 60fps aun con DLSS. Tengo una 4080 y se lo que digo. Eso si, 60 estables tendras...
Seran los juegos antiguos, los de hace unos años hasta hoy, todos o "casi" todos llevan resoluciones para aburrir, incluida la 3440x1440P.
En cuanto a la curva, cuando estas sentado delante del monitor, es mas agradable de lo que podrias pensar y piensa mucha gente, incluso me atreveria a decir que segun distancia, mejor que plano, es todo mas inmersivo, no notas que es curvo,mas agradable para la vista. 🤪 Yo al contrario, despues de venir toda la vida de planos, no se si volvere a planos, nunca se sabe,tampoco me cierro.
De todas formas si no te gustan no te gustan.
Lo mejor es tener la oportunidad, de probarlo, pero no sentarte 30seg, si no estar un ratito haciendo algo, jugando etc. asi puedes sacar mejor conclusion 🤓.
 
Última edición:
No digais tonterías, con una 4070 Ti tirara el 4K perfectamente, obviamente no tirara un RDR2 a tope/Ultra a altos fps, pero es que no es necesario, con que no baje de 60fps lo gozará mucho más que a 1440p a 120fps, y el COD de turno y demás juegos competitivos si les tirara los 120fps mínimo, que es donde se agradece. Además bajando un poco opciones y con el DLSS en 2.0 para no agregar retardo incluso le dará bastantes más y viéndose de cine.

Es más o menos como una 3090 Ti, y sobre un 15% superior con RT, la cual ya tira el 4K perfectamente, vamos es que lo tiran las 3080 Ti, y siempre tiene la posiblidad de bajar un poco los ajustes, la resolucion, o el DLSS 2.0 en rendimiento, en vez de tenerlo desactivado o en modo calidad. Si es que no te cunde usar el 3.0 que sino aún más. Eso sobre todo pensando en juegos nuevos en un par de años. Que actualmente sin contar juegos rotos de salida no le hace falta tocar na.
 
Si, obviamente es más importante la tecnología del panel que la curvatura, pero como con los paneles VAs, tambien hay una mala fama de cuñaos por internet que no corresponde con la realidad.

Yo soy el primero en criticar la curva cuando no es útil, pero en monitores grandecillos a una distancia bastante cerca, unos 60 cm, que no, no es nada perjudicial si no tienes el brillo excesivamente alto... Al contrario, la vista lo agradece y la experiencia mejora, ya que se gana ese pequeño plus en sensación de inmersión.
 
Seran los juegos antiguos, los de hace unos años hasta hoy, todos o "casi" todos llevan resoluciones para aburrir, incluida la 3440x1440P.
En cuanto a la curva, cuando estas sentado delante del monitor, es mas agradable de lo que podrias pensar y piensa mucha gente, incluso me atreveria a decir que segun distancia, mejor que plano, es todo mas inmersivo, no notas que es curvo,mas agradable para la vista. 🤪 Yo al contrario, despues de venir toda la vida de planos, no se si volvere a planos, nunca se sabe,tampoco me cierro.
De todas formas si no te gustan no te gustan.
Lo mejor es tener la oportunidad, de probarlo, pero no sentarte 30seg, si no estar un ratito haciendo algo, jugando etc. asi puedes sacar mejor conclusion 🤓.
Ciertamente, los juegos actuales ya soportan esa resolución, pero los un pelín más antiguos muchos no la soportan.

Respecto al monitor curvo, totalmente. No lo he probado en consecuencia, pero es la impresión que me da. A parte, en mi caso, juego con uno de 32" 4K, pero tengo otro al lado de 28" 4K, que uso conjuntamente para trabajar. Con uno curvo no creo que vaya bien el usar dos monitores..
 
Con una 4070ti ya puedes pasar al 4k, eso si, depende del juego olvidate de mucho mas de 60fps aun con DLSS. Tengo una 4080 y se lo que digo. Eso si, 60 estables tendras...
No se ha dicho que la 4070ti no pueda con 4K sino que no a va darle los fps medios que el autor del post pide o al menos en títulos AAA, que no estén bien optimizados o tiren mucho de Ray Tracing.
-Quiero jugar entre 100 - 144hz (si es mas, mejor obviamente)

Un ultrawide tendría más sentido pero también recalca que no acaba de ver 32". Así que la recomendación de 2K +144hz o 240 hz es absolutamente acertada para esos componentes ya que es absurdo comprarse un 4k en 27 o 28" si no es editor de contenido porque va a notar apenas diferencia en la nitidez y se va a ver obligado a jugar en 2K en las condiciones mencionadas.
Una 4070ti, como habéis dicho, se antoja algo corta para 4K altos fps. La vería incluso más para 1440p 240 hz, ya que te va a ser más fácil alcanzar esos fps con el DLSS de frame generation frente a la generación 3000. Sólo con una 3090 y 3090ti en adelante yo me podría plantear un Odyssey G7 o similares para sacarle el máximo partido a esa tasa de refresco a día de hoy (no a futuro) para la mayoría de escenarios, especialmente con juegos viejos.
@Noel tiene toda la razón:
Yo tenía una 3090 con monitor 2K, y personalmente no me iría a 4K. Lo digo porque pueden tener un "rendimiento similar".
Juegos como Cyberpunk 2077 o Red Dead Redemption 2 rondaban los 80 fps, que no está mal. En el RDR2 incluso había que "toquetear" la configuración gráfica.
La 4070ti tiene un 14% más de rendimiento creo, con la diferencia del DLSS 3.0 que se supone que aumenta los fps.

Si quieres jugar entre 100-144 hz, con 2K vas a lo seguro. Y con 4K lo veo complicado en los juegos de dentro 2 años por ejemplo. Si tu plan es cambiar de GPU dentro de 2 años, en este caso tal vez te rente ir a por el 4K.
Otra duda es: ¿qué se ve mejor? ¿4K en gráficos medios o 2K en ultra? Pero no creo que bajando los gráficos en 4k mejores los fps de 2K, con mejor calidad gráfica todavía. Si puedes resolver esta duda, o alguien aquí te lo puede resolver, aunque no creo que sea fácil.

Acabo de ver en youtube Cyberpunk 2077 en ultra, con Ray Tracing: (en la cofiguración del Pc su CPU hacía cuello de botella, por lo que no le está sacando el máximo rendimiento a la 4070 ti. Deberías de tener más fps )
2K (sobre un 40% de cuello de botella)-> 55-131 fps -> 69 fps de media
4K
(sobre un 15% de cuello de botella)-> 35-53 fps -> 43fps de media
(dependiendo de la configuración del dlss en otro vídeo, en 4K las medias eran 30 fps y 59 fps)

Saludos

El Gigabyte M27Q X por ejemplo sería perfecto para él, pero no es Gsync. De aquellos monitores que se venden en casi todos los sitios, prácticamente el único que lo lleva es el Odyssey G7, pero su curva es muy pronunciada y se le va a hacer un poquitín más grande que uno de 24" si no tira al de 32. ¿Puede irse a por 2k+144hz, con todas las opciones que hay? Por supuesto, pero si puede o quiere permitírselo, los 1440p 240hz sí podrían tener un sentido a día de hoy en su caso con ese procesador y esa gráfica.
 
Buenas! En verano me compro mi nuevo PC y mi pregunta es si comprar un monitor 1440p o 4k, lo que tengo claro es que:
-Quiero jugar entre 100 - 144hz (si es mas, mejor obviamente)
-El monitor lo compraré de 28 pulgadas, ni de 32" porque a veces juego al LoL ni de 24" porque juego mucho singleplayers y juegos de historia por lo que creo que 28 pulgadas es un termino medio para ambas cosas.
-Que tenga G-sync (lo que ya no se es la diferencia real entre G-sync compatible, ultimate y normal, me refiero a si realmente se nota)

Las características principales del PC son:

RTX 4070 Ti
i7 13700KF
32 RAM

La RTX 4070 Ti en mi opinión es gama entusiasta para 2K o 2K Ultra Wide que junto a ese i7 13700K tienes equipo para varios años, mientras que en 4K, esa cpu tan potente ya pierde algo de sentido siendo suficiente un i5, y en cuanto a la gpu, a esa resolución se defiende pero la tasa de frames va a ser menor y va a envejecer peor conforme pase el tiempo principalmente por la cantidad de Vram que como ya se puede ver en algún juego recien lanzado como Hogwarts Legacy hay que bajar la calidad de texturas y/o quitar Ray Tracing para evitar stuttering.

Y si comparo el evidente sobreprecio que tiene esta gpu con el rendimiento esperado en 4K el cual ya empieza a dar signos de cierta debilidad me plantea serías dudas sobre su comportamiento en el futuro, solo recordar a aquellos que hace tan solo dos años compraron una RTX 3070/Ti para jugar a 2K ven como ahora 8Gb de Vram empiezan a ser insuficientes en según que juegos y escenarios, de hecho incluso en Hogwarts Legacy se quedan cortos en 1080p.

Para jugar a 4K con solvencia se necesitan 16Gb de Vram como mínimo.

s2
 
Última edición:
Para jugar a 4K con solvencia se necesitan 16Gb de Vram como mínimo
Solamente para el Hogwarts Legacy.
No hay ningún solo juego que los necesite 16GB a día de hoy en ninguna situación.
Incluso te digo más, los "escasos" 8GB de VRAM siguen siendo de sobra para la gran mayoría de títulos a día de hoy para 4K.

No metamos en el mismo saco a juegos rotos o mal programados con la otra gran parte que realmente si que lo están.

Saludos.
 
Solamente para el Hogwarts Legacy.
No hay ningún solo juego que los necesite 16GB a día de hoy en ninguna situación.
Incluso te digo más, los "escasos" 8GB de VRAM siguen siendo de sobra para la gran mayoría de títulos a día de hoy para 4K.

No metamos en el mismo saco a juegos rotos o mal programados con la otra gran parte que realmente si que lo están.

Saludos.
Touché.
 
Solamente para el Hogwarts Legacy.
No hay ningún solo juego que los necesite 16GB a día de hoy en ninguna situación.
Incluso te digo más, los "escasos" 8GB de VRAM siguen siendo de sobra para la gran mayoría de títulos a día de hoy para 4K.

No metamos en el mismo saco a juegos rotos o mal programados con la otra gran parte que realmente si que lo están.

Saludos.

Minuto 16:23.


s2
 
Claro que si, guapi!
Lo que ellos digan que son expertos en la materia.
Aunque la realidad diga lo contrario.

Saludos.
 
Si las cantidades de VRAM que nos meten en la cabeza fuesen necesarias no habríamos podido jugar ni con las 970 con sus penosos 3,5 GB + 0,5 lastimosamente lentos por la cagada de nvidia en el diseño y la realidad des que jamás note penalización por esto. Es mas jugué a juegos donde al configurar sus opciones graficas te indicaban un uso bastante superior sin tener un solo tirón. Y monitorizando la GPU veías un uso de aprox 4 GB de VRAM.

Logicamente si metemos una cantidad ingente y luego el manejo de datos entre HDD/SSD, Memoria Ram y GPU esta mal llevado habrá problemas. Pero esto con la memoria justa y con la memoria sobradísima.

El problema que yo veo es que MUUUUUUUUUUUUUUUCHOS desarrolladores están pasando de optimizar y currarse nada por que total "hay hardware de sobra".

La mitica de "en consolas se optimiza mejor" viene especialmente de los 80 y 90 donde el hardware era tan y tan limitado que tenias que utilizar unos pocos sprites en pantalla, con X cantidad super limitada de colores y los devs tenian que pelear buscando el equilibrio perfecto entre todo lo que querian mostrar en pantalla, la calidad y la capacidad de la maquina en cuanto a memoria y procesamiento.

Pero eso se acabo hace muchísimo donde las consolas tienen una cantidad de memoria general y de video mas que decente (xbox one , ps4 en adelante). EL problema es que están usando esos extras para NO OPTIMIZAR ABSOLUTAMENTE NADA EN GENERAL.

Por todo esto era tan bonita la época de los 8, 16, 32, 128 bits. Había que hacer magia para mostrar la mayoría de cosas que veíamos en pantalla tal como las veíamos y funcionando entre aceptablemente y muy bien.

El mundo del video juego en mi opinion se les esta yendo y mucho de las manos. Texturas sin comprimir que lugo te piden 20 GB de VRAM, y que si se comprimen se verian IGUAL. O texturas 4k pero que tienen menos detalle que muchisimas texturas a 1024 por que estas ultimas estan mil veces mejor trabajadas.
Modelados con números de polígonos absurdos solo para decir tenemos personajes con 150.000 polígonos cuando la realidad es que un buen modelado sacaría a cada elemento un montón de polígonos y se vería IGUAL a nuestros ojos...

Pero claro, mola pedir más dinero por los juegos en base a invertir menos tiempo. Por que que no nos cuenten peliculas. Hacer un video juego hoy en dia es MUCHISIMO MAS FACIL que hacerlo hace 10, 15 , 20 o 30 años. Pero vamos, Ni COMPARACION EN LA DIFICULTAD tanto de programación como en la parte del diseño grafico.

En fin, estamos jodidos.

Gracias :D
 
Arriba