• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Polemica con velocidad de memorias en juegos

En Intel no me lo creo
 
Vale, mas comentarios.
 
Que tal si alguno hace pruebas con su equipo con alguno de estos juegos de la review y comenta si tambien tiene variaciones de fps?
 
Dejo otra review sobre el tema. Hay resultados que no me cuadran y que me hace dudar que hayan utilizado los mismos subtimmings para cada una de las variaciones de frecuencia, ya que me temo que los hallan dejado en auto en bios y esto hace que la placa los cambie segun la frecuencia utilizada.

Intel i7-8700K Coffee Lake Memory Benchmark Analysis | TechPowerUp

Y como siempre no pido a nadie que se crea o no los resultados, cada uno es libre respecto a esto.
 
Hola.

Sea cierto o falso, actualmente con Intel es muy fácil OCear módulos decentes de 2400mhz a 3200mhz sin problemas, además de que tenemos muchísimos sticks que así lo permiten.

También comentar que se utiliza una Vega64, curiosamente con HBM2, un paso bastante más allá que las DDR5 o GDDR5X, así que tampoco me extrañaría ver que la DDR4 haga algo de cuello de botella a la HBM2 de la Vega64 y ahí los resultados negativos a menor frecuencia.

No me parecen pruebas lógicas, la verdad, cuando vas a poner una gráfica de esas "dimensiones", no vas a poner un procesadorcito ni tampoco las memorias más baratas.

Mi opinión.
Un saludo.
 
Bajo 8xxx, la diferencia entre 2400-3200 tendria que ser poca, donde se nota diferencia es apartir de 3600 a 4600, donde actua otro desmultiplicador, que ya los divisores nativos va hasta 3600

La verdad, estas ultimas plataformas, dan mucho más facilidad a mentener frecuencias muchas más altas que la nativa, con su mejoras de rendimiento, visto la diferencia de precios entre modulos a 2400/3200 con los de 3600/4000, compensar comprar modulos con mayor frecuencia.
 
Bajo 8xxx, la diferencia entre 2400-3200 tendria que ser poca, donde se nota diferencia es apartir de 3600 a 4600, donde actua otro desmultiplicador, que ya los divisores nativos va hasta 3600

La verdad, estas ultimas plataformas, dan mucho más facilidad a mentener frecuencias muchas más altas que la nativa, con su mejoras de rendimiento, visto la diferencia de precios entre modulos a 2400/3200 con los de 3600/4000, compensar comprar modulos con mayor frecuencia.

Pues yo los 50-60€ que cuestan más los de 3600mhz no los pagaría, me pongo una gráfica mejor, otra caja, disipador... Algo que realmente merezca la pena.

Con unas Ripjaws V de 2400mhz las subes a 3200mhz y listo. Por 175€
Las 3600mhz salen por 225€, salvo unas Vengeance que están por 195€.
Precios de Xtrem media.

-
De 2400mhz a 3200mhz desde hace ya tiempo había diferencias algo apreciables, donde ahora mismo te cuestan casi lo mismo unas u otras.

-
Siempre y cuando hablemos de juegos, claro; otros ámbitos no sé si habrá más o menos diferencia.
¿Qué opinas Whiston?
 
Reabro el tema por un video que acabo de encontrar, tiene un fallo en el etiquetado, la ram de 2133 es a cl 14. Diferentes rams, diferentes resoluciones, interesante la parte final del video donde muestra juego real.
Recomiendo leer la explicacion que da el usuario del que hizo el video, abrirlo en youtube y lo leeis.
Conclusion, grafica potente+procesador potente+rams mediocres, en segun que circustancias, es una gran cagada.

 
The witcher 3 y battlefield 1 (este escandaloso)

 
Pues por eso se crean los PCs a Medida, porque son... A medida, se trata de equilibrar todo.

Qué sentido tiene montar una gtx 1070, un i7, y luego unas cutre-ram verdosas de 2133mhz 16GB, no tiene ningún sentido y las pruebas (reales), así lo muestran, lo suyo son los 3000-3200mhz como estándar actual, si hay más frec., pues mejor, pero ahora mismo con el precio de la ram, tampoco es para derrochar el dinero por unas "5 fotos" más (si acaso) en los juegos y muy puntuales.

Diría que:
2133mhz: ofimática, gamer económico gama baja-media.
3000-3200mhz: gamer alto, otros usos avanzados.
+3200mhz: sobrados de dinero y todo lo anterior, pero con puntualidades de mejora.

Buenas noches.
 
Pues yo lo que veo es que no son 5 fotos mas, añadele otras cuantas.
Y aqui en el foro ya he visto equipos con cpus y graficas potentes y rams cutres. Y desgraciadamente creo que aun se vera alguno mas.
Despues vienen las quejas de framedrops y que la grafica no va a tope y todos a buscar de donde puede venir el problema.
 
Pues por eso se crean los PCs a Medida, porque son... A medida, se trata de equilibrar todo.

Qué sentido tiene montar una gtx 1070, un i7, y luego unas cutre-ram verdosas de 2133mhz 16GB, no tiene ningún sentido y las pruebas (reales), así lo muestran, lo suyo son los 3000-3200mhz como estándar actual, si hay más frec., pues mejor, pero ahora mismo con el precio de la ram, tampoco es para derrochar el dinero por unas "5 fotos" más (si acaso) en los juegos y muy puntuales.

Diría que:
2133mhz: ofimática, gamer económico gama baja-media.
3000-3200mhz: gamer alto, otros usos avanzados.
+3200mhz: sobrados de dinero y todo lo anterior, pero con puntualidades de mejora.

Buenas noches.

Está claro que la RAM-dependencia no es territorio exclusivo de Ryzen. Ya en Skylake/KabyLake se notaba diferencias importantes al pasar de 2133MHz a 2666MHz, de ahí en adelante la cosa se "normalizaba" un poco. En CoffeeLake la sensación es de mayor dependencia con la RAM, de modo que se nota aún más que en KabyLake.

Eso sí, ojo con memorias muy rápidas... luego te la clavan con la latencia (y si también tienen latencia baja, entonces con el precio). A partir de los 3000-3200MHz me parece que la mejora de 5 fps te sale a 50€... no compensa.
 
Hola American, lo malo de los nuevos procesadores es que los desarrolladores de juegos cada vez van a hacer mas el burro con los requerimientos y esto solo va a empeorar la exigencia, de ahi que ya se empiece a hablar de DDR5.

Y si, asi que te vas a unas buenas latencias, el clavo en euros aun es mayor, pero siempre se puede ir a por una latencia intermedia, dentro de un minimo de velocidad y bajar manualmente latencias en bios lo que se pueda, siempre hay algo de margen.

Lo malo es la gente que tiene una placa base no Z, que sus opciones de mejora en este aspecto son minimas.
 
Estoy en la oficina y no puedo hacerlo, pero falolout 4 tengo entendido que es un caso flagrante de la dependencia de las memorias. Cuando tenga un hueco miro los videos y si puedo realizo alguna prueba si tengo alguno de los titulos instalados.

Como esta actualmente el mercado de las ram, no es tan dificil encontrar memorias rateadas por encima de 3600 a precio igual/mas bajo que 3200c14.
 
tripple, El caso es que no es solo en fallout 4, son mas juegos, no digo que sean todos, pero en el ultimo video que puse, Battlefield 1, aun lo veo mas sangrante, con las memorias a 3000, la 1080 TI, aun no hace cuello de botella y solo con las memorias a 3600 llega a casi un 99% de uso, pudiendo sacar aun mas frames y si comparamos con las memorias a 2133, la diferencia en fps es abrumadora, infrautilizandose la gpu, habiendose gastando una pasta en ella, para al final rendir como si fuese una 1060 o 1070, tirando el dinero por culpa de la ram.
Parece claro, que el procesador, por lo que se ve en los videos, no es el principal cuello de botella, primeramente, estaria la velocidad de la ram y sin el limite de esta, el siguiente cuello seria la gpu y por ultimo la cpu (para 8 hilos).
Asi que esta triada, debe de estar en consonancia.
 
@tripple, El caso es que no es solo en fallout 4, son mas juegos, no digo que sean todos, pero en el ultimo video que puse, Battlefield 1, aun lo veo mas sangrante, con las memorias a 3000, la 1080 TI, aun no hace cuello de botella y solo con las memorias a 3600 llega a casi un 99% de uso, pudiendo sacar aun mas frames y si comparamos con las memorias a 2133, la diferencia en fps es abrumadora, infrautilizandose la gpu, habiendose gastando una pasta en ella, para al final rendir como si fuese una 1060 o 1070, tirando el dinero por culpa de la ram.
Parece claro, que el procesador, por lo que se ve en los videos, no es el principal cuello de botella, primeramente, estaria la velocidad de la ram y sin el limite de esta, el siguiente cuello seria la gpu y por ultimo la cpu (para 8 hilos).
Asi que esta triada, debe de estar en consonancia.

Todos sabemos que Battlefield 1 es un juego bastante "especial". De hecho no me atrevo a decidirme en si está muy bien o muy mal optimizado... En ese vídeo, aún con una GTX1080ti, un 7700K y unas memorias 3600MHz está llevando las 3 cosas prácticamente al límite. El bottleneck parece la RAM en este caso, que no deja llegar a la GPU al 100%, pero también creo que si le mete OC a ese micro saca unos cuantos fps extra y posiblemente veríamos un uso 100% de la GPU más tiempo. La realidad es que BF1 "se come" a los i5 de 4 núcleos, a los i5 de 6 núcleos casi los satura por completo también y en los i7 normales tampoco es que les ponga fácil las cosas a partir de 120fps, aunque el uso no pase del 75%, pues bien parece que está optimizado para 6 núcleos/hilos. Y de hecho es curioso que el % de uso más alto de CPU sea con la memoria más baja.

La verdad que en ocasiones me pienso si sigue teniendo sentido hablar de bottleneck en estos casos... puesto que no sólo es que el CPU llegue a mover X fps y mantener la GPU en 100% de uso, sino que el CPU debe "empujar" aún más para sacarle fps extra a la GPU, sobretodo cuando andamos buscando llegar a los 144Hz.


Por comentar una curiosidad. En Battlefront 2 (el primo Jedi de BF1) las diferencias de uso de CPU de unas pantallas a otras son descomunales. Se llevan la palma varias pantallas de cazas espaciales donde la batalla se lleva entorno a los restos de un destructor o entorno a asteroides. Entre esos "elementos" flotando por el mapa, los 20 jugadores y todos los bots, naves de misión, torretas, etc... hacen que la cosa se ponga muy fea en cuanto a exigencia, pudiendo tener unos drops importantes de fps (cayendo incluso a 30fps), mientras que en pantallas más "limpias" estoy llegando fácil a los 90-100fps de media. Cómo será la cosa que hasta la GPU hace artifacts en esas 2 pantallas concretas (y en ninguna más).
 
Como ya dije en varios de mis post debatiendo con otra gente, la memoria dependencia es mas del juego/motor que de las cpu, hay casos en los que ryzen tampoco muestra grandes mejoras entre 2400-3200 (desde 2133 normalmente si) y otros donde intel pringa igual que AMD ganando 20fps+ de unas 2133 warronas, o unos 10-15fps de unas 2400, a unas 3200-3600, es cuestión de buscar juegos y configs.
 
Esta claro que como hayan diseñado el juego, va a influir a que componentes se le va a exigir mas.

American, en el caso del battlefield 1 del video, tengo que discrepar contigo, en que aumentando cpu vaya a ir mejor el juego, puesto que se ve que no esta saturada la cpu, un I5 si que lo puede saturar, pero un I7 de 8 hilos no parece ser el caso, puede que en algun momento puntual de juego, pero pocas veces. La putada de los programas de monitorizacion, es que no muestran que porcentaje de la capacidad de la ram se esta utilizando y no hablo de cantidad, sino de velocidad, ancho de banda y cantidad de peticiones que tiene que procesar, lo que nos obliga a fijarnos en uso de cpu y gpu, si uno de estos dos esta al 100% o muyyyy proximo, sabemos que el cuello de botella es uno de estos, pero si estan a cierta distancia de ese uso, hay que sospechar de la ram, como se ve claramente en el video del battlefield 1 con ram a 2133.

Ya me habia fijado en ese detalle del uso de cpu mas alto con memorias mas lentas, una explicacion muy burda y no se si correcta es que tanto grafica como cpu se ponen a hablar entre ellas o individualmente se ponen a gestionar que demonios pasa que no llegan los datos que pido y a hacer repetidas peticiones para que se los suministren o sean tratados por la ram, ya digo que esto es suposicion total mia.

Del Battlefront, ni idea, hay que analizar juego por juego, pero parece claro que conviene gastar un poco mas en la calidad de la ram para aprovechar bien los juegos que se beneficien, asi como de futuros cambios de graficas mas potentes y que se vean limitadas lo menos posible por la ram, sino puedes tirar un monton de dinero en la grafica, infrautilizandola y sale mas caro que la ram.
 
Otro video, esta vez del PUBG, en el se ve que segun que momentos del juego, la diferencia es nula o mas acusada. Otro dato, es que este juego (segun video) incluso con memorias a 3000 (no sabemos latencias), no permite sacar todo el provecho a la grafica y no parece que sea por culpa de cpu, debido al uso que tiene.

 
Arriba