• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • Conoce los Días Naranjas de PcComponentes: descuentos de hasta un 40% en tecnología. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Me venden un ryzen 7 2700x por 230 euros. ¿Es buen precio?

Un 6/6 va a seguir siendo valido para jugar a muchos juegos dentro de 3 años, ni de coña no va a servir para jugar a nada a altas calidades y fps. Algunos triple A donde probablemente sufra eso sí. No todos los juegos son Battlefield multiplayer y ACO, la mayoría de juegos siguen tirando decentemente en un 4 núcleos. Yo creo que en 3 años va a pasar lo mismo que ahora en lugar de con un 4/4 con un 6/6.

LLevas razón, ahí me expresé mal. Un 6/6 seguirá sirviendo igual que a día de hoy se puede jugar con un 4/4 e incluso un i3 2/4 en según que juegos, lo que quería decir es que a altas calidades el 6/12 o un 8/16 será claramente mejor porque se aprovecharán esos hilos de más

Un saludo
 
Tassadar no pretendia ofenderte pero has mostrado en más de una ocasión que desconoces la palabra respeto, asi que aprende a respetar antes de pedir respeto y que te ofendes a la primera cuando te citan.........tu mismo.

No voy a leer toda la parrafada que has puesto, los ladrillos me dan ardor de estomago. Que cada uno juzgue sino parece una fanboyada......:) que significa analizar las cosas sin contar la realidad, ignorandola deliberadamente, contando mentirijillas, vamos como hace aqui tambien mucho angie :) déspues quejaos cuando os llamen fanboys.
 
Tassadar no pretendia ofenderte pero has mostrado en más de una ocasión que desconoces la palabra respeto, asi que aprende a respetar antes de pedir respeto y que te ofendes a la primera cuando te citan.........tu mismo.

No voy a leer toda la parrafada que has puesto, los ladrillos me dan ardor de estomago. Que cada uno juzgue sino parece una fanboyada......:) que significa analizar las cosas sin contar la realidad, ignorandola deliberadamente, contando mentirijillas, vamos como hace aqui tambien mucho angie :) déspues quejaos cuando os llamen fanboys.

Hola de nuevo, Nomada_Firefox

No me has ofendido, si hubieses tenido la educación de leer mi post en el que me he tomado la molestia de responderte con argumentos y razonamientos (no con insultos infundados y descalificaciones) lo sabrías, porque es una de las cosas que digo en él.

Yo no ofendo cuando me citan, lo que hago es responder, debatir y razonar. Tan solo pretendo compartir mi hobby con otras personas, de forma que podamos aprender los unos de los otros.

Si te ofendes con lo que te digo porque rebato tus argumentos y te digo la verdad, pues me parece bien, la verdad a veces ofende.

Un saludo :)
 
Crear mensajes en el foro hablando mal de la gente no es para recibir aplausos. Eso es lo que has hecho otra vez que te cite un mensaje. Mirarse en un espejo a veces esta bien.;)

Respecto al 8400, recordando un mensaje de alguien, creo que igual en este tema, habia cambiado del 8400 a un 2600X y dijo bien claramente que no notaba diferencia alguna. Que es a lo que voy, jugando ambos rinden igual. Incluso posiblemente usando aplicaciones porque como ya dije durante muchos años hubo solo cpu de 4 nucleos / 4 hilos y los programadores han hecho su software para ese tipo de hardware como mucho.

El que usando monitores de alta resolución y 144hz requiera cpu con mucha potencia, más nucleos, hilos, nada tiene que ver con la programación del software, es un tema relacionado con las tarjetas graficas que son un hardware que por si solo no sirve para nada y requiere de un procesador que tire de ellas.

¿Longevidad? yo el unico que veo longevo en el tiempo es las cpu de 8 nucleos y 16 hilos que ahora mismo se aprovecha poco su potencia porque el dia que los programadores hagan el software para ellos, quien tenga uno, vera una mejoria. Lo que pasa es que sera como los Xeon de hace 10 años, usados ahora mismo, algo mejor pero nada flipante y cuando llegue ese dia, vamos que ya se habran desfasado. A dia de hoy sacar 5 años a un PC jugando a triple A es ya un milagro. Y no apunta a que va a mejorar la cosa. Tengamos en cuenta que va a salir un nuevo PCI, nueva RAM, quizas el siguiente salto deje lo de ahora muy atras. ¿Cuándo? quizas en 2, 3 años. Depende de lo que se venda de bien lo actual.
 
Puede explicarse del modo que quieras pero a todos los efectus uno u otra cosa provoca que el rendimiento singlecore y quadcore sea peor.

Y siendo un poco graciosillo, es ridiculo ver a la gente pasar el cinebench sin mostrar el rendimiento singlecore........¿por que sera..........? y por cierto el IPC no es el rendimiento singlecore.

Por lo demas si se anuncio un 12% de mejoria frente a Zen+, veo un poco imposible que Zen 2 sea peor jugando. De hecho yo creo haber leido lo contrario, que se ha mejorado el manejo de la memoria. Ademas tiene más cache de L3. Si todo eso no lo hacen ir mejor, apaga y vamonos.

En este caso no me refería al acceso a memoria, sino a la latencia entre cores en diferentes CCX. La latencia a memoria empeorará, siempre que se mete un intermediario se ralentiza el proceso.

Sinceramente, lo que tendría que hacer AMD (en gama doméstiva) es aprovechando la reducción de litografía, meter 8 cores en un único CCX y fulminarse el Infinity Fabric. De dicho modo se favorecería el overclock y el rendimiento gaming. El Controlador I/O y los CCX - varios DIEs para los TR y Epyc
 
si te lo vende por 200 cogelo si no espera que creo que esa era la pregunta
 
En este caso no me refería al acceso a memoria, sino a la latencia entre cores en diferentes CCX. La latencia a memoria empeorará, siempre que se mete un intermediario se ralentiza el proceso.

Sinceramente, lo que tendría que hacer AMD (en gama doméstiva) es aprovechando la reducción de litografía, meter 8 cores en un único CCX y fulminarse el Infinity Fabric. De dicho modo se favorecería el overclock y el rendimiento gaming. El Controlador I/O y los CCX - varios DIEs para los TR y Epyc

Para que iba a hacer eso? a AMD no le importa mucho el mercado de los jugadores 144Hz, representa poca cuota de mercado, en cambio haciendo este diseño pueden reaprovechar cores defectuosos o peor binneados de la gama de servidores y meterlos en la gama doméstica.
 
Para que iba a hacer eso? a AMD no le importa mucho el mercado de los jugadores 144Hz, representa poca cuota de mercado, en cambio haciendo este diseño pueden reaprovechar cores defectuosos o peor binneados de la gama de servidores y meterlos en la gama doméstica.

Me puedo equivocar, pero a pesar de que la teoría dice que el tener el chip I/O hará que las latencias aumenten por tener un sitio más por el que transitar los datos hasta llegar a las CPU (esto lo habéis comentado algunos y es cierto), yo creo que AMD ha conseguido que las latencias se mantengan con respecto a Ryzen+ e incluso mejoren.

La realidad es que como tu dices, CapXoff, el mercado de la gente que juega a 144hz no es la mayoría ni mucho menos. También es cierto como yo comentaba en posts anteriores que la diferencia con Intel no es demasiado grande y que los AMD actuales sirven perfectamente para jugar, pero por otro lado el factor psicológico del "quiero lo mejor" está muy presente en el mercado, y mucha gente alude (no sin razón, ya lo he explicado antes en anteriores posts) que Intel a día de hoy es mejor para jugar en esas concretas circunstancias, y no menciona la cuantía de esa diferencia o la importancia de ésta.

Esto ocasiona que a partir de una realidad:

Intel es mejor para jugar a resoluciones full-hd o como mucho QHD en monitores 144hz con gráficas 1080/1080ti o superiores, obteniendo una ventaja de aproximadamente un 15%, ventaja que no supone un impacto negativo claramente visible en AMD -y con esto quiero decir que la mayoría de la gente percibirá 125fps igual de fluido que 110-.

Como decía, a partir de ese hecho, que es verdad (nadie lo ha negado), todo se simplifica hasta crear una verdad a medias y con matices que no se mencionan, esa verdad es como ya decía en posts anteriores "Intel es mejor para jugar".

Que insisto, no es mentira, pero al final tenemos a gente con monitores de 60hz y con gráficas nvidia 1050/1060 que compran Intel por esa razón, tenemos a gente que va a jugar a 4k con una 2080ti y compra un 9900k en lugar de un 2700x porque "Intel es mejor para jugar".

¿Se entiende lo que quiero decir? espero que sí, porque estoy esforzándome en explicarlo lo más claro posible.

Pues bien, AMD no es imbécil y sabe esto, sabe que al haber sido Intel claramente mejor durante muchos años, la gente en general tiende a maximizar y dar más importancia a las ventajas de Intel y a minimizar o no dar importancia a las de AMD. Esto, ojo, me pasa a mi en otros ámbitos, es algo propio del ser humano el querer convencernos de lo que creemos que es mejor. Basta con que Intel sea mejor en algo en concreto en unas conciciones concretas para que al final la idea sea la que he dicho antes "Intel es mejro para jugar"

Y como AMD sabe esto, también sabe que la única forma de ganarse al público en general y tener el reconocimiento del mercado que aún le falta por tener es siendo superior a Intel en absolutamente todo. Solo de esta forma conseguirán que se cree la idea general de que AMD es mejor que Intel, abandonando la idea actual general de "AMD es peor que Intel pero es más barato y merece la pena si no puedes pagar un Intel".

Todo este rollo para decir que en mi opinión AMD no va a descuidar el tema de las latencias y mucho menos el rendimiento en juegos. AMD tiene ahora una oportunidad que dificilmente se repetirá a corto plazo de ser mejor que Intel en todo, sabe que puede jugar bien sus cartas y no ser solamente "la marca que es peor pero tiene más núcleos que no sirven".

Que no digo que vaya a igualar las latencias de los Intel actuales, ojo, creo que es algo imposible pues los Intel son monolíticos, simplemente digo que me extrañaría mucho que empeorasen con respecto a lo que hay ahora (si eso fuese así creo que habría creado los Ryzen 2 sobremesa como ha dicho QueMeDa, usando un diseño de 2 CCX unidos como hacen los Ryzen actuales en lugar de 2 chiplets + IO die).

Ya se mantengan igual o mejoren, creo que el resultado de la subida de IPC + frecuencias (e independientemente de las latencias que tengan con la RAM) van a conseguir superar a Intel en juegos en todos los escenarios.

Las latencias con la RAM importan, está claro, pero a veces creo que maximizamos su importancia. Seamos claros, los Intel deben sus superioridad en juegos en ese escenario mil veces comentado (144hz, FHD, gráfica potente) más a su mayor frecuencia que a sus latencias con la RAM. Hace poco en otro foro alguien mostraba este video:


Esto es lo que yo contesté:
Yo lo que veo ahí es que a misma frecuencia rinden casi igual en algunos juegos, mientras que en otros el 9900k sigue siendo superior al Ryzen. La conclusión es la que ya sabemos, Ryzen+ no llega al IPC de Cannon Lake, aunque no le falta mucho.

Ahora bien, comparación justa? yo diría que es lo contrario, injusta, si el 9900k es capaz de funcionar a 5 ghz mientras que el AMD no pasa de 4,3, la justicia en ese video no la veo
laugh.png

Saludos


Como digo ahí, no me parece una comparación justa porque el 9900k es capaz de funcionar a una frecuencia bastante mayor, a la que no puede llegar el AMD. Sin embargo, este video sí que puede servir para ver como digo que Intel posiblemente debe su ventaja en mayor medida a sus mayores frecuencias y que si AMD consigue subir el IPC un 15% como han dicho y suben las frecuencias otro 15%, Intel ya puede tener las latencias que quieras con la RAM, que AMD va a ser superior en todo.

Todo esto son ideas, conjeturas, divagaciones en parte, no pretendo ofender ni molesar a nadie, simplemente crear debate. Ni que decir que puedo estar totalmente equivocado, puede que al final veamos que AMD ha usado el mismo diseño y los mismos chiplets en Matisse que en Rome para ahorrar costes, a pesar de que le perjudica la gama mainstream por ese aumento de lantecias que algunos comentáis.

Sea como sea, pronto saldremos de dudas ;)

Un saludo
 
En todo caso, el tema de los 144hz, el que lo tiene que mejorar es el diseñador de tarjetas graficas y no el de CPU. El problema es que la grafica tira de la CPU y hace uso de más nucleos o de todo lo que exista. Pero a las CPU no les pasa nada más alla de que el jugador este usando un 4 nucleos, cuando deberia usar un 6 o más.

Que en Ryzen los juegos rindan menos a dia de hoy. Es evidente que es por el rendimiento singlecore/quadcore, que sea por lo que sea pero esta ahi. Puede ser por muchos motivos, no voy a entrar en cual es mejor. Pero por cierto, el IPC de la CPU no es el rendimiento singlecore, ni tan diferente es el IPC con respecto a Intel.
 
En todo caso, el tema de los 144hz, el que lo tiene que mejorar es el diseñador de tarjetas graficas y no el de CPU. El problema es que la grafica tira de la CPU y hace uso de más nucleos o de todo lo que exista. Pero a las CPU no les pasa nada más alla de que el jugador este usando un 4 nucleos, cuando deberia usar un 6 o más.

Que en Ryzen los juegos rindan menos a dia de hoy. Es evidente que es por el rendimiento singlecore/quadcore, que sea por lo que sea pero esta ahi. Puede ser por muchos motivos, no voy a entrar en cual es mejor. Pero por cierto, el IPC de la CPU no es el rendimiento singlecore, ni tan diferente es el IPC con respecto a Intel.

IPC son las sigas de Instructions Per Cycle (instrucciones por ciclo), y define el número de ellas que puede ejecutar el procesador en un solo ciclo de reloj (obviamente se refiere a single core). El video que puse antes, al estar el 2700x y el 9900k a la misma frecuencia (4ghz) es útil justo por esto, porque permite ver cual es la ventaja de IPC del Intel con respecto al AMD, y permite ver qué pasaría si el AMD llegase a las frecuencias del Intel.

Yo no creo que sea el diseñador de tarjetas gráficas el que tenga que "solucionar ese problema". Al fin y al cabo, si bien es cierto que con el paso de los años las gráficas han evolucionado de muchas maneras, pasando a realizar tareas que antes se realizaban por CPU, la gráfica hace un trabajo pero el procesador hace otro y debe tener la potencia para hacerlo.

A día de hoy, y sobre todo desde la irrupción de Ryzen y el aumento del estándard de núcelos en mainstream, los procesadores son muy capaces de responder y de cumplir las exigencias de la gráfica en cuanto a "darle comida". El problema es el mil veces comentado, Intel aprovechó su supremacía y el no tener competencia real para dormirse en los laureles y estancarse en los cuatro núcleos, motivo por el cual los programadores no se molestaron el aprovechar más.

Posiblemente un "simple" Ryzen 2600 que vale 150€ podría correr los juegos actuales igual que un 9900k si se exprimiesen bien sus 12 hilos, pero como no se hace...

Y aquí hago un paréntesis para comentar que actualmente me encuentro desarrollando una aplicación y estoy haciendo que se aproveche el multinúcleo todo lo posible. Pues bien, es una puñetera pesadilla XD, programar para un hilo es muuuuuuuuuuucho más fácil. Ahora comprendo de primera mano el porqué los desarrolladores no optimizan para x núcleos si no tienen claro que se vaya a aprovechar. Puedo decir que mi equipo de trabajo es un 6600k overclockeado a 4,5 Ghz y que al aprovechar los 4 núcleos en lugar de uno solo obtengo una reducción de tiempo de ejecución de un 60%-65% aproximadamente (no se llega obviamente el 75% teórico).

Como ya decía en posts anteriores, parece que Ryzen y el hecho de que Intel se haya visto obligada a subir su estándard de 4 cores en mainstream ha hecho que los desarrolladores empiecen a aprovechar mejor los núcleos disponibles (un curioso efecto secundario de esto ha sido que los FX, que siempre fueron una mierda, ahora al aprovecharse mejor sean hasta decentes y se muestren superiores a procesadores Intel de su época, como algunos i3 e incluso i5 que en día los aplastaban xD).

Esta tendencia aumentará a medida que el estándard de núcleos en los PCs suba, y parece que con Ryzen 2 va a subir de nuevo. El hecho de que las próximas consolas que salen en no mucho tiempo vayan a usar un Ryzen 7nm de 8 núcleos también hará que esos 8 núcleos se aprovechen mejor, pero también traerá el efecto negativo de que los procesadores de más de 8 cores posiblemente no se expriman todo lo deseable.

Un saludo
 
En el multiplayer de Battlefield, por poner un juego triple A con uso intensivo de hilos y gpu, los 6 núcleos 6 hilos ya van al 70-80% de uso en el multiplayer de 64 jugadores. Esto significa no streaming, no tareas en segundo plano, y no aprovechar la gpu, teniendo problemas de caídas de fps con frecuencia.

Veréis en 2020 con el nuevo Battlefield cómo tiran los 9600K...

No se trata de ser neutral, sino de sintetizar y saber exponer por qué los 330€/280€/300€/270€ que ha llegado a costar y cuesta el 9600K y sus hermanos menores es la peor inversión que alguien puede hacer para jugar con su ordenador.

Fin.

*Siempre que no se salga de 3-4 juegos que sabe que no va a dejar de jugar y que no necesitan más hilos (Wow, CSgo, Starcraft 2, Rocket League, Minecraft...) pero nadie se compra una CPU tan cara para jugar a juegos antiguos. *
 
Tipico del motor Frostbite, ese motor es famoso por simplemente coger el uso de CPU y dividirlo entre los nucleos existentes de manera muy desigual. Asi que es normal que al final de problemas de rendimiento. Eso para mi es un engaño porque funcionar con 2 nucleos igual que con 4. Es engañar al ojo que no lo sabe. De todos modos el Frostbite es un motor usado en los juegos de EA que pueden parecer muchos pero yo no juego ninguno y como yo otro monton de gente que no juega triple A. Yo no lo hago por falta de PC o dinero, es cuestión de gustos.;)

Los juegos de estrategia, a dia de hoy no tienen un consumo alto. El Starcraft 2 funciona muy bien en un 4 nucleos de hace 5 años como mi 4690K o ese 4670K de tu firma alvaroiobello. El juego de estrategia que peor rendimiento tenia ultimamente era el Battletech y es más que sabido que es un problema de depuración, no se sabe si existe pc que lo ejecute suavemente. Tipico de Unity3D, es el motor con depuración del mercado.
 
AMD puede haber empeorado la latencia a memoria (no mucho, solo un poco) pero quizá como ya comenté, al duplicar la caché L3 los juegos ya no hacen tantos accesos a memoria, es una posiblidad. Desde luego las pocas pruebas que se han visto en userbenchmark apuntan a una ligera subida de latencia, toca ver si en las muestras finales pasa lo mismo.
 
AMD puede haber empeorado la latencia a memoria (no mucho, solo un poco) pero quizá como ya comenté, al duplicar la caché L3 los juegos ya no hacen tantos accesos a memoria, es una posiblidad. Desde luego las pocas pruebas que se han visto en userbenchmark apuntan a una ligera subida de latencia, toca ver si en las muestras finales pasa lo mismo.

Llevas razón, ya se ha comentado que la lógica dice que al llevar el IO/Die las latencias empeoran; pero como bien dices el doblar la caché puede ayudar bastante a contrarrestar ese empeoramiento de las latencias, y la mayor frecuencia y mayor IPC podrían volcar la balanza al otro lado, haciéndolos mejores que los Intel en juegos, a pesar de tener peores latencias que los Intel Core.

Es lo que comentaba en el anterior post donde puse el video del 9900k vs 2700x a 4 ghz los dos.

Saludos
 
Arriba