• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • Conoce los Días Naranjas de PcComponentes: descuentos de hasta un 40% en tecnología. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Caso raro de cpu-dependencia entre 2 tarjetas con rendimiento similar.

Baal

Señor del sistema Goa'uld
Registrado
12 Jun 2013
Mensajes
1.230
Puntos
83
Estaba probando el rendimiento de crysis3 con la gtx 670 que tengo actualmente. Si bien en el nivel de la jungla, hay zonas que limita el proce, los mínimos son algo mejores y menos rascadas, aunque el procesador vaya a tope.

El noviembre pasado saqué esta captura de crysis3:

kdyd.jpg


La tarjeta al 75% de uso y con sólo 48 fps. El proce a tope. Cuello de botella. Eso a 4.5ghz. Para luego los que dicen que no hay diferencia entre tener el proce de serie y con oc. De serie ahí no pasaría de 35 fps. la gráfica es una hd 7950 subida. Rinde más que algunas r9 280x.

Ayer hice una captura de más o menos la misma zona y rara vez baja de 53 fps en la zona de las minas:

SWwiO2I.jpg
[/IMG]

La gtx 670 es de las más vagas que se han visto en los foros. La hd 7950 he comprobado que era algo superior porque tenía un oc medio. Ésta no da para más. Bueno, pues incluso así, la gtx 670 obtiene más fps en el mismo nivel /zona.
Se ve también que el proce está axfisiado. Por la misma regla, debería entregar los mismos fps, pero no es así.

Parece que la hd 7950 es más dependiente del procesador, a menos que se me escape algo, drivers o lo que sea. Antes había mucho mito con que las nvidia eran muy cpu-dependientes. Me da que eso se daba porque nvidia era propensa a sacar gráficas con buses altos y AMD al revés.

Ahora siendo una tarjeta de 256bits vs 384bits, se aprovecha mejor la segunda con un buen procesador. Esto lo digo, haciendo suposiciones y si podemos aclarar esto, mucho mejor. Supongo que con una gtx 780, r9 290 volveremos a necesitar un buen proce para sacarles más partido.

Pero vamos, que me he quedado sorprendido al ver la disparidad de rendimiento, incluso con el micro a tope.
 
Yo creo que tienes que quitar los numeros de arriba a la izquierda y dejarte de comerte la cabeza, juega y disfruta. No le veo la gracia a ir mirando unos numeritos.

Si resulta que lo miras de vez en cuando me callo.

En cuanto a lo del rendimiento ni idea, pero es que chico creo que es un poco exagerado decir que el i5 va asfixiado en un tramo de un juego. Es como decir que con el prime van asfixiados todos los cpu.

PD: El 3470 no te rendiría mas?
 
Habla con Adri80, cambió la ROM varias veces de su 7950, ahora la tiene como una 7950 boost con OC y se mea en vamos, en todo xD
 
Yo creo que tienes que quitar los numeros de arriba a la izquierda y dejarte de comerte la cabeza, juega y disfruta. No le veo la gracia a ir mirando unos numeritos.

Si resulta que lo miras de vez en cuando me callo.

En cuanto a lo del rendimiento ni idea, pero es que chico creo que es un poco exagerado decir que el i5 va asfixiado en un tramo de un juego. Es como decir que con el prime van asfixiados todos los cpu.

PD: El 3470 no te rendiría mas?

Con el tiempo, para determinados juegos, prefiero buen rendimiento a calidad gráfica. En otros juegos pausados me daría igual tener bajones, etc.... mientras no entorpezcan la jugabilidad. En shooter ya no y en online menos. En el i7 que tuve, nunca limitaba el micro, porque usaba bien el ht en ese juego.

El 3470 rinde menos, porque a 3.8ghz rinde como el 2500k a 4.1ghz. Pero vamos, que el tema era lo raro que me he sentido que la nvidia vaya mejor en zonas que el i5 iba bastante mal con muchas tarjetas.

Habla con Adri80, cambió la ROM varias veces de su 7950, ahora la tiene como una 7950 boost con OC y se mea en vamos, en todo xD

Ya no tengo la hd 7950. Después de tener 4, con lo caras que están por el tema de la minería, prefiero no volver a repetir. lo de flashearlas no suelo hacerlo mucho, a no ser que sea indispensable.
 
Has pensado en comprar un disipador mejor y subir mas el CPU? Creo que por aire aún podrías subirlo mas.
 
Estaba probando el rendimiento de crysis3 con la gtx 670 que tengo actualmente. Si bien en el nivel de la jungla, hay zonas que limita el proce, los mínimos son algo mejores y menos rascadas, aunque el procesador vaya a tope.

El noviembre pasado saqué esta captura de crysis3:

kdyd.jpg


La tarjeta al 75% de uso y con sólo 48 fps. El proce a tope. Cuello de botella. Eso a 4.5ghz. Para luego los que dicen que no hay diferencia entre tener el proce de serie y con oc. De serie ahí no pasaría de 35 fps. la gráfica es una hd 7950 subida. Rinde más que algunas r9 280x.

Ayer hice una captura de más o menos la misma zona y rara vez baja de 53 fps en la zona de las minas:

SWwiO2I.jpg
[/IMG]

La gtx 670 es de las más vagas que se han visto en los foros. La hd 7950 he comprobado que era algo superior porque tenía un oc medio. Ésta no da para más. Bueno, pues incluso así, la gtx 670 obtiene más fps en el mismo nivel /zona.
Se ve también que el proce está axfisiado. Por la misma regla, debería entregar los mismos fps, pero no es así.

Parece que la hd 7950 es más dependiente del procesador, a menos que se me escape algo, drivers o lo que sea. Antes había mucho mito con que las nvidia eran muy cpu-dependientes. Me da que eso se daba porque nvidia era propensa a sacar gráficas con buses altos y AMD al revés.

Ahora siendo una tarjeta de 256bits vs 384bits, se aprovecha mejor la segunda con un buen procesador. Esto lo digo, haciendo suposiciones y si podemos aclarar esto, mucho mejor. Supongo que con una gtx 780, r9 290 volveremos a necesitar un buen proce para sacarles más partido.

Pero vamos, que me he quedado sorprendido al ver la disparidad de rendimiento, incluso con el micro a tope.


En mi caso te puedo decir que en este juego en concreto si que se nota y bastante, en este caso es con una 780 custom a 1124mhz con un 4770k a 3,7 ghz y luego otra captura con el micro a 4,7 ghz(la grafica siempre igual). Todo en ultra msaa 8x texturas hd en muy alto. El resto de parametros los veras en la captura.

Por tus capturas por lo menos la profundidad la tenias en alta en vez de en muy alta corrigeme si me equivoco. Se nota en las sombras son mas oscuras en mis capturas y en tu foto se ven mas claras y difusas, un tono mas blanquecino en el entorno, en general en la captura, asi que deduzco que era en alto o intermedio.

El antialias supongo que lo tenias en msaa 4X y el resto en alto o muy alto con la 670.

Yc1CJuc.png


3Ie2mxP.png


Casi 16 fps subiendo 1ghz el micro. Mucha mas estabilidad en framerate medio pero muy altas temps, normalmente lo tengo a 4,3 en ese juego y no pasa de 60 grados
 
Última edición:
Es un hecho que son bastante más cpudependientes las gráficas de AMD que las de nvidia en la actualidad, y no tiene que ver con el bus, pasa también al mirar a la 780 o 290x, tiene que ver con que su driver está menos optimizado a nivel de uso de recursos de cpu, o que directamente ciertas funciones para distribuir la carga de cpu en llamadas al API, como las command lists, funcionan directamente peor que el método tradicional con los drivers de AMD (algo que se señaló indirectamente por parte de DICE, que ya colaboraba estrechamente con AMD en aquel entonces, cuando dedicó papers sobre el desarrollo de BF3 para DX11, y comentaba lo poco funcional que eran esas opciones (en AMD, que era con quien hacían presentaciones conjuntas)).

Hay muchas pruebas de esto, se ha comparado en pruebas de Mantle vs DX11 en varias web hard de nvidia y hard de AMD, y se ha visto, aparte de los beneficios de velocidad de Mantle vs DX11, que curiosamente se comportaban bastante mejor las gráficas nvidia con cpus lentas.

Hay mucho mito por la red suelo, uno de ellos, es que nvidia sí o sí es más cpudependiente, algo absurdo y que sólo tiene "sostén" en cuanto a que la mayoría de las veces nvidia ha tenido algunos productos top gama mucho más exigentes en rendimiento (cuanta más potencia en gpu, más se aumenta la cpudependencia en una configuración, eso pasó en su momento con las GTX 480/580, con las GTX 285, etc):

http://www.tomshardware.com/reviews/thief-mantle-benchmarks,3773.html

Éste es un ejemplo como tantos otros. Se aprecia la menor cpudependencia por bajar bastante menos el rendimiento relativamente, comparado a usar el 4770, con la GTX 660 vs R9 270 (gráficas "similares" pero que con Thief no rinden igual, precisamente, por lo menos en esta prueba inicial).

PD: SE aprecia algo mejor en la review de Techreport:

http://techreport.com/review/25995/first-look-amd-mantle-cpu-performance-in-battlefield-4/2

Sólo hay que fijarse en los resultados con el APU A10 con las dos gráficas y compararlos con las configuraciones con cpus potentes, para ver que pierde mucho menos rendimiento la 780Ti, entre las DX11. Ergo hay menor cpudependencia, de cajón.
 
Qué curioso. Yo no lo sabia. Esto me hace preguntarme si las gráficas AMD están más optimizadas para micros AMD (lo cual sería lógico) que para micros Intel. Entonces deberían funcionar mejor con un, p.e., FX-8350 que con un i7-4770.

Y al revés con Nvidia. Pero desgraciadamente, no creo que haya ningún forero capaz de hacer la prueba...

Enviado usando Tapatalk 2
 
Qué curioso. Yo no lo sabia. Esto me hace preguntarme si las gráficas AMD están más optimizadas para micros AMD (lo cual sería lógico) que para micros Intel. Entonces deberían funcionar mejor con un, p.e., FX-8350 que con un i7-4770.

Y al revés con Nvidia. Pero desgraciadamente, no creo que haya ningún forero capaz de hacer la prueba...

Enviado usando Tapatalk 2

Fíjate en los links, más bien al contrario. Por una buena razón en AMD cuando muestran sus gráficas JAMAS usan sus propias cpus en los setups, sino sistemas basados en intel.

Lo contrario, intel y nvidia, en realidad no tiene sentido, nvidia e intel son empresas distintas y ni siquiera especialmente "amigas", otro asunto es que a nvidia le convenga optimizar para la mayoría del mercado. Aún así, a la vista de los resultados tanto con las APUs como los FX con sus gráficas, es que optimizan también para AMD. MEJOR que ésta con sus gpus y sus drivers.
 
Fíjate en los links, más bien al contrario. Por una buena razón en AMD cuando muestran sus gráficas JAMAS usan sus propias cpus en los setups, sino sistemas basados en intel.

Lo contrario, intel y nvidia, en realidad no tiene sentido, nvidia e intel son empresas distintas y ni siquiera especialmente "amigas", otro asunto es que a nvidia le convenga optimizar para la mayoría del mercado. Aún así, a la vista de los resultados tanto con las APUs como los FX con sus gráficas, es que optimizan también para AMD. MEJOR que ésta con sus gpus y sus drivers.

Se ve mejor en gamegpu.ru (si no sabes ruso, ponlo al traductor... xD)
Ya que me lo haces mirar, sí que en directX11, NVIDIA incluso le saca algo más (en%) a AMD en un FX-8350 que en un i7-4770, pero en mantle, sin embargo se acorta mucho más a favor de la gráfica AMD (en las 3 últimas gráficas se ve).

Y sobre Intel y Nvidia, si lo dices tú mismo, a Nvidia le interesa optimizarse para intel, puesto que AMD le va a poner todas las trabas que pueda. Es que no les queda otra. Y a Intel, bueno, tal y como están las cosas, le da un poco igual, ya que AMD no parece que le vaya a plantar cara, y más cuando parece que no va a haber evolución de los FX para centrarse en las Apus.
 
AMD no le va a poner trabas a nvidia para "optimizar", porque no puede. Ni puede permitírselo (nvidia vende algo así como el 60% del total de gráficas discretas para PC, muchos con cpus AMD) ni le conviene, ni tiene la forma de hacerlo (AMD no controla la industria de desarrollo, ni compiladores ni nada del estilo, y por supuesto ofrece, en este caso sí, documentación extensa y clara de cómo usar sus cpus). Ni se le supone que, además, es su estilo (aunque en el fondo todas las empresas hacen guarradas, pero bueno... se le supone menos guarra en esas lides).

A nvidia le interesa primero optimizar para intel, pero eso no quita que no lo haga también para AMD, o en general para cpus débiles. Y a las pruebas me remito, bajo el mismo API, se está viendo, que una gráfica además tan potente como la 780 Ti (más potente que la 290X, por lo tanto más dada a mostrar cpudependencia en configuraciones débiles), rinde mejor con cpus débiles, en vez de desinflarse.

Esto podría ser tanto mérito de nvidia como desmérito de AMD. Porque ya tiene bemoles que sea su rival en gpus la que mejor trata cpus de poca potencia por core, con las APIs estándar, siendo como es además fabricante (AMD) de cpus. De ESAS cpus que necesitan ese apoyo.

Por supuesto en Mantle AMD saca el pecho en sus gpus, pero es de esperar, no deja de ser un API propietaria y cercana al metal (tanto como para no tener soporte fuera de GCN, y un soporte discreto para GCN 1.0). A mí lo que me interesan son las pruebas de fair play, donde se ve el trabajo de ambos fabricantes con el mismo API. Y ahí se ve claramente, es un mito que va contra la realidad eso de que las gpus de nvidia necesitan mucha más potencia de cpu.

PD: Como nota añadida sobre el tema de la cpudependencia, no sé si es por drivers actuales o por parches añadidos del juego, pero Tomb Raider, que llegaba a ahogarse POR CPU en varios escenarios (aldea en la montaña, shanty town), incluso con un i5 2500K a 4,4 GHz, hace unos días que noto que en esos mismos escenarios y en mismas condiciones, va mucho mejor (60 fps básicamente) que antes, y eso al comparar ahora al i5 a 4GHz pelados contra el i5 a 4,4 GHz (60 fps vs 44 fps).

¿Drivers o parche? No lo sé, sólo que se ha mejorado en el sentido de eliminar cpudependencia (en esos escenarios la gráfica funcionaba al 65-80% mientras la cpu, sobre todo un core, iba al 99%).
 
Lo que ha dicho wwwendigo tiene bastante sentido. Se ve que lo que se decía siempre era una leyenda urbana. Igual pasaba eso porque había modelos de nvidia, que los procesadores medios de entonces no eran tan potentes para acompañarlas. Parece que su intención es abarcar cuando mayor número de usuarios, mejor.

Ahora he puesto los drivers nuevos beta y va todavía mejor que antes en crysis3. No 100% perfecto a 60 fps estables, pero se nota las optimizaciones para aprovechar más las gpus en donde el micro pudiera ser limitante. Otro que noté mejoría fue en el hitman. En el resto poco o nada, porque no limita nada el 2500k.

Como nota añadida sobre el tema de la cpudependencia, no sé si es por drivers actuales o por parches añadidos del juego, pero Tomb Raider, que llegaba a ahogarse POR CPU en varios escenarios (aldea en la montaña, shanty town), incluso con un i5 2500K a 4,4 GHz, hace unos días que noto que en esos mismos escenarios y en mismas condiciones, va mucho mejor (60 fps básicamente) que antes, y eso al comparar ahora al i5 a 4GHz pelados contra el i5 a 4,4 GHz (60 fps vs 44 fps).

¿Drivers o parche? No lo sé, sólo que se ha mejorado en el sentido de eliminar cpudependencia (en esos escenarios la gráfica funcionaba al 65-80% mientras la cpu, sobre todo un core, iba al 99%).

El tomb raider en su día, sufría de rascadas en algunas zonas sin motivo. Bajaba el uso de cpu y gpu. Un sitio muy problemático era en las chavolas. Dijeron los desarrolladores que ese problema era debido para que las cpus muy viejas fueran todavía peor o algo así. Ya si lo solucionaron con parches, ni idea.

Lo que sí que nos da inducir, que el tema de cpu-dependencia de tarjetas gráficas pudiera ser más cosa de drivers, que de las tarjetas en sí.

El antialias supongo que lo tenias en msaa 4X y el resto en alto o muy alto con la 670.

Como dije estaba en alto. Más que nada porque estos juegos prefiero jugarlos fluidos a ir a 40.45fps y tener rascafas a 30 o menos con explosiones. Está configurado en alto y smaa1x.

Has pensado en comprar un disipador mejor y subir mas el CPU? Creo que por aire aún podrías subirlo mas.

Le he puesto uno mejor, pero mi micro está cerca del límite deseable de voltaje para tenerlo por aire. No me ha salido patanegra.
 
Lo resubo. A día de hoy parece que la cosa sigue similar. Pongo 2 vídeos que puse en otro tema que se nota demasiado este fenómeno en micros de gama baja:


En el primero, la conbinación i3+ gtx 760 es la ganadora. Fps bastante estables. La peor es con la r9 280 que aunque rinde bastante más que una gtx 750 ti, en la práctica va casi igual


En el segundo es con el famoso g3258 a 4.5ghz. Con las radeon los fps son muy malos. No aprovecha al 100% ninguna de las 2 gráficas y va a saltos. Con la gtx 970 que es más potente, llega a aprovechar mejor la gráfica dando mejores fps, incluso estando el micro al máximo en los 3 sistemas.

Por eso el montar i3 + r9 390 o fx + r9 390 por ejemplo, es lo peor que se puede hacer actualmente. Por esto nació dx12, mantle y vulkan. Con estas apis nuevas se conseguirá eliminar estas cosas. Por mi parte he probado i3+ amd o fx + AMD, dándome resultados no esperados.

El resumen actualmente iría así sobre mejor a peor en temas de dx11 y cpu-dependencia. Intel + nvidia > intel + Radeon > AMD > radeon
 
Lo resubo. A día de hoy parece que la cosa sigue similar. Pongo 2 vídeos que puse en otro tema que se nota demasiado este fenómeno en micros de gama baja:


En el primero, la conbinación i3+ gtx 760 es la ganadora. Fps bastante estables. La peor es con la r9 280 que aunque rinde bastante más que una gtx 750 ti, en la práctica va casi igual


En el segundo es con el famoso g3258 a 4.5ghz. Con las radeon los fps son muy malos. No aprovecha al 100% ninguna de las 2 gráficas y va a saltos. Con la gtx 970 que es más potente, llega a aprovechar mejor la gráfica dando mejores fps, incluso estando el micro al máximo en los 3 sistemas.

Por eso el montar i3 + r9 390 o fx + r9 390 por ejemplo, es lo peor que se puede hacer actualmente. Por esto nació dx12, mantle y vulkan. Con estas apis nuevas se conseguirá eliminar estas cosas. Por mi parte he probado i3+ amd o fx + AMD, dándome resultados no esperados.

El resumen actualmente iría así sobre mejor a peor en temas de dx11 y cpu-dependencia. Intel + nvidia > intel + Radeon > AMD > radeon

En el caso de The Division la cosa cambio, ya que AMD saco drivers para el juego.
 
Arriba