• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

AYUDA Gráfica para jugar "ULTRA" en 1080p

Persano sigues dudando de mis experiencias con la 970?
los he sacado de eol para enseñar lo que tira una 970, yo tengo una 980ti asi que dificilmente puedo demostrar el rendimiento de lo que no tengo y he buscado videos de reviews y algunos benchs, para dar mi opinion y aportar algo al hilo.

Lo que no tienes es psiquiatra creo yo :meparto:

pero vamos que yo agarraria cualquiera 780, 970, 780ti o cualquier hawaii AMD . Mirando bien los modelos claro porque los hay chungos.

Estan todas en el mismo rango de rendimiento bajo mi punto de vista asi que la mas barata. Una 780 sube bastante y se las ve rulando por 200 euros por ejemplo no veo necesidad de gastarse 400 euros en tarjetas de video con rendimiento y tecnologia de 2013.
 
Nunca recomendaria una 780ti, la cual es superada por una 290 y en algunos juego es superada por una 280x!
Al parecer no conoces a gamegpu.
Aca unos tests que dicen todo lo contrario:

1080p.png


Incluso a 2k, la 780Ti mantiene un buen rendimiento:

1440p.png


Claro, es un juego pro Nvidia

http://www.techpowerup.com/mobile/reviews/Gigabyte/GTX_980_Ti_Waterforce/6.html

La 290x stock le saca 14 fps en un par de juegos a la 780ti stock. Si oceas ambas la 290x sigue ganando.

Los juegos con mayores diferencias de Fps. Tome las charts a 1080P


290x 780ti
COD
113.3fps vs 99fps
MGSV
81fps vs 96fps
Ryse
88.7fps vs 74.4fps

No creas a los muchos videos que hay en internet. La 980ti con todo en ultra (no en "ultra") con gameworks jugando al TW3 con el ultimo parche da esos FPS
Esos resultados carecen de credibilidad ya que fueron hechos despues del jalon de orejas que le propinó AMD a Techpowerup.
En muchos foros se dieron cuenta de eso y por lo mismo sus tests a partir de esas fechas han dejado de ser un referente a tomar en cuenta.

Si estuvieran hechas para esas frecuencias, vendrían así de serie. El resto son cábalas tuyas.
La mayoria de GPUs y CPUs tienen un margen de tolerancia con respecto a las frecuencias stock... y de esto depende la eficiencia de cada chip y arquitectura.
En ese sentido la eficiencia de Maxwell les permite oceos muy considerables, con poco incremento en su consumo.
Por esto mismo cada fabricante tiene, por lo menos, 4 modelos distintos de GTX970.
Y lo mismo pasa con el resto de la serie Maxwell.

El caso de las GCN es todo lo opuesto, especialmente hablando de las 300.

Se te va un poco la castaña compañero, no crees? en fin... como decia la 970 en mi opinion es la mejor gpu calidad precio para los 1080p seguida de cerca por la 390.
+1 ;)

No por nada han subido al primer lugar de las graficas utilizadas por los usuarios de Steam:

http://wccftech.com/nvidia-geforce-gtx-970-steam-survey/

La que le sigue en el tercer puesto es, curiosamente, la GTX 760... y digo curiosamente ya que para ser Kepler, siguen gozando de una buena aceptación por parte de los usuarios.
 
Lo que estan haciendo en las graficas es mejorarlas para rendir mas en resoluciones altas no en 1080p un benchmark donde solo ponen resoluciones a 1080p no vale para nada puesto que habra una diferencia de 3 a 10 fps, donde realmente se nota es en resoluciones 2k y 4k.
La 7970 de ati que es lo mismo que la 280x tiene un remdimiento inferior que la 390 pero en 1080p no tiene una mejoria como para cambiarla, solo si vas a jugar en resoluciones altas merece la pena, y lo mismo pasa con nvidia y la serie 7 y 9, solo mirar los precios de las 780 en comparacion con las 970.
 
;618520 dijo:
Al parecer no conoces a gamegpu.
Aca unos tests que dicen todo lo contrario:
Las que tu subiste no indican que parche se esta usando.
En las que yo comparti indican que es el parche 1.3 beta.
En el foro de anandtech hablan del bajon de rendimiento de algunas GPU y el aumento de otras

Y por lo de techpowerup, también puse uno del Guru3D que demuestra que la 290x es mejor que la 780ti
 
MAs pruebas de la superioridad de la 970 con oc vs la 390/390x con oc.

EVGA GTX 970 Hybrid Review & Benchmark

https://www.youtube.com/watch?v=jatjGYaX2PU

A partir del minuto 10:44 empieza la fiesta cuando se le hace oc como toca, y eso es sin bios modificada con voltajes de fabrica.

Es indiscutible la superioridad de la 970 incluso vs la 390x cuando se llevan al limite ambas. Incluso cuando van de stock seria muy discutible cual es superior dependiendo de juegos y parámetros de config. y resolución.
 
Última edición:
Las que tu subiste no indican que parche se esta usando.
En las que yo comparti indican que es el parche 1.3 beta.
En el foro de anandtech hablan del bajon de rendimiento de algunas GPU y el aumento de otras

Y por lo de techpowerup, también puse uno del Guru3D que demuestra que la 290x es mejor que la 780ti

Incluso la AMD Radeon R9 290x 1 GHz 4 GB GDDR5 vs Nvidia GeForce GTX 780 Ti 875 MHz 3 GB GDDR5 siendo inferior en ghz y ram la 780ti rinde mas la 780ti y con mejor calidad visual de stock las 2 y si nos ponen con temas de oc pasa lo mismo.
Puede que que si pasas en 3dmark 11 gana la ati pero pasa el bioshok ultra dx11 ddof y veras que le saca 15 fps la envidia,pasale el que quieras PassMark, 3DMark Vantage Gráficos, Decomp Civilization 5 Textura (2013), PassMark Direct Compute, etc en todos gana la 780ti.
Otro tema es q la 290/290x estan pensadas para rendir con mantle y dx12.
Aqui una prueba realizada por parte de omicrono http://www.omicrono.com/wp-content/uploads/2015/08/ashes-directx-12-2.jpg
ashes-directx-12-2.jpg


Por no hablar de lo que se avecina con los dx12 porque podras usar 2 graficas una nvidia y otra ati al mismo tiempo
http://www.omicrono.com/2015/10/directx-12-usar-graficas-amd-y-nvidia-al-mismo-tiempo/
directx-12-amd-nvidia-3.jpg
 
Última edición:
Chicos, cuidad un poco las formas, que ya he leído un par de comentarios que se tuercen un poco.

Sed respetuosos ok? ;)
 
Por fin en Techpowerup (antes semidioses y ahora herejes) han hecho un análisis a la 390, en concreto a la Nitro (la que yo tengo).

Los números son excelentes y el OC muy bueno. Yo he probado a hacer OC y la he puesto a 1160 y 1750 (1040 y 1500 stock) y la ganancia es muy grande para lo poco que sube aparentemente. Os pongo dos fotos del antes y el después en el Tomb Raider:

c4a0d7ba8df7da8a66963d2457714977.jpg


bfee23edc17e2e8636328694f85c5683.jpg


Ganar 10fps en los mínimos es mucho ganar. Pasas de ir justito para nunca bajar de 60fps a ir sobrado.
 
Por fin en Techpowerup (antes semidioses y ahora herejes) han hecho un análisis a la 390, en concreto a la Nitro (la que yo tengo).

No hay que irse a techpowerup. El Guru3D muestra lo mismo
 
Vaya tela que salseo que hay entre Nvidia y AMD :starwars:
Siendo yo de Nvidia siempre y pasarme ahora a AMD lo único que echo de menos es el Shadowplay de geforce experience porque el Plays.Tv de AMD Gaming Envolved me parece un truñete.
Ya que aun sigue vivo el post aprovecho y pregunto a ver si así de paso se amaina el Nvidia VS AMD:palomitas:
Algún programa para grabar juegos y escritorio tipo shadowplay que no sea el Fraps (traga muchos datos).
 
Se me borro el mensaje o no lo lelgue a publicar xd.
Pero venia a decir que si ese analisis es cierto o no xd.
Yo me arriesgue por la 390 y la verdad es que bastante contento, las unicas pegas son la falta de physx y la mierda de los ventialdores apagados, meten demasiado calor en la caja, por lo demas es un pepino, ni se calienta tanto como dicen y no es nada ruidosa.

Ahora ese maximo de consumo da miedo, cualquier dia jugando te despega el pc.
 
Yo uso OBS (64 bits) y pierdo solo un par de frames. Si tienes un buen procesador ni lo notas.
Yo uso el codec de AMD H264, ya que el por defecto de OBS rinde peor.
Eso si, los videos pueden pesar mucho (depende de la configuración), pero la calidad es excelente y tiene muchas opciones
Te cuesta al principió, pero cuando lo aprendes a usar no quieres otra cosa
Para hacer streaming es espectacular y en el tema del audio es el mejor


https://obsproject.com/
Elegir el que dice OBS Multiplatform. Fijense si el acceso directo es el de la version de 32 o de 64 bits.
 
No hay nada como el Shadowplay. Todos los demás te hacen perder frames y calidad. En eso y el consumo Nvidia va bastante por delante.

Aprovecho y dejo la review de la 390 Nitro: http://www.techpowerup.com/reviews/Sapphire/R9_390_Nitro/

Buenas, he estado analizando muy por encima esos datos de techpowerup y me asaltan las siguientes incongruencias, a ver si alguien me lo explica porque no lo entiendo.

Vereis si nos fijamos en la pagina nº 5 "test set up" nos dice:

Todos los resultados de tarjeta de vídeo se obtienen en este sistema exacta con exactamente la misma configuración.
Todos los juegos se establecen en su posición más alta calidad a menos que se indique lo contrario.
AA y AF se aplican a través de ajustes en el juego, no a través del panel de control del conductor.

Bien partiendo de esa base y queriendo confiar en esta pagina que siempre me ha perecido seria, me surgen varias dudas sin investigar mucho... os cuento:

Si nos vamos al los testeos de "Assassin's Creed: Unity" y nos fijamos en los resultados de la 970 a 2560x1440 observamos que obtienen 19.5 fps de media y luego a 3840 x 2160 resulta que les da 20.1 fps al doble de resolucion ganan 1 fps WTF:roto2rie:

Pero ahi no acaba el tema:

Ahora nos vamos al los testeos de "The Witcher 3: Wild Hunt" y observo con sorpresa también que en la 970 por ejemplo a 1600 x 900 obtienen 43.5 fps a 1080p 38.4 a 1440p 29,3 y a 2160p 17.6 Eso, tomando como referencia lo que dice al principio es todo ultra y en este caso han especificado que es sin HairWorks habilitado para que sea mas neutro el resultado general ya que hay gpus amd, hasta aqui todo claro no? ok pues aqui vienen mi duda porque he perdido un tiempo en testearlo personalmente, os cuento. De 900p a 1080p con los citados parametros que ellos usan pierdo 25 fps, ellos solo bajan 5 fps de media. De 1080p a 1440p yo pierdo 35 fps, ellos solo bajan 9 fps de media y de 1440p a 2160p yo pierdo 36 fps mas y ellos solo bajan no llega a 12.... Esto lo he testeado personalmente en una 980ti que tiene mucho mas musculo que una 970. Alguien con una 970 podria probar en este caso el TW3 y confirmar si los datos de perdida de fps entre resoluciones son correctos en su review?

En cambio en otros testeos las perdidas por subida de resolucion se ajustan mucho mas a los que yo he obtenido es decir una perdida de unos 20 fps de 900p a 1080p otros 30 o de 1080p a 1440p y de 25 a 30fps de 1440p a 2160p que seria lo normal. No he querido seguir analizando todos los testeos restantes porque ya viendo esto no me fiaba.

Entonces yo me pregunto, como han hecho estos testeos? estaba sereno el que los hizo y los hizo de manera objetiva y rigurosa buscando ser imparcial o de lo contrario los hizo de manera negligente y con algo de desidia?... no lo se que juzgue cada uno lo que quiera, pero yo no me acabo de fiar...

Sobre el rendimiento de la 390 vs 970, la que para mi sigue siendo la reina de 1080p cuando ambas van bien apretadas, hay diversos resultados segun la web y supongo que intereses que tengan de por medio... que no deberia pero pienso que los hay. Pues aqui os dejo otro enlace donde vemos que la 970 es superior a la 390 incluso a la 390x en la mayoria de casos a la resolucion que digo e incluso las supera en otras situaciones a resoluciones mayores.



https://www.youtube.com/watch?v=jatjGYaX2PU

Saludos y ya me direis vuestras opiniones.
 
Última edición:
Buenas, he estado analizando muy por encima esos datos de techpowerup y me asaltan las siguientes incongruencias, a ver si alguien me lo explica porque no lo entiendo.

Vereis si nos fijamos en la pagina nº 5 "test set up" nos dice:

Todos los resultados de tarjeta de vídeo se obtienen en este sistema exacta con exactamente la misma configuración.
Todos los juegos se establecen en su posición más alta calidad a menos que se indique lo contrario.
AA y AF se aplican a través de ajustes en el juego, no a través del panel de control del conductor.

Bien partiendo de esa base y queriendo confiar en esta pagina que siempre me ha perecido seria, me surgen varias dudas sin investigar mucho... os cuento:

Si nos vamos al los testeos de "Assassin's Creed: Unity" y nos fijamos en los resultados de la 970 a 2560x1440 observamos que obtienen 19.5 fps de media y luego a 3840 x 2160 resulta que les da 20.1 fps al doble de resolucion ganan 1 fps WTF:roto2rie:

Pero ahi no acaba el tema:

Ahora nos vamos al los testeos de "The Witcher 3: Wild Hunt" y observo con sorpresa también que en la 970 por ejemplo a 1600 x 900 obtienen 43.5 fps a 1080p 38.4 a 1440p 29,3 y a 2160p 17.6 Eso, tomando como referencia lo que dice al principio es todo ultra y en este caso han especificado que es sin HairWorks habilitado para que sea mas neutro el resultado general ya que hay gpus amd, hasta aqui todo claro no? ok pues aqui vienen mi duda porque he perdido un tiempo en testearlo personalmente, os cuento. De 900p a 1080p con los citados parametros que ellos usan pierdo 25 fps, ellos solo bajan 5 fps de media. De 1080p a 1440p yo pierdo 35 fps, ellos solo bajan 9 fps de media y de 1440p a 2160p yo pierdo 36 fps mas y ellos solo bajan no llega a 12.... Esto lo he testeado personalmente en una 980ti que tiene mucho mas musculo que una 970. Alguien con una 970 podria probar en este caso el TW3 y confirmar si los datos de perdida de fps entre resoluciones son correctos en su review?

En cambio en otros testeos las perdidas por subida de resolucion se ajustan mucho mas a los que yo he obtenido es decir una perdida de unos 20 fps de 900p a 1080p otros 30 o de 1080p a 1440p y de 25 a 30fps de 1440p a 2160p que seria lo normal. No he querido seguir analizando todos los testeos restantes porque ya viendo esto no me fiaba.

Entonces yo me pregunto, como han hecho estos testeos? estaba sereno el que los hizo y los hizo de manera objetiva y rigurosa buscando ser imparcial o de lo contrario los hizo de manera negligente y con algo de desidia?... no lo se que juzgue cada uno lo que quiera, pero yo no me acabo de fiar...

Sobre el rendimiento de la 390 vs 970, la que para mi sigue siendo la reina de 1080p cuando ambas van bien apretadas, hay diversos resultados segun la web y supongo que intereses que tengan de por medio... que no deberia pero pienso que los hay. Pues aqui os dejo otro enlace donde vemos que la 970 es superior a la 390 incluso a la 390x en la mayoria de casos a la resolucion que digo e incluso las supera en otras situaciones a resoluciones mayores.



https://www.youtube.com/watch?v=jatjGYaX2PU

Saludos y ya me direis vuestras opiniones.

Pues segun tus testeos yo veo 2 posibilidades, o bien no has pasado correctamente los test o tienes algun problema en el equipo, es solo mi humilde opinion, pero como comprenderas me fio mucho mas de
Techpowerup que de lo que tu hagas o dejes de hacer, y mas aun teniendo en cuenta tu historial pro Nvidia.
 
Buenas, he estado analizando muy por encima esos datos de techpowerup y me asaltan las siguientes incongruencias, a ver si alguien me lo explica porque no lo entiendo.

Vereis si nos fijamos en la pagina nº 5 "test set up" nos dice:

Todos los resultados de tarjeta de vídeo se obtienen en este sistema exacta con exactamente la misma configuración.
Todos los juegos se establecen en su posición más alta calidad a menos que se indique lo contrario.
AA y AF se aplican a través de ajustes en el juego, no a través del panel de control del conductor.

Bien partiendo de esa base y queriendo confiar en esta pagina que siempre me ha perecido seria, me surgen varias dudas sin investigar mucho... os cuento:

Si nos vamos al los testeos de "Assassin's Creed: Unity" y nos fijamos en los resultados de la 970 a 2560x1440 observamos que obtienen 19.5 fps de media y luego a 3840 x 2160 resulta que les da 20.1 fps al doble de resolucion ganan 1 fps WTF:roto2rie:

Pero ahi no acaba el tema:

Ahora nos vamos al los testeos de "The Witcher 3: Wild Hunt" y observo con sorpresa también que en la 970 por ejemplo a 1600 x 900 obtienen 43.5 fps a 1080p 38.4 a 1440p 29,3 y a 2160p 17.6 Eso, tomando como referencia lo que dice al principio es todo ultra y en este caso han especificado que es sin HairWorks habilitado para que sea mas neutro el resultado general ya que hay gpus amd, hasta aqui todo claro no? ok pues aqui vienen mi duda porque he perdido un tiempo en testearlo personalmente, os cuento. De 900p a 1080p con los citados parametros que ellos usan pierdo 25 fps, ellos solo bajan 5 fps de media. De 1080p a 1440p yo pierdo 35 fps, ellos solo bajan 9 fps de media y de 1440p a 2160p yo pierdo 36 fps mas y ellos solo bajan no llega a 12.... Esto lo he testeado personalmente en una 980ti que tiene mucho mas musculo que una 970. Alguien con una 970 podria probar en este caso el TW3 y confirmar si los datos de perdida de fps entre resoluciones son correctos en su review?

En cambio en otros testeos las perdidas por subida de resolucion se ajustan mucho mas a los que yo he obtenido es decir una perdida de unos 20 fps de 900p a 1080p otros 30 o de 1080p a 1440p y de 25 a 30fps de 1440p a 2160p que seria lo normal. No he querido seguir analizando todos los testeos restantes porque ya viendo esto no me fiaba.

Entonces yo me pregunto, como han hecho estos testeos? estaba sereno el que los hizo y los hizo de manera objetiva y rigurosa buscando ser imparcial o de lo contrario los hizo de manera negligente y con algo de desidia?... no lo se que juzgue cada uno lo que quiera, pero yo no me acabo de fiar...

Sobre el rendimiento de la 390 vs 970, la que para mi sigue siendo la reina de 1080p cuando ambas van bien apretadas, hay diversos resultados segun la web y supongo que intereses que tengan de por medio... que no deberia pero pienso que los hay. Pues aqui os dejo otro enlace donde vemos que la 970 es superior a la 390 incluso a la 390x en la mayoria de casos a la resolucion que digo e incluso las supera en otras situaciones a resoluciones mayores.



https://www.youtube.com/watch?v=jatjGYaX2PU

Saludos y ya me direis vuestras opiniones.
Seamos sensatos. No mires cuántos frames pierdes, mira qué porcentaje. Normal que si tienes choporropocientos frames, al subir la resolución, pierdas una gran cantidad. Sin embargo si tienes 20fps ¿cuántos quieres perder? ¿21?
 
Por cierto, en The Witcher 3 ¿cuántos frames pierdes? 25 + 35 + 36 = 96. ¿Pierdes 96 fps? Es decir ¿tienes más de 100fps a 900p? No te lo crees ni tú.
 
En TW3 Tengo mas de 135 de media a 900p, de 108-115 a 1080p de 75-80 a 1440p y de 35-37 a 4k. En una 980ti que tiene mucho mas músculo que una 970. Si quieres te hago un vídeo monitorizando los parámetros igual que los tienen en esa web y veras como todo lo que digo es cierto. Para que voy a mentir, es absurdo no gano nada con ello.
En el assassins creed a ellos les da un fps mas en 4k que a 1440p lo cual es una gran cagada vamos. Ya solo por eso me da que pensar sobre la rigurosidad de los datos generales.
Si quieres que haga vídeo me lo dices y encantado te demuestro lo que digo.
De 1080p a 4k en general se pierden en torno a los 50-60 fps en cualquier gráfica. Y de 1080p a 1440p se pierden de 20 a 30. Pruebalo en juegos exigentes bajo parámetros altos o ultra y veras como así es. Por otro lado la 980ti tiene mas musculo que la 970 y mantiene mucho mejor los mínimos y por tanto la media. Y los del assassins creed unity que les da 19fps a 1440p y 20 o 21 a 4k es absurdo, no hay por donde cogerlo.
Si no tienes mas allá de 1080p nativo puedes usar supersampling para obtener mas resoluciones y hacer pruebas pertinentes y te darás cuenta de la verdad en mis argumentos.
Aun así haré el vídeo demostrativo para despejar tus dudas.
 
Última edición:
En TW3 Tengo mas de 135 de media a 900p, de 108-115 a 1080p de 75-80 a 1440p y de 35-37 a 4k. En una 980ti que tiene mucho mas músculo que una 970. Si quieres te hago un vídeo monitorizando los parámetros igual que los tienen en esa web y veras como todo lo que digo es cierto. Para que voy a mentir, es absurdo no gano nada con ello.
En el assassins creed a ellos les da un fps mas en 4k que a 1440p lo cual es una gran cagada vamos. Ya solo por eso me da que pensar sobre la rigurosidad de los datos generales.
Si quieres que haga vídeo me lo dices y encantado te demuestro lo que digo.
De 1080p a 4k en general se pierden en torno a los 50-60 fps en cualquier gráfica. Y de 1080p a 1440p se pierden de 20 a 30. Pruebalo en juegos exigentes bajo parámetros altos o ultra y veras como así es. Por otro lado la 980ti tiene mas musculo que la 970 y mantiene mucho mejor los mínimos y por tanto la media. Y los del assassins creed unity que les da 19fps a 1440p y 20 o 21 a 4k es absurdo, no hay por donde cogerlo.
Si no tienes mas allá de 1080p nativo puedes usar supersampling para obtener mas resoluciones y hacer pruebas pertinentes y te darás cuenta de la verdad en mis argumentos.
Aun así haré el vídeo demostrativo para despejar tus dudas.
Vaya, tienes 60fps más que el resto de las 980ti. Es decir, te rinde un 90% más a 900p, casi un 100% a 1080p, sobre un 60% a 1440p, peeeeeeeero sólo sacas 5 o 6 fps a 4k. O a lo mejor es que no pones los mismos parámetros: http://www.techpowerup.com/mobile/reviews/Zotac/GeForce_GTX_980_Ti_Amp_Extreme/18.html
 
Arriba