• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Encuesta: GTX 980ti o Fury X

No digo esto por tocar las pelotas , pero para ver que tarjeta la tiene mas grande hay otros post, disculpad si todo esto suena mal , pero no se decirlo de otra forma.
Para la próxima te será más cómodo si directamente pones la encuesta al abrir el hilo. Y es complicado controlar lo que la gente comenta o no en un foro, pese a lo que pida el creador del hilo luego un foro en un sitio de debate y es normal que, a veces, se debata más allá de lo que pretendía el hilo. Pero tienes toda la razón.

Perdón.

Saludos.
 
Es que lo escrito se puede mal entender y no es mi intencion para nada molestar cn mi comentario. Por supuesto que es un sitio de debate y opiniones y cada cual es libre de hacer lo que quiera , pero bueno se puede controlar poco eso xD.
Saludos
 
GTX 980 Ti.

Aunque si es para FULL HD una GTX 980 y me ahorro la diferencia.
 
La mayoria de gente que le preguntes 970 o 780ti? te dia 970 por que MOTIVO? por que es mas fresca y consume menos y con OC se pone a la altura y segun juego la supera aunque nadie piensa que Con el OC que se necesita para eso casi iguale a la 780ti en temperaturas y supere la barrera de los 200w de consumo por dicho OC.

Sin embargo entre la Fury-x y la 980ti la diferencia de temperatura (aunque algunos se inventen tonterias) es de mas de 20 GRADOS y aqui los Nvidieros no ven ese mismo MOTIVO de temperaturas.

Yo Me dedico bastante al i+d en software y bios de las gpu tanto de un color como del otro y quiero decir que si, el software tiene muucho que decir en una gpu, pero mucho no hay mas que mirar lo que hizo nvidia con las kepler como respuesta a mantle en DX11.

:roto2cafe: :roto2cafe: :roto2cafe:

Ahora entiendo porque no me mutan las gráficas.


El software tiene mucho que decir de una GPU? Una buena arquitectura tiene mucho que decir de una GPU, de nada te sirve tener un software que aproveche una GPU si está tiene una mala arquitectura o simplemente está enfocada para otras cosas. De nada me sirve actualizar una Titan a una Titan X si mi software no necesita tanta memoria, porque puede que salga perdiendo en rendimiento... oh wait, quizas vemos una Titan X Flauros edition?

Bromas aparte, creo que se entiende, que nvidia nos ha sabido vender la moto con las Maxwell, muy bien vendida por cierto, que AMD lo ha intentado y ya con las Fury en el mercado a decepcionado, que de nada me sirve que el año que viene le saque un 5% a una 980ti, la gente lo quiere par HOY, con las 7970 no les ha salido mal del todo la jugada, pero han estirado demasiado el chicle, tanto que la cosa está a punto de romperse.
 
crossfire 380 y futuro 6700K
 
¿Enserio veis decisivo que tenga HDMI 2.0?

Yo no me gasto 800€ en una gràfica para jugar en una TV.
 
Perfecto. Es una opción.

Pero ponte delante de una 65" UHD a jugar a 4K (por ejemplo), y luego me cuentas que te gusta mucho más un monitor de 32 :D :D

EDITO: por si no queda claro, si, lo veo decisivo. Porque hace más de 8 años que no juego en monitores (salvo el portátil, claro está), desde que dí el salto al PC de salón no uso los PCs en casa de otra manera que no sea con TVs. Y teniendo en cuenta que la tendencia de TVs es tender al 4K y HDMI 2.0, que una tarjeta gráfica que venden como "para 4K" tenga una de sus conexiones incapaz de dar el estandar para 60Hz, me parece decisivo (además de una cagada de AMD).

Y es sólo uno de los puntos. El resto ya los he expuesto demasiado. Pero es sólo mi opinión, igualmente.

Saludos.
 
Última edición:
Ahora no me compares la calidad y tiempos de respuesta de un monitor con el de una TV.

A lo mejor es culpa de esa TV de 65" UHD de no tener entrada displayport.
 
A lo mejor es culpa de esa TV de 65" UHD de no tener entrada displayport.

Claro, culpa de la TV no tener la conexión retro que decida AMD :aplausos: :aplausos: :aplausos:

Creo que sólo hay unas que tengan displayport, una serie de Panasonic.

Y si, si que te lo comparo. Por norma general tienen tiempos de respuesta mayores, eso es cierto, aunque las series caras de casi cualquier marca tienen los modos "gaming" o "pc" que no hacen post-procesado local ninguno a la imagen y los tiempos de respuesta se quedan en mucho más que decentes.

Y de calidad... ufff... ¿por dónde empezar?... Es otro mundo. Ojo, hablo de una buena TV, con un buen calibrado de color, y olvídate de cualquier monitor.

Eso por no hablar del tamaño. El tamaño SI importa :D

O de que la gente que se gasta un dineral en una buena TV (no los que las compran en el pasillo del mediamarkt), lo mínimo que le pide al PC que va a conectarla (en el que, por lo visto, también quiere gastarse una cantidad indecente de dinero en una GPU como la Fury X o la 980 Ti) es que sea capaz de dar la talla. No que se quede con la conexión estandar de hace unos cuantos años.

Pero oye, que no hay nada más lejos de mi intención que convencerte a ti o a nadie. Y tampoco discutir que los monitores de uso profesional darán mejores colores y tiempos de respuesta que una buena TV de gama alta UHD, o que una de cuatro duros del pasillo del mediamarkt estará a la altura de monitores "baratos" de 200-300 euros. Tampoco hacer entender a nadie que la calidad de un panel y su tiempo de respuesta, en una buena TV, puede ser mejor que cualquier monitor excepto los profesionales porque los que fabrican los paneles vienen siendo las mismas cuatro empresas, las tecnologías las mismas, e I+D y gama hay más en TV que en monitor de PC. Y mucho menos voy a perder tiempo en pensar en gamas entusiastas de GPUs para usar en algo que no sea, como poco, una gama "entusiasta" igual de TV o de monitor, ya que sería como comprar un BMW M5 para andar por caminos sin asfaltar y pensando "mira que cosa tan chula tengo con tantos CVs...".

Pero oye, ¡allá cada uno! :sonrisa:

Eso si, independientemente de todo esto, insisto: hacer una GPU en el año 2015, anunciarla como para usar a 4K, y ponerle una conexión del año 2009 (año de lanzamiento del HDMI 1.4) habiendo desde hace 2 años un estandar más moderno, dejándola incapaz de dar el ancho de banda de la conexión estandar 4K de hoy en día, no es precisamente "un avance tecnológico".

Saludos.
 
El creador del hilo me va a mandar a paseo por no seguir la tónica de la encuesta xDD pero quería ver que opináis al respecto sobre esto, si ya lo habéis leído u os habéis enterado de algo más que yo porque mi spaenglish esta un poco jodido xDD. Por lo que tengo entendido distintos medios ya están consiguiendo hacerle overclock a la memoria engañando el softwarte para subir al frecuencia de la memoria a la vez que sube la frecuencia de la GPU o algo así he entendido. La verdad que por poco más de 100 cochinos mhz y con la ayuda de subie la GPU se consigue bastante mejora:

image_id_1442482.png


http://wccftech.com/amd-radeon-r9-fury-memory-oveclocked-20/

Supongo que más de uno lo habréis leído pero esque llevo rato con la cosa y no lo tengo todo muy claro. Haber si entre todos sacamos una conclusión XDD
 
No es por nada pero Displayport es la interfaz estándar por VESA sin licencias y apoyada por Intel, en todo caso la conexión retro será HDMI.
 
No es por nada pero Displayport es la interfaz estándar por VESA sin licencias y apoyada por Intel, en todo caso la conexión retro será HDMI.
La conexion estandar se prentende que sea DisplayPort. Correcto y si, al final hdmi se quedara en el olvido al menos para el mundo gamer.

No solo AMD sino Nvidia, por ejemplo mi 970g1 tiene 1 solo hdmi y 3 displayport he ahi la prueba.

Para juegos rapidos lo mejor es un buen monitor gamer pero es cierto que para juegos tipo DMC,Resident Evil, como mucho Tomb Raider en una buena TV se nota la diferencia de calidad,colores etc.
Si, efectivamente, la conexión retro es el HDMI 1.4. Está desfasado desde que hace dos años se adoptara el estandar del HDMI 2.0.

El Displayport está muy bien pero el problema que tiene es de que en el segmento de TV UHD se está quedando sin soporte. Evidentemente no será algo que afecte a todo el mundo, pero afecta a muchos. Y cerrarte el mercado de esos cogiendo una tecnología antigua, pues es una cagada, sinceramente.

Y si, normalmente las GPUs tienen más Displayport que HDMI, y es que quien la quiere conectar a una TV la conecta a una sola, mientras que con el DisplayPort te puedes montar configuraciones multimonitor que también son muy interesantes.

Yo juego un poco a todo, no soy fan de algo en concreto. Y en las buenas TVs los tiempos de respuesta de los modos "PC" o "Game" no tienen nada que envidiar a un monitor no profesional. Y la diferencia de calidad y colores se nota en todo, no sólo en los juegos (como por ejemplo en películas, donde gracias al PC puedes ir sacando lo poquísimo que hay en 4K además) porque la da el panel en si, y no es un panel para jugar al Tomb Raider y otro para el Alien Isolation...

Por cierto, a este último juego lo jugué en el portatil (17" pero muy cerca de la vista) y en una TV en un salón a 4K, y la inmersión que daba en la TV no te la daba el portatil (un MSI) ni de lejos. Como ese juego, pues todos. Solo que ese es de los que de verdad me han causado una impresión tremenda últimamente y donde más me decepcionó el cambio entre una buena TV y una buena pantalla de portatil.

Es algo que te puedo contar y no tienes por qué creer. Es algo que hasta que no se prueba, no se ve. Es como decirte lo que se siente al saltar en paracaidas y que lo que más impresiona es el silencio... Todos pensamos que están locos cuando nos lo cuentan, eso del silencio cayendo a 200km/h antes de abrir el paracaidas con ese aire dándote en la cara... hasta que lo pruebas.

Pero vuelvo a lo de siempre, allá cada uno con lo que quiere creer sin probarlo. La fe es inherente al ser humano, y no todo el mundo tiene que ser empírico o pragmático ;)

El creador del hilo me va a mandar a paseo por no seguir la tónica de la encuesta
A ti y a unos cuantos más nos va a mandar a paseo, si :salta::salta::salta:

Yo ya había leído sobre esto, y es una muy buena noticia, aunque me deja con un sabor agridulce. Meto en spoiler la explicación y todos los links para que el creador no me mate.

Spoiler


A ver, no quiero con todo esto decir que sea mala noticia que se pueda hacer OC a las memorias y mucho menos que al hacerlo aumenten su rendimiento. Sólo quiero mantener un poco los pies en la tierra y no dejarme llevar por los hypes, seguir teniendo la vista amplia y ver todo en perspectiva. Que en lenguaje escrito es muy fácil malinterpretarnos al no poder dar tonos a las palabras. Y no pretendo criticar la noticia, que me parece estupenda, sólo ponerla en contexto que es lo que a mi, personalmente, me importa a la hora de comprar: comparar realmente.

Es una muy buena noticia que se puedan subir relojes a las HBM, y mejor aún lo que parece que ganan en un benchmark sintético. Pero, por desgracia, eso no les mejora la competitividad respecto a nada ni nadie porque, si igualamos condiciones en ambas (OC en ambas, bloque custom en ambas...) siguen quedándose por detrás.

No obstante, la noticia es buena. Porque, aquellos que ya quieran comprar una Fury X con sus ventajas e inconvenientes, saben que puede que aún sean capaces de sacarle algo más de rendimiento. No porque eso haga más interesante la compra respecto a la competencia, porque siguen en la misma posición relativa.

Resumiendo, aunque es muy buena noticia que (al menos algunas) Fury X se puedan exprimir más y overclockear las memorias (esta es la parte dulce), aún queriendo creer que lo puedan hacer todas y que el capado haya sido solo una mala jugada sin razón técnica por parte de AMD, siguen sin aportar una competencia mayor que es lo que yo, egoistamente, espero en el mercado (esta es la parte agria). Por eso digo que la noticia me deja un sabor agridulce.

Saludos.
 
Última edición:
Nada, que he colgado más humo. De todas formas no se de que manera estarán haciendo el overclock pero habrá que esperar a ver si al final AMD cumple lo que dijo de desbloquearlo en un futuro vía drivers el tema de overclock, porque de la manera que están forzando las frecuencias es normal que no salga estable. Ale a seguir esperando pués, bueno yo no, yo lo tengo claro, como mínimo hasta finales del año que viene no pienso comprar nada porque teninedo la 7970 vitaminada estoy empezando a creer que realmente no hay un gran cambio como para desembolsar más de 600€(almenos mi situación), y no solo estoy hablando de hardware sino también de juegos.
 
El creador del hilo me va a mandar a paseo por no seguir la tónica de la encuesta xDD pero quería ver que opináis al respecto sobre esto, si ya lo habéis leído u os habéis enterado de algo más que yo porque mi spaenglish esta un poco jodido xDD. Por lo que tengo entendido distintos medios ya están consiguiendo hacerle overclock a la memoria engañando el softwarte para subir al frecuencia de la memoria a la vez que sube la frecuencia de la GPU o algo así he entendido. La verdad que por poco más de 100 cochinos mhz y con la ayuda de subie la GPU se consigue bastante mejora:

image_id_1442482.png


http://wccftech.com/amd-radeon-r9-fury-memory-oveclocked-20/

Supongo que más de uno lo habréis leído pero esque llevo rato con la cosa y no lo tengo todo muy claro. Haber si entre todos sacamos una conclusión XDD

Nada muchacho XD ya se fue de las manos y a ellos les gusta estos debates jaja , ademas los demás aprendemos xD
 
Yo esperare para votar unos dias :p a ver si salen unos drivers mas refinados a ver que pasa
 
980Ti :sehseh
 
Pues, sin embargo, yo no te diría en el caso de 970 vs 780 Ti el motivo de la temperatura. Maxwell será más fresca que Kepler, pero también es más reciente (de lo que se puede esperar quizá algo más de longevidad en el soporte de NVidia), tiene 0,5Gb más de VRAM (hasta los 3,5 de velocidad alta y usables, los otros 0,5 de la 970 son "testimoniales" y muy mal por NVidia ahí, desde luego), tiene HDMI 2.0 frente al 1.4 de la Kepler (o de las 3xx y Furys) y cuesta significativamente menos (cerca de la mitad).

Son muchas más cosas, no sólo el motivo de la temperatura.

Además, con las imágenes que te pongo arriba, yo también veo la 980 Ti 20º más fresca en algunas zonas que la Fury X, lea lo que lean por software. Y las GPUs de la 980 Ti con PCB de referncia y furmark se plantan en 82º, lo que no tiene que andar lejos de la temperatura real (no la que marque por software) que tiene que tener para que, por simple física y termodinámica, se puedan dar datos como los de la imagen térmica del radiador con Furmark que sacó Aquacomputer. Y eso no son invenciones de nadie, son datos (no subjetivos sino medidos) y física (ciencia exacta).

Por supuesto que el software tiene mucho que decir. Cualquier hardware no es más que un trozo de chatarra si no tiene un software que le de uso. No sólo en una GPU. Pero por mucho que tenga que decir el software, vuelvo a lo mismo: no conocemos ni podemos decir cómo será el software futuro.

Las capacidades del hardware, si. El total de mejoras y APIs de DirectX 12, si. Cuáles de estas capacidades y mejoras serán las que usen los desarrolladores de software o cómo optimizará sus drivers AMD, no.

Así de sencillo.

Está bien tener fe. La fe es inherente al ser humano, como medio de explicación de lo que no entiende o justificación de lo que quiere creer. Irracional y sin necesidad de fundamentos, la fe es una parte necesaria de la psique humana. Y está genial tenerla.

Pero yo soy más empírico, yo no compro una GPU por fe. La compro por datos.

¿Qué tú quieres tener fe en lo que DX12 está por traer y actuar en base a ello?, me parece perfecto. ¿Que pese a los datos medidos tú quieres creer que lo medido son invenciones y que las cosas han de ser como tú imaginas?, me sigue pareciendo perfecto. Es tu opinión y la respeto como tal, es tan válida como la mía o la de cualquier otro. Es más, me encantará que tengas razón y en un futuro poder venir aquí otra vez a decirte "¡acertaste con la predicción!, por fin tenemos competencia en el mercado", porque como consumidor de verdad que estaría encantado con ello. Cuantas más opciones, cuanta más competencia, más podemos elegir y más se han de esforzar las marcas en sacar mejores productos y en tener precios competitivos.

Ahora bien, yo pensé que estábamos hablando de datos, y te pido perdón por ello, como te digo soy más empírico, no soy hombre de fe. Y por tanto sobre fes y fans ni tengo ni puedo añadir más. Así que, no tengo nada más que añadir, señoría ;)

Saludos.
Excelente comentario.
 
Pensandolo mejor prefiero sli 970 pienso que es mejor opcion al menos bajo DX12 que se sumara las memorias de ambas:


En rendimiento no es mala opción, desde luego.

Pero en cuanto a sumar memorias VRAM en esa u otras multi-gpu, según esto:

2QPXH2I.jpg

ikLwjPC.jpg


"New mode available to devs"

"DirectX 12 explicit multiadapter allows devellopers to individually see and control available GPU hardware"

Vamos, que según eso, igual para se aprovechado con total eficiencia hace falta que los desarrolladores programen para ello.

Si eso es así, no cualquier título de los que ya tenemos o de los que vayan a sacar en un futuro va a hacer uso de "doble de VRAM" por ser una multi-gpu de dos gpus. Sino que los desarrolladores van a poder programar sus títulos para que puedan hacer uso de esa función, haciendo que la optimización en configuraciones multi-gpu sea sumando sus VRAM.

Hasta dónde la suma será aritmética... pues no sé. No sé yo si, según eso, puede darse el caso de que una carga de VRAM que en una monogpu usaría 6Gb de VRAM en una multi-GPU de 4+4 ocua 7 u 8 en total porque dependa de la programación del desarrollador hacer mejor o peor uso de esa capacidad de DX12.

Sea como sea, desde luego parece que DX12 va a dar un buen empujón a configuraciones multi-gpu. Por lo que aunque yo no esperaría que siempre se pueda sumar la VRAM a su total (y ojalá si que lo hagan), si que va a ser una mejora respecto a lo actual, que en configuraciones multi-gpu se carga lo mismo en ambas VRAM.

Saludos.
 
Para los que dicen que la 980 ti sobra para 1080p imagino que no tienen un monitor de 120hz o más y no les gusta poner filtros al máximo.
Mi voto para la 980 ti. La G1 está en alternate.es a 750 en stock.
Para los que esperan drivers milagrosos, ya he pasado por ello con las 2900xt 3870x2 etc. Quien tiene el dinero y lo quiere ya, va a lo seguro y no compra pensando en si sacan o no sacan drivers.
Sobre el tema de la refrigeración, si no llegan a sacar la fury X así, sería un horno. Por eso no se han arriesgado a sacarlas por aire, y aún así generan ruido.
La decisión la tiene cada uno, pero como se ve, la mayoría opina lo lógico.
 
Arriba