• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • Conoce los Días Naranjas de PcComponentes: descuentos de hasta un 40% en tecnología. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

[hilo oficial] Drivers 337.50 y posteriores

Resultados actualizados
 
si que me pasa una cosa muy extraña con BATMAN,lo inicio con todas las opciones gráficas al máximo y me da 71fps,le doy ala prueba de potencia 5 o 6 veces y me da eso.
pero después cambio solo la resolución a 720 le doy a prueba de potencia un rato sin que termine lo paro, luego lo pongo otra vez a 1080 con todo lo de mas sin tocar nada,
le doy a prueba de potencia y me da 91fps. le doy diez veces seguidas y me sigue dando los 91fps. cierro el juego y lo enciendo y meda otra vez 71fps. que cosa mas rara por que sera
esto? sera porque son beta?
 
hola! cuantos fps te da en el BATMAN? es por comparar con la mía, para ver si la tengo bien configurada?
yo personal mente no veo el 15% que anuncian.

Tengo configurado a tope el Batman con Physix alto, tengo forzado el vsync+triplebuffer con d3doverrider (creo que asi se llama) para que no me baje de 60 a 30 fps. No he probado el benchmark, solo jugando, me va a 60 fps constantes, cuando carga tiene sus tirones a 45-52 pero a los segundos vuelve a 60 fps, con los driver pasados tenía más tirones que ahora. Lo único que cuando muero y sale la animacion de algun villano bajan los fps a 30 y luego suben a 60 jajaja, es extraño.
 
Tengo configurado a tope el Batman con Physix alto, tengo forzado el vsync+triplebuffer con d3doverrider (creo que asi se llama) para que no me baje de 60 a 30 fps. No he probado el benchmark, solo jugando, me va a 60 fps constantes, cuando carga tiene sus tirones a 45-52 pero a los segundos vuelve a 60 fps, con los driver pasados tenía más tirones que ahora. Lo único que cuando muero y sale la animacion de algun villano bajan los fps a 30 y luego suben a 60 jajaja, es extraño.

Lo de las animaciones bajando a 30 fps es un recurso típico en juegos, sobre todo ports, donde se saltan a una tasa de fps constante en las cinemáticas 3D integradas en el motor del juego, posiblemente usando las mismas entre un juego para consola que para PC. Y dado que suele haber una tasa fija en consolas y muchas veces así de baja (30 fps), pues vendrá de ahí.

No suele molestar, más bien al contrario. Pasaba en Far Cry 3 también, pero como son cinemáticas y "bien sincronizadas", se ven bastante bien.
 
mirando en facebook nvidia,e visto un video muy interesante, para los que no puedan o no tengan mucha pasta y quieran actualizar el pc. hay lo dejo por si alguno le interesa
https://www.facebook.com/NVIDIAEspana
 
Lo de las animaciones bajando a 30 fps es un recurso típico en juegos, sobre todo ports, donde se saltan a una tasa de fps constante en las cinemáticas 3D integradas en el motor del juego, posiblemente usando las mismas entre un juego para consola que para PC. Y dado que suele haber una tasa fija en consolas y muchas veces así de baja (30 fps), pues vendrá de ahí.

No suele molestar, más bien al contrario. Pasaba en Far Cry 3 también, pero como son cinemáticas y "bien sincronizadas", se ven bastante bien.

Tienes razón, no entiendo cómo pueden limitar el juego a jugar solo con 30 o 60 fps, malditos ports, pero por suerte existen programas como el D3doverrider que solucionan ese problema.
 
Tienes razón, no entiendo cómo pueden limitar el juego a jugar solo con 30 o 60 fps, malditos ports, pero por suerte existen programas como el D3doverrider que solucionan ese problema.
funciona bien D3doverrider ?
 
funciona bien D3doverrider ?

Funciona bien, lo único es lo que dije antes, cuando mueres y aparece la animación de un villano bajan los fps a 30, pasan 2 segundos y vuelven a 60 fps, pero durante el juego puede bajar los fps a 52-48 y no a 30 como antes.
 
Funciona bien, lo único es lo que dije antes, cuando mueres y aparece la animación de un villano bajan los fps a 30, pasan 2 segundos y vuelven a 60 fps, pero durante el juego puede bajar los fps a 52-48 y no a 30 como antes.

Bueno, pero en el caso de las cinemáticas es distinto, y tampoco importa dado que no son secuencias interactivas y están diseñadas para funcionar a 30 fps constantes y sólidos (dado que no hay interacción con el usuario, es fácil).

Otro asunto son juegos que funcionan a 30 fps de serie (sí, tristísimo) o que se "enganchan" a 30 fps por cuestiones de cómo han implementado el Vsync (se suele arreglar por parches del juego, pero a veces no). En esos casos y en los de implementaciones de Vsync cutres (de ésas que aún funcionando a 50 fps te va a saltos), es donde temas como el D3DOverrider ayudan bastante (si es compatible, por ejemplo no lo es el triple buffering con los AC2, lo cual hace que no represente básicamente ningún beneficio usar el D3Doverrider). Pero si funciona el triple buffering con un juego con vsync cutre, representa una mejora bestial.
 
Estos drivers afectan como Mantle a las CPU de bajo rendimiento o cualquiera se ve afectada? Y supongo que si la grafica ya toca techo tempoco se nota mejora, no?
 
Es distinto a mantle, ellos han optimizado la arquitectura para hacerla mas eficiente, mantle quita procesos de cpu.

PD: le han preguntado ha NVIDIA que porque no hay sacado estos drivers del principio:

De todas maneras viendo esto me pregunto ¿ha tenido que salir mantle para sacar esto?¿si mantle no hubiera salido hubiese existido este driver con acceso de bajo nivel a dx11?

NVIDIA España:
No, la verdad es que no. Hace tiempo que estamos trabajando en tal driver. Ha sido todo mucho mas facil tras la ultima Game Developers Conference, eso si, gracias a Microsoft. De hecho, todas las GPUs que tengan soporte a DX11 tendran soporte para DX12, eso por nuestra parte. De los de la competencia, tan solo el 40% tendran soporte a DX12. Saludos.
 
Es distinto a mantle, ellos han optimizado la arquitectura para hacerla mas eficiente, mantle quita procesos de cpu.

PD: le han preguntado ha NVIDIA que porque no hay sacado estos drivers del principio:

De todas maneras viendo esto me pregunto ¿ha tenido que salir mantle para sacar esto?¿si mantle no hubiera salido hubiese existido este driver con acceso de bajo nivel a dx11?

NVIDIA España:
No, la verdad es que no. Hace tiempo que estamos trabajando en tal driver. Ha sido todo mucho mas facil tras la ultima Game Developers Conference, eso si, gracias a Microsoft. De hecho, todas las GPUs que tengan soporte a DX11 tendran soporte para DX12, eso por nuestra parte. De los de la competencia, tan solo el 40% tendran soporte a DX12. Saludos.

Eso, como ya indica nvidia, era una pregunta chorra que sobraba y sólo demuestra que quien la hizo, como prensa, es de todo menos ilustrada sobre su área (que se les supone que tienen que informar y estar informados).

Es tan fácil como estar atentos a las mejoras continuas de drivers de nvidia para comprender que este nuevo driver, aunque salga acumulando varias mejoras y con un esfuerzo de PR para contrarrestar el tema de Mantle, sigue una línea evolutiva de los drivers de nvidia muy clara.

Se han visto visto mejoras radicales de vez en cuando, incluso en situaciones cpudependientes con drivers de nvidia antes de cualquier mención pública a Mantle:

http://wwwendigo.blogspot.com.es/2013/05/mejoras-de-rendimiento-con-los-geforce.html

Y durante finales del 2012 salieron unos cuantos drivers mejorados respecto a los iniciales. Lo mismo con finales del 2013.

He visto personalmente como un juego como Tomb Raider pasaba de rendir poco más de 45 fps en ciertos escenarios, mientras la gráfica se rascaba la barriga (situación de cpudependencia, con un core al 99%), con un i5 a 4,4 GHz, a ver ese mismo juego con drivers modernos, anteriores a estos R337, rindiendo 52 fps en la misma situación pero... con el i5 a 4 GHz pelados. Con los R337 dan un pasito más hacia los 60 fps (54-55 fps).

También se ha visto, como en otro hilo de este foro, que el mito sin base de "nvidia es más cpudependiente" no sólo no se cumple sino que es todo lo contrario, otra vez con drivers pre-R337:

http://elchapuzasinformatico.com/foro/showthread.php?14984-Caso-raro-de-cpu-dependencia-entre-2-tarjetas-con-rendimiento-similar

También se ha visto en los reviews de mantle que las versiones DX11 de los juegos, con las gráficas y sobre todo DRIVERS de nvidia, éstas van mejor en cpus modestas que el equivalente driver AMD y DX11.

Todo esto no es por tanto resultado de un esfuerzo "espontáneo y motivado por Mantle", sino un camino que nvidia lleva transitando desde hace mucho tiempo. Si AMD decide crear un API propietaria y cerrada en vez de mejorar los estándares ya existentes, empezando por sus drivers, es su problema.

Pero por favor, que no se le ponga falsas medallitas al honor inmerecidas. Sólo faltaría que ahora resulte que se deban las mejoras de driver de nvidia, en las APIs estándar donde AMD NO trabaja ni la cuarta parte (sus drivers están bastante por debajo en consumo de cpu eficiente, tanto en DX11 como OpenGL), y malgasta sus recursos en APIs propietarias y exclusivas.
 
Bueno, lo dicho, análisis realizado, así que dejo aquí el link para la review-tostón completa, y la imagen resumen de rendimientos máximos para el que quiera picotear los datos aquí directamente:

Ver el archivo adjunto 2730

CPU 2500K, con distintas frecuencias para comprobar la cpudependencia y situaciones en extremos de configuración respecto a la potencia de cpu.

El rollo con más datos:

http://wwwendigo.blogspot.com.es/2014/04/rendimiento-de-los-nuevos-drivers-de.html

Creo que queda claro que el driver sí mejora, y justo en lo que dice (coste de cpu para uso de recursos del API y sus llamadas). Además, parece ser algo general, no aplicación a aplicación, con DirectX11 (aunque no fuera de éste).
 
entonces para que yo lo entienda. con estos driver, si quiero montar un pc nuevo,por ejemplo poniendo un i3 o i5 básico con una gtx 770 o 780 tendría suficiente? no tendría que ponerle un i7 de los potentes y ahorrarme una pasta en el procesador?
 
entonces para que yo lo entienda. con estos driver, si quiero montar un pc nuevo,por ejemplo poniendo un i3 o i5 básico con una gtx 770 o 780 tendría suficiente? no tendría que ponerle un i7 de los potentes y ahorrarme una pasta en el procesador?

No y sí.

Primero, no necesitas este driver para usar las gráficas que has dicho eficientemente, te llega perfectamente con un i5 (¿ahora va a resultar que es una cpu de gama baja? la diferencia que tiene contra un i7 es minúscula o despreciable, siendo la segunda mejor cpu gaming del mercado en LGA 1150 o la primera en relación precio/rendimiento gaming). El i3 se quedará corto de todas formas, porque aunque se mejore el rendimiento y pueda dar el pego con más de un juego, cuando uno sea muy exigente NO habrá tu tia sólo con el driver por mejorado que sea.

En los juegos se usa la cpu para bastante más que para usar el driver gráfico y hacer llamadas al API y procesarlas.

Segundo, el problema del rendimiento por core o IPCxfrecuencia existirá igualmente, así que mejor pillarse un i5 K y así poder aumentar su rendimiento a base de frecuencia con OC, nada exagerado y todo "muy sano", que autolimitarse sin más razón que ahorrar unos pocos euros. Si vas a montar una GTX 770, la opción del i5 básico quizás se pudiera barajar, a pesar de todo, como equilibrada.

Pero.... ¿comprando una GTX 780, ahorrar como mucho 30€ en la cpu y arriesgarse a que vaya a medio gas en X juegos una tarjeta gráfica de más de 400€? No tiene sentido. Todo tiene su equilibrio. Este driver permite rebajar los requerimientos de cpu por parte del API DX11, pero eso ni implica que se reduzca los requerimientos de cpu en motores de juegos (otra vez, hacen más que simplemente llamar al API como carga de trabajo), ni tampoco que no se obtenga provecho de "más madera".

Mira la tabla que he puesto antes, existe beneficio en un i5 con OC con una GTX 770, así que ese beneficio seguirá siendo aún mayor en el caso de una GTX 780. Si hay beneficio al usar este driver, es que la cpu sigue siendo en cierto aspecto, un limitante.
 
gracias por la explicación wwwendigo. no si ya me lo imaginaba yo,cada dos por tres estoy ampliando y cambiando componentes al pc y cada vez mas potentes para no quedarme corto,y prefiero siempre que me sobre potencia. pero con el tiempo siempre se nos queda corto a los que nos gusta este mundillo.
es que me confundió lo de con menos GHZ MAS % en algunos juegos.
 
entonces para que yo lo entienda. con estos driver, si quiero montar un pc nuevo,por ejemplo poniendo un i3 o i5 básico con una gtx 770 o 780 tendría suficiente? no tendría que ponerle un i7 de los potentes y ahorrarme una pasta en el procesador?

La diferencia por ejemplo entre un i5 4670k 4,2ghz vs un i7 3770k sin overclock con la gtx 780, el i7 saca en algunos juegos 2-3 fps más, overclockeando el i5 a 4,5ghz alcanza al i7 pero si el i7 se overclockea saca algo más.

La diferencia es corta, pero yo te recomendaría si es el caso, ahorrar un poco más para un i7 y tener muchos núcleos ya que veo que los juegos están empezando a usar más de 4 núcleos, con el i7 estarás asegurado para unos años y no tener que estar actualizando. Yo tengo el i5 4670k a 4,2ghz y hoy por hoy no hay juego que me ande mal con este procesador pero creo que en el futuro se aprovechará mejor el i7.

Pero si solo vas con la gtx 770 creo que bastaría con un i5 4670k o 4670 estará sobrado.
 
Bueno, lo dicho, análisis realizado, así que dejo aquí el link para la review-tostón completa, y la imagen resumen de rendimientos máximos para el que quiera picotear los datos aquí directamente:

Ver el archivo adjunto 2730

CPU 2500K, con distintas frecuencias para comprobar la cpudependencia y situaciones en extremos de configuración respecto a la potencia de cpu.

El rollo con más datos:

http://wwwendigo.blogspot.com.es/2014/04/rendimiento-de-los-nuevos-drivers-de.html

Creo que queda claro que el driver sí mejora, y justo en lo que dice (coste de cpu para uso de recursos del API y sus llamadas). Además, parece ser algo general, no aplicación a aplicación, con DirectX11 (aunque no fuera de éste).

Pues me he quedado bien sorprendido con lo bien que van los juegos a 1.6GHz, supongo que sera dependencia GPU, no lo esperaba.
:sisi3: :sisi3: :sisi3:
 
Pues me he quedado bien sorprendido con lo bien que van los juegos a 1.6GHz, supongo que sera dependencia GPU, no lo esperaba.
:sisi3: :sisi3: :sisi3:

Hombre, en la mayoría de casos la verdad es que sí, la diferencia entre 4 GHz y 1,6 GHz, por lo menos en fps medios, es pequeña. Y con estos drivers aún se reducen más las diferencias.

Pero después hay casos de pesos pesados como Crysis 3, Far Cry 3, Metro Last Light, Witcher 2, o sólo en ciertos puntos calientes, Tomb Raider (ni cuento Star Swarm por no ser ni un juego real), donde se nota y mucho una cpu potente.

En la mayoría de estos casos es donde más se nota la optimización de recursos de cpu de este driver, lo cual apoya lo dicho por nvidia. Por otro lado, casos como Witcher 2 no se benefician, pero eso se explica por ser un juego DX9, en otros como Tomb en sus puntos calientes, simplemente no parece haber relación entre esa cpudependencia tan visible y las optimizaciones del driver (que además si aumentan los fps medios en juego, pero NO mejoran el rendimiento de estos puntos calientes).

Lo cierto es que en la mayoría de casos el i5 a 1,6 GHz es suficiente para jugar más o menos cómodamente, pero no hay que olvidar que lo pasará francamente mal cuando ocurran secciones de juego cpudependientes, que siempre están ahí. Es la "magia" de las métricas basadas en una única cifra de fps medios, es útil para ver las mejoras entre drivers o tarjetas similares, pero no nos muestran la cara de la moneda de las diferencias entre timeframes entre fabricantes o entre cpus distintas.

Ten en cuenta que se ha jugado con calidades tope o casi, a 1080p, pero evitando el uso de técnicas de MSAA/SSAA, o si se incluyen resultados de éstos, también se incluyen sin ellos (así se puede ver muy bien cómo la gpudependencia anula la visibilidad de las optimizaciones en el driver a nivel de cpu, a costa de bajar los fps con estos efectos, y consecuentemente, rebajando la carga en la cpu al procesar menos frames por segundo).

Las diferencias se notarían más con resoluciones más bajas, pero quería mostrar un uso realista de dicho equipo, quitar técnicas de AA costosas, con una GTX 770 en algunos casos concretos, más lo poco que aportan en algunos casos (en BF4 es casi anecdótico su uso para mejorar la imagen), tendría sentido. Con una GTX 780 o superior, debería notarse más diferencias con MSAA/SSAA activado, con una gráfica inferior, al revés, lo mismo con el tema de cpus. Creo que ha sido un buen ejercicio práctico para mostrar cómo se pueden mostrar u ocultar mejoras a nivel de drivers en reviews.
 
Mañana le echo un vistazo más a fondo, pero esa tabla a si a primera vista no la piyo. xD
 
Arriba