Es que dan el mismo rendimiento si la gpu está al 100% lol
Seguro que la gpu está al 100%? tira a buscarme benchmarks, verás que en 1080p el 7700 rinde más porque están usando una gráfica potente que no esté al 100% en esa resolución.
Esto es lo que pasa cuando la gpu está al 100%:
http://i.imgur.com/D8jZsbG.png
El gráfico es un encefalograma plano donde todo rinde lo mismo.
"O bueno, un 6900 y 7700 con la misma gpu no rinden igual, y entiendo que es por la diferencia de frecuencias no? o no¿?"
Solo si la gpu no está al 100%, es decir la misma situación que ryzen, 1080p o 720p de resolución y una GTX1080 o 1080ti. En el resto de situaciones si que rinden igual.
vaya, pues simepre habia pensado que a mayor frecuencia mayor rendimiento, aun con la gpu al 100%. De hecho, sera efecto placebo, pero diria que me pasa con el 6600k
Sigues sin entenderme, en intel hay que tocar lo mismo que en amd, solo tienes que tener asesoría buena de que comprar.
Cambiar el perfil en la bios se hace en amd, y en intel también, y como según tu este ejemplo es un señor que no piensa tocar la bios, va a tener la memoria a 2133 en intel, y en amd igual.
Si esta persona, no tiene una 1080 o más, O juega a 1440p o mas, no va a ver diferencia con el intel excepto los 30W que traga demás y los 10ºC que genera extra.
No, esto te lo va a aclarar todo:
La diferencia entre un i7 2600K y un i7 7700K (y la diferencia a mayor frecuencia) es básicamente que el i7 7700k puede poner gráficas más potentes al 100%. La diferencia de rendimiento viene exactamente de ahi:
Digamos que tenemos un juego X:
Tenemos en este juego que el i7 7700K puede mandarle un máximo de 130fps a la gráfica.
Y el i7 2600k puede mandarle un máximo de 70fps a la gráfica.
Si la gráfica, es una gráfica que solo puede manejar 70fps, la gráfica estará al 100% de uso en ambos casos, y rendirá igual el 7700K que el i7 2600k, porque ambos le mandan a la gráfica 70fps y eso es lo que maneja la gráfica.
Pero con una gráfica mejor se verá que el i7 7700K tiene más fps.
Porque si la gráfica mejor maneja 120fps. El i7 7700K que le puede mandar hasta 140, le manda 120.
Pero el i7 2600K que maneja 70fps, solo le podrá mandar esos 70.
La diferencia entre ryzen 1600X y el i7 7700K es exactamente esa:
Que el ryzen si el ryzen puede tirar 100fps, y el i7 7700K 140fps la diferencia sólo se va a ver si la gráfica es una 1080ti que pueda hacer más de 100fps.
Motivo por el que si aumentas los gráficos, o aumentas la resolución, la 1080ti ya no puede tirar 140fps, sino 90 o 100, y 90 o 100 lo manejan los 2 procesadores.
En papel el 7700K es mejor, pero en la práctica tienen que darse una serie de condiciones concretas para que se vea.
Lo curioso en el ejemplo del 6900 es que aqui el 7700 deberia de llegar al 100% antes, en cambio el 7700 rinde mas, por eso pensaba yo que a mayor frecuencia mayor rendimiento.
De hecho en esta review tienes la comparativa de los 7700k y 7600k de stock y con oc Core i7-7700K vs Core i5 7600K: ?con cual jugar? | OverCluster
La diferencia es que en Intel puedes perder algún fotograma tocando (o no) el XMP, y en AMD puedes perder 30fps fácilmente, independientemente de la resolución:
![]()
-
He estado leyendo tus comentarios de después al compañero tripple y creo que eres un Troll, por lo tanto aquí finaliza mi conversación contigo.
Un saludo.
Perfecto, esa comparativa es el mejor ejemplo para darme la razón, la diferencia entre los procesadores se hace ver porque en esa prueba usan una tarjeta VGA: MSI GTX 1080 GamingX 8 GB GDDR5X a una resolución 1080p, es decir intentan reducir al máximo el bottleneck en la GPU usando una GPU potente a una resolución a la que casi nadie usa esa gpu.
Lo que intentan es que haya GPU de sobra para que la gpu no esté al 100% sino al 80%, porque si está la gpu al 100% todo rendiría lo mismo.
Yo croe que si no bloqueas el framerate cualquiera de esas dos cpus te ponen al 100% esa gpu a 1080p, de hecho hay mucha gente que usa esa gpu para jugar a 144hz.
Bueno lo dicho, luego a la tarde pruebo a ver que pasa.
esa es mi idea comprar una 1080 o 1080 ti para 144hz 1080p.
Enviado desde mi ONEPLUS A3003 mediante Tapatalk
Si tienes forma de ver el % de uso de la GPU, sería lo mejor, me daría la razón de que si la GPU está al 100% la diferencia es muy pequeña, yo se de lo que hablo y siempre tengo pruebas para demostrarlo ante cualquiera xD
No me acordaba pero tengo por aqui justo unos benchs del tomb raider. a 2k, con el micro a 3,9 todos los cores y a 4.5 todos los cores
Acabo de darme cuenta que en la captura del que esta a 4.5 tiene 10mhz mas el core de la gpu pero bueno, parece que algo si se nota o que? y es a 2k no 1080p
![]()
![]()
Eso está bien pero has visto el uso de la gpu durante el bench? porque ahi es donde radica todo lo que habíamos hablado.
la diferencia de fps en cima de la montaña indica que la gpu no está al 100% en ambos casos, porque como yo bien intento defender, si la gpu está al 100% en ambos casos rendiría igual en ambos. Por lo tanto en un caso la gpu tiene más uso que en el otro, tienes que hacer el bench y mirar el uso de la gpu.
Si si, esta siempre al 100% mi gpu. Los minimos en este bench tengo entendido que es por las transiciones de las fases.
Por norma general el uso de mi gpu no suele caer ni cuando roza el 100% de uso en algun instante en bf1.
Osea que cuando hiciste las pruebas tu uso de gpu estaba al 100%? porque la gpu al 100% en bf1 no es la gpu al 100% al momento de realizar las 2 pruebas que pasaste.
Eso es lo que estoy diciendo si, no suele tener caidas en el uso de la gpu, salvo que no haya carga para ella.
entonces cual es tu conclusion
Enviado desde mi ONEPLUS A3003 mediante Tapatalk