Pues a mi no me provoca ningun problema de corazon...........Para mi la putada es pensar que hasta junio no estará en tiendas, y encima a precio de lanzamiento, que será bastante alto antes de que se estabilicen.
Es bueno para tener el tiempo de poder ahorrar, pero son 6 meses... XD me ha dado un bajón...
Enviado desde mi Mi A2 Lite mediante Tapatalk
Cada vez que leo cosas de ese tipo me da la risa.Aquí mankhesa creo que tenia un i9 a 5.3Ghz en los 2356 cb de Cinebench. Me gustaría saber qué consumía en watts para compararlo en la medida de lo posible con ese 8c/16t de Zen 2
La capacidad de cómputo se demuestra fácilmente en Cinebench. Se ha convertido en un bench de referencia gracias a la capacidad de representar el esfuerzo que hace una gpu en 1 y multiples nucleos para renderizar una imagen. Hace uso total de la cpu en un escenario que se asemeja a los cálculos para videojuegos y workloads. Por eso es ahora un baremo bastante bueno.Pues a mi no me provoca ningun problema de corazon...........![]()
Cada vez que leo cosas de ese tipo me da la risa.A quien le importa realmente el Cinebench. Yo quiero saber rendimientos reales ejecutando cosas reales. No mierdilla de bench.
Que sea un bench de referencia no quiere decir que sea perfecto porque muchas veces hemos visto que los bench no son la realidad. Otra de las cosas molestas, es que estas cosas suelen probarse en equipos demasiado perfectos y mucha gente no va a tener super equipos con GTX 2080 Ti y similares.La capacidad de cómputo se demuestra fácilmente en Cinebench. Se ha convertido en un bench de referencia gracias a la capacidad de representar el esfuerzo que hace una gpu en 1 y multiples nucleos para renderizar una imagen. Hace uso total de la cpu en un escenario que se asemeja a los cálculos para videojuegos y workloads. Por eso es ahora un baremo bastante bueno.
Lo que no tiene sentido es ofrecer como referencia un proyecto de Adobe Premiere o un gameplay de Battlefield 1. Demasiadas variables cambian. En Cinebench no. Espero que ya puedas entenderlo![]()
No, los juegos acceden a memoria constantemente, cine bench no. Geek bench sería algo más cercano al rendimiento en juegos, porque la ram que uses y su latencia importa mucho.La capacidad de cómputo se demuestra fácilmente en Cinebench. Se ha convertido en un bench de referencia gracias a la capacidad de representar el esfuerzo que hace una gpu en 1 y multiples nucleos para renderizar una imagen. Hace uso total de la cpu en un escenario que se asemeja a los cálculos para videojuegos y workloads. Por eso es ahora un baremo bastante bueno.
Lo que no tiene sentido es ofrecer como referencia un proyecto de Adobe Premiere o un gameplay de Battlefield 1. Demasiadas variables cambian. En Cinebench no. Espero que ya puedas entenderlo![]()
¿Es normal que a 6 meses del lanzamiento de un micro aún no sepan la frecuencia final a la que va a ir? Porque a mi esto me suena a que van con el tiempo pegado al culo.
El rumor que circula es que lo que se mostró en el CES era una CPU de 8 nucleos 16 hilos con frecuencia base 3.7GHz y turbo 4.5GHz (sin saber la frecuencia turbo en todos los cores), y que no era muestra de ingenieria sino qualification sample, con lo que la frecuencia va a ser muy cercana a la final, unos 200MHz más como mucho diría yo. Espero unos 4.7GHz con overclock y menos de 1.4V para ser más específico.
Si eso se cumple. ¿ seguria estando por detras de intel (9900k)? En cuanto a rendimiento?
En AMD saben que no pueden ganar en gaming. Para qué renunciar a lo que te ha funcionado? Eso es dar más núcleos y mejor desempeño en gaming. Renunciar a núcleos para poner gráficos integrados o hacer todo el esfuerzo en subir rendimiento gaming en detrimento de la filosofía que te ha dado el éxito es absurdo. Ryzen tiene y tendrá más latencia en el acceso a la memoria. Por mucho que lo mejoren así será. Por ende se están guardando las cartas porque ya la gente está prefiriendo multihilo (streaming, gaming) a potencia bruta.
AMD puede batir al I9 con los R5 3600X oceado hasta 130watt si fueran bajo las especificaciones de AdoredTV, ya que decían que irían de 4 a 4.8Ghz. Dudo que el salto a 7nm sea "sólo" pasar el 2700X a +0,7Ghz sumándole +30Watt en su consumo. No me cuadra que bajar litografía y mejorar espacio transistores y frecuencias límite tanto a Ryzen como para tener que pasar de 105W a 135 para dártelo Oceado a 4,7Ghz... Sería un sin sentido.
Enviado desde mi Mi A2 Lite mediante Tapatalk
De todo el equipo? XDNo consumía 135w, eso era el consumo de todo el equipo. El consumo era mucho menos (tanto para el Ryzen como para el Intel).