• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • Conoce los Días Naranjas de PcComponentes: descuentos de hasta un 40% en tecnología. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

¿Que precios tendrán los nuevos Ryzen 3000?

Siento decirte que a mi me parece el peor movimiento que puede hacer AMD, es el que más le perjudica. Lo veo carente absolutamente de la mas mínima estrategia comercial.

El único sentido que podría tener retrasar los 12/16 núcleos sería para sacar primero los de 8 núcleos más caros, y bajarlos cuando saquen los de más núcleos, para así maximizar beneficios. La cuestión es que hacer esto es un mal movimiento lo mires por donde lo mires:

*No causas el efecto mediático que causarías si sacas del tirón todas las gamas (que de la noche a la mañana el 9900k pase de ser el mejor procesador mainstream que existe a que haya un AMD de 16 núcleos que rinde el doble o más... no me jodas, eso es un pelotazo).
*Estás puteando y bastante a los early adopters, porque si a los pocos meses sacas los de 12/16 núcleos que ocupan el precio de los de 8, y los de 8 dan una buena bajada, te granjeas el descontento de los compradores que comprasen el de 8 núcleos, y esos ya te compraron el 8 núcleos por 250-300€, ahora ya no van a comprarte el de 12/16 por 400/600€.
*Estas desaprovechando el tiempo que tienes para aumentar todo lo posible la cuota de mercado y confianza/reconocimiento del público, de cara a hacerte fuerte para cuando Intel responda (y estoy convencido de que responderá, como hizo con los Core 2).

Si en lugar de sacar los 8 núcleos más caros los sacas a los precios que tu estás comentando, y después sacas los de 12/16 por encima en precio, estás haciendo el canelo totalmente, porque en el momento de salida estás perdiendo ingresos porque habrá gente que compre los de 8, cuando te comprarían los de más núcleos. Además, estás perdiendo un poder mediático y de impacto en el mercado enorme, porque el revuelo y la popularidad del producto será muchísimo menor que si los sacas todos a la vez.

La única razón que veo lógica para retrasar los 12/16 núcleos sería en mi opinión problemas con la producción. O sea, que el volumen de chips válidos no te de suficiente como para abastecer el mercado si sacas todas las gamas a la vez, así que vendes los modelos de 8 núcleos porque van con 4 cores desactivados por chiplet, o bien usan un solo chiplet.

Pero es que esto no cuadra por la simple razón de que parece que el proceso va bien (aquellos rumores del 70% de tasa de éxito en los chips), y además de que se está retrasando el lanzamiento respecto a las fechas previstas, lo cual a mi me indica que están dejandolo todo bien a punto para evitar imprevistos (valga la redundancia), sacar el producto mínimenente pulido y evitar problemas de stock.

Pero es que aún en la hipótesis de que fuese cierto que no tienen bastantes chips funcionales (que como digo los indicios hacen ver todo lo contrario) sacar solo las gamas bajas y medias es de ser completamente gilipollas. ¡Si te pasa eso haces justo lo contrario!, sacas las gamas altas únicamente (12 y 16 núcleos), das un impacto en el mercado, evitas el problema de no poder satisfacer la demanda (porque los que vendes son los "caros") y además, de rebote, te quitas el stock de los Ryzen 1000 y 2000, que por número de núcleos y precio no se solaparían de ninguna manera con los nuevos de 12/16 núcleos.

Un saludo
Ya he dicho que eso que describes es lo lógico, empezar por la gama alta.

Quizá venga el problema por la implementación de los 2 chips en el mismo chiplet y no por una falta de stock, lo cual tendría más lógica... y justificaría que los 8/16 llegaran antes.

Enviado desde mi Nexus 5X mediante Tapatalk
 
Ya he dicho que eso que describes es lo lógico, empezar por la gama alta.

Quizá venga el problema por la implementación de los 2 chips en el mismo chiplet y no por una falta de stock, lo cual tendría más lógica... y justificaría que los 8/16 llegaran antes.

Enviado desde mi Nexus 5X mediante Tapatalk

Entiendo el argumento, pero no creo que pueda ser por eso.

Vamos a ver, tienes un diseño de CCXs interconectado con el que llevas dos generaciones, y funciona perfectamente (latencias mejorables, si, pero funciona perfectamente).

Haces un rediseño bastante profundo en cual introduces un I/O die para abaratar costes y mejorar la comunicación con la RAM en modelos de más de dos chips. O sea, todo enfocado a dar un paso más en el modelo multichip, y ahora va ser que hay problemas para comunicar un chiplet con otro??? entonces los Rome no veas, las muestras de ingeniería de ellos irían como el culo porque llevan mas chiplets....

No, lo siento pero no me parece lógico xD. Quiero decir, podría ser la razón, es una razón, pero si eso fuese así habrían optado por seguir con un diseño de CCXs como ahora, pero a 7nm. No veo sentido a lanzarse a hacer esto si la base de todo el cambio que estás haciendo no funciona.

Saludos
 
Entiendo el argumento, pero no creo que pueda ser por eso.

Vamos a ver, tienes un diseño de CCXs interconectado con el que llevas dos generaciones, y funciona perfectamente (latencias mejorables, si, pero funciona perfectamente).

Haces un rediseño bastante profundo en cual introduces un I/O die para abaratar costes y mejorar la comunicación con la RAM en modelos de más de dos chips. O sea, todo enfocado a dar un paso más en el modelo multichip, y ahora va ser que hay problemas para comunicar un chiplet con otro??? entonces los Rome no veas, las muestras de ingeniería de ellos irían como el culo porque llevan mas chiplets....

No, lo siento pero no me parece lógico xD. Quiero decir, podría ser la razón, es una razón, pero si eso fuese así habrían optado por seguir con un diseño de CCXs como ahora, pero a 7nm. No veo sentido a lanzarse a hacer esto si la base de todo el cambio que estás haciendo no funciona.

Saludos
Cuando digo "problemas" podría ser simplemente que no están logrando las frecuencias esperadas en esos procesadores de 12 o 16 núcleos.

Porque funcionar funcionan, ya se han visto algún bench a esos micros, pero a frecuencias de 3.5GHz.... Lo que no vas a hacer es sacarlos sin que vayan a dar el rendimiento esperado.

No sé... Son solo conjeturas.

Enviado desde mi Nexus 5X mediante Tapatalk
 
Cuando digo "problemas" podría ser simplemente que no están logrando las frecuencias esperadas en esos procesadores de 12 o 16 núcleos.

Porque funcionar funcionan, ya se han visto algún bench a esos micros, pero a frecuencias de 3.5GHz.... Lo que no vas a hacer es sacarlos sin que vayan a dar el rendimiento esperado.

No sé... Son solo conjeturas.

Enviado desde mi Nexus 5X mediante Tapatalk

No, hombre, si conjeturas hacemos todos, yo el primero xDDD

Vamos a ver, si sacan los de 8 núcleos, es porque los de 8 núcleos si que funcionan a las frecuencias que deben. En ese caso, los de 12 y 16 núcleos podrían ir perfectamente a la misma velocidad/frecuencia, porque son los mismos chiplets, es meter dos en un encapsulado en lugar de uno.

El problema no vendría entonces por la incapacidad de los chips de ir a esa frecuencias, ni tampoco por tener problemas con la comunicación entre chiplets. El problema sería simple y llanamente que con 12 y 16 núcleos funcionando tienen un consumo demasiado alto, el cual no les permite ir a las frecuencias que quieren sacarlos.

Pero insisto, sería problema de exceso de consumo, no incapacidad de ir a esas frecuencias. Sería como si Intel quisiera sacar un i9 de 16 núcleos con exactamente las mismas frecuencias que el 9900k. Como poder es perfectamente viable en cuanto a capacidad del silicio (costes de fabricación aparte por ser monolitico), el problema es que sería inviable porque el consumo sería de 300-400w.

A favor de esta hipótesis, ya se vieron rumores incluso de que los modelos de 16 núcleos no llegarían hasta el 2020, porque necesitarían usar el nuevo proceso de fabricación EULV para mantener los 16 núcleos con un consumo razonable.

Saludos
 
Noticias de ahora y antes en otras webs indicaban que usarian GDDR6. Esas graficas son caras porque compiten en rendimiento con modelos de Nvidia.

El tema de sacar el 3600X antes, podria tener que ver con las consolas y como influiran en el resto. Igual no querrian sacar algo más potente antes que las APU de las consolas para que no diera la impresión de poder haber hecho una APU mejor.

Las fumadas de Angie.............debe estar sin dormir por las noches con el sufrimiento de pensar que AMD iguale en rendimiento al i9-9900K por 250€.............no sufras hijo, no va a llegar a ese rendimiento, no creo que sus frecuencias sean tantas, no veo un Ryzen 5Ghz. Creo que cuando se hizo la tabla del rumor, quien la hizo aumento como le gustaria que fuera.

A mi el aumento de nucleos siempre ha parecido el premio de consolación porque no van a alcanzar a lo que se puede hacer con un serie 9000. Si llegan a lo de un 8000 sin OC, ya aplaudo.

Yo el restraso en el lanzamiento lo veo totalmente influido por las consolas. Nada de pulido. Los ensambladores ya tienen sus placas, si hubiera algun pulido, no hubieran hecho nada de eso.
Me callo entonces, respecto a eso y sumamos otro tirito en el pie de AMD en el terreno GPU (A priori, habrá que ver cuando salgan, pero si ya de salida, se rumorean asi... pues... xD)
 
Las fumadas de Angie.............debe estar sin dormir por las noches con el sufrimiento de pensar que AMD iguale en rendimiento al i9-9900K por 250€.............no sufras hijo, no va a llegar a ese rendimiento, no creo que sus frecuencias sean tantas, no veo un Ryzen 5Ghz. Creo que cuando se hizo la tabla del rumor, quien la hizo aumento como le gustaria que fuera.

Entiendo que le digas eso para tranquilizarlo, al fin y al cabo debe tener a la farmacia de su calle sin stock de valeriana.

Pero aunque el pobre pueda sufrir, hay que prepararle el cuerpo para lo peor. A mi lo de los 5 Ghz me parece una fumada de campeonato, en un solo núcleo, en todos, y en lo que quieras, no me lo creo xD

La cuestión es que por las pruebas que van saliendo parece que la subida de IPC si que podría estar en torno a un 10-13%, así que considerando que el Coffee Lake refresh tiene como un 2-3% más de IPC que Zen+, para igualar el 9900k AMD necesitaría:

Todos los núcleos
Escenario desfavorable a AMD (+10% IPC y considerando un 3% de superioridad de IPC de Intel con respecto a Ryzen+):
4700/1,10*1.03 = 4400 mhz

Escenario favorable a AMD (+13% IPC y considerando un 2% de superioridad de IPC de Intel con respecto a Ryzen+):
4700/1,13*1.02 = 4250 mhz

Turbo en 2 núcleos
Escenario desfavorable a AMD (+10% IPC y considerando un 3% de superioridad de IPC de Intel con respecto a Ryzen+):
5000/1,10*1.03 = 4700 mhz

Escenario favorable a AMD (+13% IPC y considerando un 2% de superioridad de IPC de Intel con respecto a Ryzen+):
5000/1,13*1.02 = 4500 mhz

O sea, que AMD necesitaría una velocidad en todos los núcleos de 4250-4400mhz y un turbo de 4500-4700mhz.

Está la cosa ahí ahí xD.

Saludos
 
Que hayan aumentado el IPC, no necesariamente significa más frecuencia. Se da por hecho que la mejora del IPC se hace a base de subir la frecuencia pero podria no ser. Para reducir los nm, han tenido que mejorar la arquitectura o sino obtendrian más consumo y más calor. Asi que lo antes hacian con 2 millones de transistores, igual ahora lo hace 1 millon, asi que ha mejorado la velocidad.
 
Que hayan aumentado el IPC, no necesariamente significa más frecuencia. Se da por hecho que la mejora del IPC se hace a base de subir la frecuencia pero podria no ser.

O soy yo que no te estoy entendiendo o estás confundiendo el IPC (Instrucciones por ciclo) con la potencia por core.

El IPC no tiene nada que ver con la frecuencia, es una medida que determina las instrucciones que puede realizar el procesador por cada ciclo de reloj, o sea, que si los nuevos Ryzen trajesen una mejora del IPC del... 10%, por ejemplo, querría decir que a la misma frecuencia que los anteriores rinden un 10% más.

Según aquellas filtraciones de una muestra de ingeniería de un 12 núcleos a 3,4 ghz en todos los cores o así (no recuerdo exactamente la frecuencia) y por el rendimiento que daba comparado con un TR de 12 núcleos, se podía ver que el aumento de IPC era de ese 10-13%. Esto obviamente es hablando de IPC, no de frecuencias.

Si consideramos este dato como verdadero (que obviamente está todo por ver), mis cálculos anteriores serían válidos.

En cuanto a frecuencias no sabemos nada. Bueno, sí, lo más fiable podría ser la filtración de APISAK donde habla de un ES de 16 núcleos con 3,3Ghz de base y 4,2 de boost, y donde sea leí que tendría un TDP de unos 100w:

AMD Ryzen 3000 series CPU with 16 cores leaks - CPU - News - HEXUS.net

Así que podría tratarse del modelo "no X" y existir uno superior con un TDP de 135w y unas frecuencias mayores. Pero si esto es así, al menos el modelo de 16 núcleos no llegaría a la potencia por núcleo (ahora sí me refiero a potencia por núcleo, no IPC) del 9900k.

Por otro lado está aquel tweet de AdoredTV diciendo que además de ese ES 16/32 a 3,3/4,2 hay otro sample de 12/24 con frecuencias mucho mayores:

Twitter

Se puede ver las respuestas de AdoredTV ahí.

Para reducir los nm, han tenido que mejorar la arquitectura o sino obtendrian más consumo y más calor.

Hasta donde yo se, el mejorar la arquitectura no es para reducir consumos ni para aumentar frecuencias. En realidad, la teoría dice que si aumentamos la complejidad y número de transistores del chip (Zen 2 entre otras cosas dobla la cantidad de L3 y la FPU) se calentará más porque el chip será más grande y complejo (con más transistores) que si simplemente nos limitásemos a coger el mismo diseño y fabricarlo a menos naómetros, esto podría hacer que las frecuencias fuesen menores que si simplemente "portásemos" el diseño anterior a 7nm.

Aunque realmente en este caso no es tan simple porque el rediseño es bastante importante, y muchas partes del procesador que estaban antes en los CCX ahora están en el I/O die.

Pero vamos, que la mejora de la arquitectura se hace no para aumentar frecuencias ni reducir consumo, sino para mejorar el IPC; y justo en este punto donde estamos en unos tamaños en los que no se consiguen mejoras de frecuencias como antes al bajar procesos de fabricación, esta posible mejora de IPC es más importante que nunca.

Asi que lo antes hacian con 2 millones de transistores, igual ahora lo hace 1 millon, asi que ha mejorado la velocidad.

Esto lo he leído varias veces y no consigo entenderte, podrías explicarlo un poco?

Saludos
 
Eres tu el que esta ignorando que el IPC se calcula en función de varias cosas y no necesariamente la frecuencia tiene que ser mayor para que el IPC sea mayor.

Come on! Eres peor que angie. :) Parece que intentas tergibersar lo que yo he dicho. Ley basica universal, si haces un microchip más pequeño, aumentas el calor y el consumo, el unico metodo para que eso no suceda, es mejorar el diseño por el metodo que sea, reduciendo transistores puede ser.

No deberias citarme por mandamiento de los moderadores.

En fin sigue tergibersando lo que decimos los demas..........yo total no leo tus ladrillos. Solo leo las respuestas cortas, si quiero leer un libro, leo una buena novela.:) Ahora seguramente me llamaras troll o alguna historia parecida como uno al que se lo dijiste el domingo.............:):salta:
 
Eres tu el que esta ignorando que el IPC se calcula en función de varias cosas y no necesariamente la frecuencia tiene que ser mayor para que el IPC sea mayor.

Come on! Eres peor que angie. :) Parece que intentas tergibersar lo que yo he dicho. Ley basica universal, si haces un microchip más pequeño, aumentas el calor y el consumo, el unico metodo para que eso no suceda, es mejorar el diseño por el metodo que sea, reduciendo transistores puede ser.

No deberias citarme por mandamiento de los moderadores.

En fin sigue tergibersando lo que decimos los demas..........yo total no leo tus ladrillos. Solo leo las respuestas cortas, si quiero leer un libro, leo una buena novela.:)

Creo que eres tú el que no me está entendiendo. Te tengo que decir que es una pena que vuelvas a las andadas con ese tono chulesco, la verdad que dice muy poco de ti.

Yo te estoy intentando explicar, mejor o peor, y con toda la humildad del mundo, que tu planteamiento es erróneo en la base, y no lo hago para quedar por encima de tí, ni para molestarte, lo hago porque he visto que piensas que la frecuencia influye en el IPC, cuando son cosas que no tienen nada que ver, y al verlo he querido aclararlo, no solo para tí, sino para cualquiera que pueda entrar a este hilo.

Te insisto: Yo no estoy ignorando nada, el IPC depende de muchos factores, todos ellos relacionados con la arquitectura del procesador, son tantos que es que ni me plantearía enumerarlos (y mis conocimientos técnicos no llegan como para poder hacerlo bien, todo sea dicho). Pero lo que sí que te puedo decir con certeza absoluta es que la frecuencia de funcionamiento del procesador jamás tiene nada que ver con el IPC.

Por esta razón, esta frase tuya es errónea:

"El IPC se calcula en función de varias cosas y no necesariamente la frecuencia tiene que ser mayor para que el IPC sea mayor."

Y esta también:

"Que hayan aumentado el IPC, no necesariamente significa más frecuencia. Se da por hecho que la mejora del IPC se hace a base de subir la frecuencia pero podria no ser"


No, no es que "podría no ser", es que NO ES JAMÁS.Por ponerte un símil, es como si yo soy autónomo y te digo:

"Lo que yo gano al mes depende de varios factores, no necesariamente me tienen que pagar en billetes de 100€ para que yo cobre más"

Lo que yo gane dependerá del número de trabajos que yo haga, de lo que gaste en materiales, de lo que cobre por trabajo realizado.... en fin, de un montón de factores, pero jamás de los jamases dependerá de si mis clientes me pagan las facturas con billetes de 5, 10, 50, 20, o 100 euros. ¿Porqué? Pues porque lo que yo cobro es lo mismo, me da igual que me paguen con billetes pequeños o grandes.

El IPC es lo mismo, son las instrucciones por ciclo, y puesto que son "por ciclo" da exactamente igual la frecuencia, porque la frecuencia queda fuera de la ecuación.

Ley basica universal, si haces un microchip más pequeño, aumentas el calor y el consumo, el unico metodo para que eso no suceda, es mejorar el diseño por el metodo que sea, reduciendo transistores puede ser.

Te equivocas, el reducir proceso de fabricación no aumenta el calor ni en consumo, más bien todo lo contrario, históricamente al hacer una reducción de litrografía el mismo diseño requiere menor voltaje, consume menos, se calienta menos y permite mayores frecuencias.

Es algo que he explicado montones de veces poniendo como ejemplos el Pentium 3 al pasar del Coppermine al Tualatin, o el Athlon al pasar del Palomino al Throroughbred.

Otra cuestión es que hayamos llegado a unos tamaños de transistores en los que nos acercamos al límite del silicio, por eso llega un punto que bajar litografía prácticamente no mejora nada, pero eso no quiere decir que reducir litografía aumente consumo ni calor. Lo que sí que puede ocurrir es que si al reducir la litografía no disminuye el voltaje necesario ni el consumo del chip, al ser éste más pequeño y consumir lo mismo aumente la cantidad de calor a disipar por unidad de superficie, y esto puede dificultar la disipación de ese calor (es más complicado enfriar 100w de un cm cuadrado que de dos)

A lo que dices de mejorar el diseño reduciendo transistores..... la verdad que es bastante complicado, si reduces transistores forzosamente simplificas la complejidad del chip, esto hace que consuma menos, pero también que tenga un menor IPC y por tanto rinda menos. Esto no quita que existan diseños de chips como los AMD Bulldozer que tenían una gran cantidad de transistores y eran una castaña. Quiero decir, que más transistores permite diseños más complejos y por lo tanto con mejor IPC, pero no es una consecuencia directa.

Es como si te digo "Si tengo más dinero podré poner en marcha antes mi negocio y que sea rentable porque podré invertir en él". Oye, si, es verdad, pero puede ser que yo sea un puto desatre invirtiendo y organizándome, y alguien con la mitad de pasta consiga más resultados que yo en menos tiempo.

Normalmente lo que se hace es justo lo contrario, aprovechar que el proceso de fabricación menor permite meter más transistores por unidad de superficie y permite reducir el voltaje para aumentar la complejidad del chip, añadiendo transistores para que este mejore en IPC.

Por ejemplo:

eq4f81.png


Como verás cada vez más transistores y procesos de fabricación menores. Y esto es algo que sin mirar números te aseguro que se cumple al pasar de Zen+ a Zen 2

Por cierto, no puedo dejar pasar que me estás comparando con angie....

Creo que pocas veces me verás llamar troll a nadie, pero he visto en el foro últimamente que en repetidas ocasiones tu si que has llamado troll a este compañero. Esto lo haces porque es una persona que vive en sus teorías y en su realidad y que es incapaz de escuchar a los demás. Cuando cualquiera le lleva la contraria y le dice educadamente que se equivoca sobre sus ideas, demostrándoselo con datos, esta persona en lugar de escuchar y aprender, en lugar de debatir sanamente, lo que hace es cabrearse, terjiversar lo que se ha dicho, decir que el otro es el que no se entera, que miente, que es el otro el que terjiversa la realidad, que le insultan, que le faltan el respeto.... imagino que por eso lo llamas troll, ¿verdad?

Pues bien, yo te estoy diciendo y comentando todo esto de buenas, sin mala intención alguna, es ya decisión tuya actuar como hace ese angie al que tanto criticas.

Un saludo
 
Última edición:
Para mejorar rendimiento uno necesita más transistores, no menos, para eso se baja en nm, para poder meter más transistores en la misma area.
 
La electronica basica indica que reducir el tamaño trae consigo más calor y consumo. Ese es el motivo de que tengan que rehacer la arquitectura para el mismo tamaño. No es muy dificil de entender. Y seguro que si buscamos entre todos los chips reducidos en la historia, encontraremos alguno que tenia problemas de temperatura y consumo. Nada dice que tengan que tener exito al
hacerlo.

Lo de mejorar el rendimiento a base de meter más transistores tampoco es asi. Si tu haces con x transistores una operación A+B+C pero llega alguien y con menos transistores hace lo mismo y encima suma la D, tienes mejor rendimiento. Por poner un ejemplo sencillo. Y cuantos más transistores, de seguro que tienes más calor y consumo. No es decir ala transistores para todos, son sistemas complejos que hacen operaciones.

Pds: Algunos deberian dejar de calificar a la gente al responder porque no les gustan sus respuestas o piensan diferente. No miro para nadie.:madrededios:
 
LLegado a este punto la teoría del procesadores es lo de menos, a mi me da igual llevar razón o no llevarla, de hecho me equivoco y me equivocaré mil veces.

La cuestión es que que tu, ante unos posts en los que simplemente pretendía explicar algo (con o sin razón, que puedo equivocarme, simplemente pretendía dar mi punto de vista y explicarlo en base a mis conocimientos, sin faltar el respeto a nadie), respondiste de forma prepotente, chulesta y faltando el respeto:

Eres tu el que esta ignorando que el IPC se calcula en función de varias cosas y no necesariamente la frecuencia tiene que ser mayor para que el IPC sea mayor.

Come on! Eres peor que angie. :) Parece que intentas tergibersar lo que yo he dicho. Ley basica universal, si haces un microchip más pequeño, aumentas el calor y el consumo, el unico metodo para que eso no suceda, es mejorar el diseño por el metodo que sea, reduciendo transistores puede ser.

No deberias citarme por mandamiento de los moderadores.

En fin sigue tergibersando lo que decimos los demas..........yo total no leo tus ladrillos. Solo leo las respuestas cortas, si quiero leer un libro, leo una buena novela.:) Ahora seguramente me llamaras troll o alguna historia parecida como uno al que se lo dijiste el domingo.............:):salta:

Me acusabas de tergiversar (por cierto, creo que es con v), hablando en términos de "ley basica universal", tachando mis aportaciones de ladrillos.... oye, por cierto, no eres la primera persona de este foro que me dice que no se lee mis posts porque son un ladrillo, ¿quién más me lo dijo?... ah, si, angie__x, seguramente llevéis razón.

Además me acusas de llamar troll a los compañeros, cuando eres TU el que en los últimos días ha llamado troll al compañero angie__x en no menos de 3 ocasiones que yo haya visto (podría buscar entre tus mensajes y citarte, pero paso).

El problema no son los nanómetros, ni los transistores ni los consumos, el problema aquí es la educación y el respeto hacia el que se tiene en frente, que aunque sea en un foro de internet, estás tratando con personas reales.

Después de mi último mensaje, en lugar de reconocer que te pasaste tres pueblos de frenada y quedar como un señor, intentas como puedes justificarte en datos técnicos:

La electronica basica indica que reducir el tamaño trae consigo más calor y consumo. Ese es el motivo de que tengan que rehacer la arquitectura para el mismo tamaño. No es muy dificil de entender. Y seguro que si buscamos entre todos los chips reducidos en la historia, encontraremos alguno que tenia problemas de temperatura y consumo. Nada dice que tengan que tener exito al
hacerlo.

Lo de mejorar el rendimiento a base de meter más transistores tampoco es asi. Si tu haces con x transistores una operación A+B+C pero llega alguien y con menos transistores hace lo mismo y encima suma la D, tienes mejor rendimiento. Por poner un ejemplo sencillo. Y cuantos más transistores, de seguro que tienes más calor y consumo. No es decir ala transistores para todos, son sistemas complejos que hacen operaciones.

Pds: Algunos deberian dejar de calificar a la gente al responder porque no les gustan sus respuestas o piensan diferente. No miro para nadie.:madrededios:

Electrónica básica, no es muy dificil de entender... si claro, es que yo soy gilipollas y tonto, sabes? No lo he dicho públicamente antes, pero soy tontito, las cosas más básicas no las entiendo, y es algo que cualquiera que siga mis aportaciones habrá notado (tu no, claro porque como son ladrillos no las lees).

En mi anterior post ya te dije que el meter más transistores "per se" no asegura mejor rendimiento, y hasta puse un símil, pero es un hecho innegable que los procesadores han aumentado su complejidad exponencialmente a lo largo de los años. Tenía hasta un nombre, sabes? Ley de Moore:

1200px-Transistor_Count_and_Moore%27s_Law_-_2011.svg.png

Una lástima que ese tal Gordon Moore no te hubiese conocido, porque si lo hubiese hecho actualmente tendríamos procesadores mucho mejores y eficientes, más potentes que los que tenemos ahora y con apenas unas decenas de miles de transistores, como los 8086. En lugar de hacer la tontería de meter los 9600 millones que parece que tiene un TR 1950, que al fin y al cabo.... solo sirven para generar calor innecesariamente.

Pero bueno, que puedes esperar de esa llamada Ley de Moore, viniendo de un tio que lo único que hizo fue... que hizo ese Moore? cofundar Intel... bah! ¿qué sabrá él?!

Y por cierto, yo no he descalificado a nadie, a la vista está porque queda todo grabado en el foro.

No puedo más que reafirmar lo que te dije antes: llamas troll a angie__x, pero sin darte cuenta (o dándote, no lo se) tienes los mismos comportamientos por los que tu lo calificas así.

Un saludo
 
La electronica basica indica que reducir el tamaño trae consigo más calor y consumo. Ese es el motivo de que tengan que rehacer la arquitectura para el mismo tamaño. No es muy dificil de entender. Y seguro que si buscamos entre todos los chips reducidos en la historia, encontraremos alguno que tenia problemas de temperatura y consumo. Nada dice que tengan que tener exito al
hacerlo.

Lo de mejorar el rendimiento a base de meter más transistores tampoco es asi. Si tu haces con x transistores una operación A+B+C pero llega alguien y con menos transistores hace lo mismo y encima suma la D, tienes mejor rendimiento. Por poner un ejemplo sencillo. Y cuantos más transistores, de seguro que tienes más calor y consumo. No es decir ala transistores para todos, son sistemas complejos que hacen operaciones.

Pds: Algunos deberian dejar de calificar a la gente al responder porque no les gustan sus respuestas o piensan diferente. No miro para nadie.:madrededios:

Ah muy bonito, entonces no es necesaria toda esa inversion estratosferica en nuevos procesos de fabricación a menos nm, claramente un FX 8350 con 1200 millones de transistores consume menos y rinde más que un Ryzen 1800X con 4800 millones de transistores, 4 veces más, todo se reduce al diseño, estoy seguro que el Ryzen 1800X con esos 1200 millones de transistores iba a consumir menos y rendir lo mismo que ahora si si.
 
Vaya pelea XD

Enviado desde mi Mi A2 mediante Tapatalk
 
La electronica basica indica que reducir el tamaño trae consigo más calor y consumo. Ese es el motivo de que tengan que rehacer la arquitectura para el mismo tamaño. No es muy dificil de entender. Y seguro que si buscamos entre todos los chips reducidos en la historia, encontraremos alguno que tenia problemas de temperatura y consumo. Nada dice que tengan que tener exito al
hacerlo.

Lo de mejorar el rendimiento a base de meter más transistores tampoco es asi. Si tu haces con x transistores una operación A+B+C pero llega alguien y con menos transistores hace lo mismo y encima suma la D, tienes mejor rendimiento. Por poner un ejemplo sencillo. Y cuantos más transistores, de seguro que tienes más calor y consumo. No es decir ala transistores para todos, son sistemas complejos que hacen operaciones.

Pds: Algunos deberian dejar de calificar a la gente al responder porque no les gustan sus respuestas o piensan diferente. No miro para nadie.:madrededios:


Dices que no es muy dificil de entender pero a mi me cuesta entender como has llegado a ese razonamiento, equívoco por su puesto.
 
Ah muy bonito, entonces no es necesaria toda esa inversion estratosferica en nuevos procesos de fabricación a menos nm, claramente un FX 8350 con 1200 millones de transistores consume menos y rinde más que un Ryzen 1800X con 4800 millones de transistores, 4 veces más, todo se reduce al diseño, estoy seguro que el Ryzen 1800X con esos 1200 millones de transistores iba a consumir menos y rendir lo mismo que ahora si si.
Tu respuesta anterior fue esto.
Para mejorar rendimiento uno necesita más transistores, no menos, para eso se baja en nm, para poder meter más transistores en la misma area.
Leyendote se puede dar a entender que los transistores trabajan por si solos, tirados alla de cualquier manera....

Yo he dejado claro que esto conlleva un rediseño del diseño anterior, no es muy dificil de entender que si por un casual metieras a secas lo del Zen+ en tamaño del Zen2, no funcionaria nada bien. Hacer los transistores más pequeños tampoco va a funcionar por si solo. Menos cuando estan hechos de lo mismo. Si usaran otra cosa, quien sabe. Eso es lo que yo he dicho. Ahora podeis intentar liar la madeja todo lo que querais.
 
Tu respuesta anterior fue esto.

Leyendote se puede dar a entender que los transistores trabajan por si solos, tirados alla de cualquier manera....

Yo he dejado claro que esto conlleva un rediseño del diseño anterior, no es muy dificil de entender que si por un casual metieras a secas lo del Zen+ en tamaño del Zen2, no funcionaria nada bien. Eso es lo que yo he dicho. Ahora podeis intentar liar la madeja todo lo que querais.

No hay nada que liar, partes de un razonamiento equívoco, al reducir el tamaño (litografía) se reduce el consumo, no aumenta como afirmas. Para que te hagas una idea, de 7/10 a 5nm se llega a reducir el consumo hasta un 75% aprox. Aunque los nm cada fabricante pone lo que le sale de las narices, para comparar nm entre diferentes fabricantes se utiliza la fórmula asml.
 
La electronica basica indica que reducir el tamaño trae consigo más calor y consumo. Ese es el motivo de que tengan que rehacer la arquitectura para el mismo tamaño. No es muy dificil de entender. Y seguro que si buscamos entre todos los chips reducidos en la historia, encontraremos alguno que tenia problemas de temperatura y consumo. Nada dice que tengan que tener exito al
hacerlo.

Lo de mejorar el rendimiento a base de meter más transistores tampoco es asi. Si tu haces con x transistores una operación A+B+C pero llega alguien y con menos transistores hace lo mismo y encima suma la D, tienes mejor rendimiento. Por poner un ejemplo sencillo. Y cuantos más transistores, de seguro que tienes más calor y consumo. No es decir ala transistores para todos, son sistemas complejos que hacen operaciones.

Pds: Algunos deberian dejar de calificar a la gente al responder porque no les gustan sus respuestas o piensan diferente. No miro para nadie.:madrededios:

La verdad que vas cavando el foso cada vez más hondo... A cada afirmación está más errada que la anterior...

El calor está fundamentalmente relacionado con el voltaje, al cual los chips son muy sensibles, que a su vez está íntimamente ligado con las frecuencias (a mayor frecuencias, mayor voltaje necesitas).

La potencia de cálculo depende del número de transistores, pues no funcionan como en tu desafortunado ejemplo. Y a menor tamaño de la litografía, mayor cantidad de transistores puedes meter en el mismo tamaño de silicio... o reducir el tamaño del silicio siendo así más barato de fabricar.

De modo que el IPC de un núcleo depende muy directamente del número de transistores y de las latencias del mismo en el acceso a las memorias caché y RAM (el tiempo que el núcleo está esperando datos es tiempo que no está siendo aprovechado)

Pero además el menor tamaño de litografía la hace más eficiente... puedes aumentar la potencia de cálculo total sin necesidad de aumentar las frecuencias (ergo el voltaje y en consecuencia el calor) al estar aumentando el número de transistores (y con ello el IPC).

De hecho ha sido el uso de litografías más pequeñas lo que ha permitido tener procesadores superpotentes en móviles en pocos años. Procesadores ARM con cada vez más transistores (más potencia) y cada vez más eficientes (pues las baterías no han crecido al mismo ritmo) y de hecho el mayor tamaño de las baterías tiene más que ver con el tamaño de las pantallas cada vez mayor.

Enviado desde mi Nexus 5X mediante Tapatalk
 
si por un casual metieras a secas lo del Zen+ en tamaño del Zen2, no funcionaria nada bien. Eso es lo que yo he dicho. Ahora podeis intentar liar la madeja todo lo que querais.

Aquí el único que está tirando de la madeja eres tu, compañero, y no te das cuenta. Cuanto más tiras más te enredas y más quedas en evidencia ante todo el foro. No soy yo el único que te lo está diciendo, ya somos varios.

Si tomas el diseño de un Zen+ y lo pasas tal cual a 7nm los CCXs serán notablemente más pequeños, así que te cabrán bastantes más chips, CCXs en este caso, en una oblea del mismo diámetro (seguramente como 3 o 4 veces más, por lo menos). Esto de por sí ya es una ventaja enorme, pues se reduce muchísimo el coste de fabricación.

Esto "históricamente" implicaba que el chip necesitaría menor voltaje para funcionar, consumiría menos y además subiría a más frecuencias, que maravilla, oiga!!! bajar nanómetros era todo ventajas, pues se bajaba el coste de fabricación y se mejoraban rendimiento y consumos.

Ejemplos??

Pues mira, así sin pensar mucho....

K6-2 y K6-3:
Al pasar de 250 a 180nm los k6-3 pasaban de 450mhz a 550, y eran más frescos.
Los K6-2 a 250 nm llegaban a 500mhz, yo tuve un K6-2 500 y no había narices de pasarlo de 550 mhz. Los K6-2+, que eran exactamente el mismo diseño pero pasado a 180nm llegaban de stock a 570mhz, y recuerdo que con OC llegaban a 650 con suerte.

Pentium 3

Los P3 Coppermine (180nm) llegaban a 1000 mhz. Intel a pesar de tener ya en la calle los P4, testeó antes el nuevo proceso de 130nm con el pentium 3, creando los tualatin. Los celeron tualatin eran extactemente (y digo EXACTAMENTE) iguales a un Pentium 3 Coppermine, pero a 130nm en lugar de 180.

¿Resultado? Mientras que los P3 coppermine llegaban a 1000 mhz (no sé si llegó a salir alguno estable a 1133) al pasarlos a 130nm hacían 1400mhz, y con OC 1600, meándose en las botas de los P4 Willamette a 2 Ghz (pero esa es otra historia)

Los Pentium 3 tualatin eran iguales, pero aumentaban la L2 de 256 a 512kb, llegando también a 1400 mhz si mal no recuerdo

Athlon XP
Caso muy parecido al del P3 que he comentado, al pasar de 180nm a 130 (exactamente el mismo diseño, no cambios de IPC, no aumentos de memoria caché), pasaban de unos 1600 mhz si mal no recuerdo (lo digo de cabeza, pero más o menos) a 2200 mhz con los Athlon XP Throroughbred B.

Además sacaron los Barton, que incrementaban la L2 a 512Kb y también llegaban a 2,2 Ghz

Pentium 4
En el paso de Northwood a Presscot Intel hizo un cambio de diseño (a peor), porque aumentó el pipeline de unas 20 y pocas etapas (si no recuerdo mal) a más de 30. Por cierto, para el que no sepa lo que es el pipeline y como afecta al rendimiento:

Explicando conceptos informáticos: EL PIPELINE

Tu no lo leas, Nomada_Firefox, que es un ladrillo que escribí hace años.

Pero el paso del Willamette 180nm al Northwood de 130nm sí que nos puede valer, porque creo que fue una reducción de litografía sin cambios en la arquitectura, pasar de 256 a 512Kb de L2 y aumento de FSB de 100 a 133mhz. Con este cambio, pasamos de 2,2 Ghz a 3,2 Ghz, creo que es un aumento interesante, prácticamente con solo bajar litografía.

Otros ejemplos serían el paso de Phenom I a Phenom II, que tambíén aumento bastante la frecuencia, y no había apenas desiseño que yo recuerde.

Pero bueno, en este punto vuelvo a lo que dije antes:

Si tomas el diseño de un Zen+ y lo pasas tal cual a 7nm los CCXs serán notablemente más pequeños, así que te cabrán bastantes más chips, CCXs en este caso, en una oblea del mismo diámetro (seguramente como 3 o 4 veces más, por lo menos). Esto de por sí ya es una ventaja enorme, pues se reduce muchísimo el coste de fabricación.

A dia de hoy, en las escalas que nos movemos, apenas hay beneficio de bajar litográfía más allá de abaratar costes, porque es complicado subir frecuencias y reducir consumo. Ejemplo claro con los Intel al pasar de 22nm (Haswell) a 14nm (Broadwell o Skylake en mercado mainstream), no había prácticamente nada de beneficio más allá de tener chips más pequeños.

Posiblemente un Zen+ a 7nm, entendiendo esto como una "simple" (si es que puede ser simple esto, que no lo es) bajada de litografía como se ha visto en los ejemplos que puse, permitiría subir las frecuencias, pero no sería un aumento grande.

Por esta razón AMD no se limita a pasar a 7nm el diseño actual de CCX, sino que aprovecha las ventajas que le dan los 7nm para: aumentar cores, duplicar cachés L3, duplicar FPU, mejorar el pre-fetching, mejorar predictor de saltos, optimizar caché.... todo esto lo que hace es aumentar IPC y por supuesto la potencia bruta al duplicar núcleos. Claro está, a costa de aumentar complejidad del chip (más transistores). Pero posiblemente con estas mejoras los chiplets puedan ir a la misma o parecida frecuencia a la que podrían ir si simplemente pasásemos el diseño actual a los 7nm, así que de esta forma además de la ganancia de frecuencias que da el proceso más pequeño, tenemos mejor IPC.

Asi que no, no llevas razón al decir eso de "si por un casual metieras a secas lo del Zen+ en tamaño del Zen2, no funcionaria nada bien", lo más probable es que funcionase igual de bien que los actuales a 12nm, siendo más baratos que los actuales de fabricar, pero AMD ha hecho un gran rediseño para además de eso, aumentar IPC y reducir aun más el coste de fabricación más aún al introducir la figura del chip I/O en 14nm, el cual permite liberar partes del procesador de los chiplets a 7nm, haciendo que estos sean más pequeños/baratos de fabricar.

Un saludo
 
Arriba