• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Big little en desktop CPUs y scheduling. Alder Lake

M.2

Chapuzas sin vida social
Registrado
27 Mar 2018
Mensajes
6.462
Puntos
113
Edad
32
Voy a empezar por decir, que soy muy esceptico sobre el big little usado para dispositivos que no tienen bateria..... Me parece un poco trampa para que intel pueda competir de nuevo con AMD en la carrera de los cores y dar puntuacion alta en cinebench.... Sinceramente creo que en la realidad, es solo estirar su propia sufrimiento, pues es un diseño limitado en cuanto a escalabilidad comparado con el de AMD que puede pegar chiplets casi infinitamente.....

Dicho lo anterior, he notado, que cuando uno juega a una alta tasa de framerate, y enciendes algo como un render u OBS para streaming o para grabar, aunque no tengas 100% uso de CPU, e incluso cuando grabas o haces streaming usando nvenc, sigues perdiendo FPS...... y bastante. En mi cabeza tiene que ver con el scheduling, ya que ambos programas acaban en cola ocasionalmente, y se va dando prioridad a uno y a otro.

No sería que big little ayudaria y mucho en ese caso? o al menos, existiria esa posibilidad? por ejemplo actuar practicamente como 2 CPUs independientes a pesar de que es solo uno. Los cores rapidos ser usados para el juego que corres como administrador y los corres secundarios para la grabacion/stream/render, y sin afectar practicamente el rendimiento del juego?ç
Tambien para dar fps más estable..... Entiendo que muchas veces hay algun bajon de FPS debido a los subprocesos de windows y/o otros programas que arrancan en segundo plano. Entiendo que con el scheduling correcto, con big little eso dejaria de pasar.

Y usar un 5900x o 5950x, en modo big little? designando un ccx principal y uno secundario.
 
Última edición:
por ejemplo actuar practicamente como 2 CPUs independientes a pesar de que es solo uno
big-LITTLE no puede comunicarse entre si, los núcleos tienen diferentes instrucciones, diferentes caches, diferentes frecuencias y diferente arquitectura.
Eso si... el 12900K se "vende" como un 16 núcleos y se "compara" con un 16 nucleos autentico como el 5950X, la verdad esque en el mundo real que no es Cinebench cuando alguien se compre un 12900K y un juego aproveche 10 núcleos y vea que solo tira de los núcleos BIG estando estos al 100% y los Little durmiendo se va a dar cuenta de la tontería que a hecho Intel para intentar competir en la gana extrema.

Yo espero... que Intel saque un 11900K con 10 big y otro con 40 núcleos LITTLE renombrados como Xeons...
 
aunque no tengas 100% uso de CPU
Muchas veces pensamos que si la CPU no está al 100% tenemos potencia de sobra y esto no es siempre así. Normalmente se cree que el porcentaje muestra la fracción de potencia total del procesador y en realidad es porcentaje de tiempo que el procesador está ocupado.

Mientras juegas, tener el procesador al 50% significa que cada segundo, el 50% del tiempo está trabajando en generar los fotogramas (y durante ese instante, seguramente, a su máxima capacidad de procesamiento/frecuencia), pero como un juego es un trabajo de constante intercambio entre la CPU y la GPU, no vemos un 100% porque la mitad del tiempo está la CPU procesando y luego está "parada" mientras trabaja la gráfica. Esto explica muchos cuellos de botella cuando no hay 100% de uso en la CPU y situaciones como la que comentas con OBS.

El OBS ocupa tiempo en CPU constantemente, quiere decir que cuando la CPU está preparando un fotograma, también tiene que estar gestionando el OBS, lo que hace que tarde más en preparar el fotograma, tarda mas en llegar a la GPU y por tanto cada segundo salen menos fotogramas. En cambio cuando el procesamiento está en la parte de la GPU, el OBS seguramente no ocupe mucho mas tiempo de CPU para gestionarlo todo, lo que en el ejemplo anterior nos podría subir, tal vez, el porcentaje de uso de CPU de un 50% a un 60-70% y sin embargo tendríamos menos FPS porque la cpu tiene más cosas que hacer durante los periodos críticos.

Todo esto para llegar a que, en mi opinión, la principal baza del diseño Big-Little sería lo que comentáis, un Scheduler muy bien optimizado, que libere los núcleos potentes de tareas parasitas durante la ejecución de tareas importantes, pero no sé por qué me da que hasta que todo esto esté verdaderamente pulido van a tener que pasar un par de generaciones. Aunque esperemos que Windows 11 sirva de verdad para acelerar esta implementación.
 

Vagus

En si esque tambien OBS esta ocupando memoria Cache, ancho de banda en RAM/SSD y esas cosas no se ven fácilmente, también hay que pensar que Windows o MSI no ve a los hilos como núcleos pero si como porcentaje de uso...
Un I9 10900K al 50% ya es en si un I9 congestionado pero en núcleos... el otro 50% que son los hilos muy posiblemente realmente solo sea un 20% de velocidad efectiva.
 
Voy a empezar por decir, que soy muy esceptico sobre el big little usado para dispositivos que no tienen bateria..... Me parece un poco trampa para que intel pueda competir de nuevo con AMD en la carrera de los cores y dar puntuacion alta en cinebench.... Sinceramente creo que en la realidad, es solo estirar su propia sufrimiento, pues es un diseño limitado en cuanto a escalabilidad comparado con el de AMD que puede pegar chiplets casi infinitamente.....

Dicho lo anterior, he notado, que cuando uno juega a una alta tasa de framerate, y enciendes algo como un render u OBS para streaming o para grabar, aunque no tengas 100% uso de CPU, e incluso cuando grabas o haces streaming usando nvenc, sigues perdiendo FPS...... y bastante. En mi cabeza tiene que ver con el scheduling, ya que ambos programas acaban en cola ocasionalmente, y se va dando prioridad a uno y a otro.

No sería que big little ayudaria y mucho en ese caso? o al menos, existiria esa posibilidad? por ejemplo actuar practicamente como 2 CPUs independientes a pesar de que es solo uno. Los cores rapidos ser usados para el juego que corres como administrador y los corres secundarios para la grabacion/stream/render, y sin afectar practicamente el rendimiento del juego?ç
Tambien para dar fps más estable..... Entiendo que muchas veces hay algun bajon de FPS debido a los subprocesos de windows y/o otros programas que arrancan en segundo plano. Entiendo que con el scheduling correcto, con big little eso dejaria de pasar.

Y usar un 5900x o 5950x, en modo big little? designando un ccx principal y uno secundario.
Yo hace tiempo pensaba como tu, pero después he cambiado de opinión, la idea de tener 8 cores lo más potentes posibles para las tareas que usen pocos núcleos, y que los demás sean "eficientes" para que el multinúcleo sea más alto me parece muy buena, y de hecho no solo Intel va a sacar Alder Lake, AMD ya tiene en la hoja de ruta procesadores así.

Piensa que los 8 núcleos "eficientes" (que yo nos los llamaría exactamente así xD) ocupan el mismo silicio que dos núcleos Golden Cove, y desde luego, en muticore van a rendir claramente más.

Es una forma de tener el máximo rendimiento en monocore y tareas que usen pocos núcloes (con los núcleos P -Golden Cove-) y también en tareas que usen muchos núcleos, como render, edición de video, etc, porque tienes esos 8 potentes y además otros 8 (o 16 en Raptor Lake) que rinden menos pero que son mucho más baratos de fabricar porque en donde te cabe uno "gordo" metes 4 de estos "eficientes.

Eso si... al principio esto no va a funcionar bien como ya comentan algunos, el software en general y en especial el SO deberán estar muy optimizados, y eso no pasará mínimo hasta Raptor Lake (que como ya he dicho será un 8+16).

En este caso Intel va a ser la pionera, la que innove y la que "se coma la mierda", y AMD la que sacará su producto equivalente cuando el terreno ya esté allanado.

Saludos
 
en muticore van a rendir claramente más.
Super Fácil programar para 2 núcleos que esta uno/a en Pekín y otro/a en melilla, uno/a habla chino y es tonto/a y el otro/a ingles pero es listo/a... uno/a va en mercedes y el otro/a andando...
La cosa esque ARM ha estado años con la idea de los núcleos big/LITTLE y en ningún juego esos núcleos jamás se han comunicado entre si...
Cuando tenia el Note 10+ en el Genshi/Fortnite la CPU estaba al 20% pero haciendo cuello de botella a la GPU porque solo tiraba de núcleos big.
 
Super Fácil programar para 2 núcleos que esta uno/a en Pekín y otro/a en melilla, uno habla chino y es tonto/a y el otro ingles pero es listo/a... uno/a va en mercedes y el otro/a andando...
La cosa esque ARM ha estado años con la idea de los núcleos big/LITTLE y en ningún juego esos núcleos jamás se han comunicado entre si...
Cuando tenia el Note 10+ en el Genshi/Fortnite la CPU estaba al 20% pero haciendo cuello de botella a la GPU porque solo tiraba de núcleos big.
Yo creo que la idea es precisamente tener procesos desvinculados en las colas de los núcleos diferentes, de manera que, por ejemplo, tengas todo lo relacionado con un juego en los potentes, su caché, etc. Y cosas secundarias, en el ring de cores pequeños. No habría necesidad de comunicarlos. Y de ahí que el potencial de ese tipo de CPUs vaya a estar en la eficiencia del scheduler.

Cuando se saturen los BIG como dices que pasará... No lo sé, debería hacer cuello si no se tira de núcleos pequeños si, pero la idea será tener dimensionado correctamente la parte BIG y la Little para que eso no ocurra en función del uso del usuario. Como se hace ahora, en el futuro estaremos diciendo: para jugar necesitas un 8 big 16 little, etc etc etc
 
Super Fácil programar para 2 núcleos que esta uno/a en Pekín y otro/a en melilla, uno habla chino y es tonto/a y el otro ingles pero es listo/a... uno/a va en mercedes y el otro/a andando...
La cosa esque ARM ha estado años con la idea de los núcleos big/LITTLE y en ningún juego esos núcleos jamás se han comunicado entre si...
Cuando tenia el Note 10+ en el Genshi/Fortnite la CPU estaba al 20% pero haciendo cuello de botella a la GPU porque solo tiraba de núcleos big.
Lo que digo es que en potencia de cálculo total, 8 núcleos E van a rendir más que dos núcleos P, eso está claro, pero ocupan el mismo espacio en el silicio y consumiran lo mismo o incluso menos.

Todo lo que comentas de que si Melilla o Pekín, chinos o ingleses está muy bien, pero la realidad es que cuando el programador de tareas asigne bien las cargas (insisto, mínimo hasta Raptor Lake) tendremos con el mismo silicio y el mismo consumo más potencia tanto en tareas que usen pocos cores como en tareas que usen muchos, y eso es lo importante.

Cuando salieron los primeros Intel con HT también hubo muchos detractores (yo el primero xD), pero fíjate, la realidad es que es una manera de aumentar la potencia multinúcleo sin apenas aumentar el espacio ocupado en el silicio, y que una vez hecho el único "sacrificio" es que aumentas el consumo y la potencia a disipar por unidad de superficie, pero es porque realmente estás exprimiendo más el procesador, eliminando o al menos reduciendo los tiempos muertos del pipeline. Por supuesto, al principio el HT NO FUNCIONABA BIEN porque sobre todo en procesadores de más de un núcleo se asignaban dos hilos a un mismo core físico, dejando el otro sin hacer nada, y hasta no hace demasiado yo he leído historias de que el rendimiento en juegos subía al desactivarlo.

Saludos
 
Última edición:
Me gustaría añadir que yo seguramente no compraría un Alder Lake, y las razones resumidas son estas:

-Tecnología de núcleos heterogéneos que al principio no va a funcionar bien en muchas tareas.
-Alto coste de la plataforma por usar DDR5
-Bajo rendimiento de la DDR5 por ser la primera hornada (caras y latencias altas, pasa SIEMPRE cuando sale un nuevo estándard de DDR)

Si AMD sacara los Zen3 con vcaché creo que serán una opción mucho mejor, por ser una plataforma totalmente pulida, buenos precios de placas base, buenos precios de RAM....

Pero decir eso es una cosa y otra muy diferente decir que me parece mal lo de los núcleos heterogéneos. Muy al contrario, es una apuesta a futuro y traerá beneficios a los procesadores x86. En este caso tenemos que dar las gracias a Intel por ser la pionera en llevar este concepto a x86, Intel va a ser la que va a lidiar con los problemas iniciales y cuando AMD saque sus procesadores con los núcleos así se encontrará el trabajo hecho. Pasó algo parecido con el PCI-e 4.0 (ahí la pionera fue AMD), o el SMT (Intel) y los 64 bits (AMD) que comento en el siguiente párrafo, también podríamos citar los procesadores x86 de múltiple núcleo, donde AMD fue pionera con los Athlon 64 x2. Yo cambié un 3200+ @2,66Ghz por un 3800+ x2 también con OC a 2,66Ghz, y a pesar de pasar de un núcleo a dos, al principio no notaba nada xD.

Te podría poner varios ejemplos más de cosas similares, que han necesitado un tiempo para asentarse, ya he comentado el SMT (llamado comercialmente Hyperthreading por Intel), o también podríamos citar los 64 bits de AMD, que al principio no servían para nada porque ningún software los aprovechaba, pero una vez se han estandarizado...

Saludos
 
Última edición:
cuando el programador de tareas asigne bien las cargas (insisto, mínimo hasta Raptor Lake)
¿Necesitas 8 nucleos LITTLE para el RGB y el Antivirus? ¿Windows? porque ARM lleva años con el tema de big/LITTLE y hasta ahora no existe una utilidad real donde esos núcleos se comuniquen menos en Benchmarks... eso si... en Benchmarks queda espectacular...
Yo creo que la idea es precisamente tener procesos desvinculados en las colas de los núcleos diferentes, de manera que, por ejemplo, tengas todo lo relacionado con un juego en los potentes, su caché, etc. Y cosas secundarias, en el ring de cores pequeños. No habría necesidad de comunicarlos. Y de ahí que el potencial de ese tipo de CPUs vaya a estar en la eficiencia del scheduler.

Cuando se saturen los BIG como dices que pasará... No lo sé, debería hacer cuello si no se tira de núcleos pequeños si, pero la idea será tener dimensionado correctamente la parte BIG y la Little para que eso no ocurra en función del uso del usuario. Como se hace ahora, en el futuro estaremos diciendo: para jugar necesitas un 8 big 16 little, etc etc etc
Yo esque soy mononeurona o monofásica... sigo prefiriendo 10 núcleos que 8+8... en si no todo el mundo usa OBS dia y noche por CPU o tiene 2 o mas pantallas.

Intel esta vendiendo un SLI de 1070 cuando podria vender una 1080 que claramente en 3DMark va a quedar peor parada pero que en el mundo real se va a aprovechar mas...
Y mas o menos por ahora todas las innovaciones que a sacado Intel en los últimos 5 años se han quedado en saco roto... Intel piensa demasiado en ella misma... la innovación siempre pasa por su visión del mundo, se creen de cierta manera Apple pero sin la manzana.
 
¿Necesitas 8 nucleos LITTLE para el RGB y el Antivirus? ¿Windows? porque ARM lleva años con el tema de big/LITTLE y hasta ahora no existe una utilidad real donde esos núcleos se comuniquen menos en Benchmarks... eso si... en Benchmarks queda espectacular...

Yo esque soy mononeurona o monofásica... sigo prefiriendo 10 núcleos que 8+8... en si no todo el mundo usa OBS dia y noche por CPU o tiene 2 o mas pantallas.

Intel esta vendiendo un SLI de 1070 cuando podria vender una 1080 que claramente en 3DMark va a quedar peor parada pero que en el mundo real se va a aprovechar mas...
Y mas o menos por ahora todas las innovaciones que a sacado Intel en los últimos 5 años se han quedado en saco roto... Intel piensa demasiado en ella misma... la innovación siempre pasa por su visión del mundo, se creen de cierta manera Apple pero sin la manzana.
Pues ya me dirás para qué necesitas 16 núcleos BIG en un 3950x/5950x, o 32 BIG en un 3970x.... estás diciendo que la gente que tenemos una CPU de 16 núcleos o más somos tontos, tiramos el dinero o que?

Vamos a ver, Intel no puede sacar un proceador con 16 núcleos Golden Cove, primero porque el consumo sería la puta hostia si queire mantener frecuencias (imposible de disipar) y segundo porque el coste de fabricación sería seguramente de más del doble que un Alder Lake 8+8, ya que al aumentar el tamaño del chip aumentas exponencialmetne la posibilidad de que alguna parte falle.

Es más, posiblemente una CPU con 12 núcleos Golden Cove y ninguno eficiente consumiría más que el 8+8, y por supuesto el silicio sería más grande, consumiría más, y en multicore no te va a rendir más que un 8+8, o se va a quedar similar.

Al final todo se simplifica a fabricar con el menor coste posible y sacar el máximo rendimiento que se pueda, de eso trata este diseño.

Saludos
 
Al final todo se simplifica a fabricar con el menor coste posible y sacar el máximo rendimiento que se pueda, de eso trata este diseño.
te lo va a vender a precio de 5950 o 6950 (cuando salga) xd...
estás diciendo que la gente que tenemos una CPU de 16 núcleos o más somos tontos, tiramos el dinero o que?
Yo no he dicho eso... lo segundo... estas comparando un 8+8 y un 16 núcleos... lo que estoy diciendo todo el rato esque no es un 16 núcleos... es un 8+8... que puedes jugar con un 16 núcleos y renderizar... pero esque con un 8+8, renderizas con 8 núcleos... o juegas con 8 núcleos... tienes que hacer las 2 tareas si o si a la vez... o si no tienes 8 núcleos muertos de risa.
 
Última edición:
yo pienso que hacen eso por el mismo motivo de siempre, quien manda? las consolas. Las consolas van con 8 cores, pues los 8 cores seran el estandar los proximos 7 años. Que pueden hacer para añadir un plus sin irse a los puntos de fusion nuclear? xD

yo sigo sin verlo, veo muchos problemas a la hora de aprovechar o distribuir tareas entre unos y otros, cosas que ya sabemos que a los señores de windows les cuesta un poco. quiza esta vez sea diferente... yo no veo el futuro, asi que de mientras me quedo tal cual.
 
Muchas veces pensamos que si la CPU no está al 100% tenemos potencia de sobra y esto no es siempre así. Normalmente se cree que el porcentaje muestra la fracción de potencia total del procesador y en realidad es porcentaje de tiempo que el procesador está ocupado.

Mientras juegas, tener el procesador al 50% significa que cada segundo, el 50% del tiempo está trabajando en generar los fotogramas (y durante ese instante, seguramente, a su máxima capacidad de procesamiento/frecuencia), pero como un juego es un trabajo de constante intercambio entre la CPU y la GPU, no vemos un 100% porque la mitad del tiempo está la CPU procesando y luego está "parada" mientras trabaja la gráfica. Esto explica muchos cuellos de botella cuando no hay 100% de uso en la CPU y situaciones como la que comentas con OBS.

El OBS ocupa tiempo en CPU constantemente, quiere decir que cuando la CPU está preparando un fotograma, también tiene que estar gestionando el OBS, lo que hace que tarde más en preparar el fotograma, tarda mas en llegar a la GPU y por tanto cada segundo salen menos fotogramas. En cambio cuando el procesamiento está en la parte de la GPU, el OBS seguramente no ocupe mucho mas tiempo de CPU para gestionarlo todo, lo que en el ejemplo anterior nos podría subir, tal vez, el porcentaje de uso de CPU de un 50% a un 60-70% y sin embargo tendríamos menos FPS porque la cpu tiene más cosas que hacer durante los periodos críticos.

Todo esto para llegar a que, en mi opinión, la principal baza del diseño Big-Little sería lo que comentáis, un Scheduler muy bien optimizado, que libere los núcleos potentes de tareas parasitas durante la ejecución de tareas importantes, pero no sé por qué me da que hasta que todo esto esté verdaderamente pulido van a tener que pasar un par de generaciones. Aunque esperemos que Windows 11 sirva de verdad para acelerar esta implementación.
Sin contradecir lo que dices, los procesadores hacen cuello de botella por la combinacion de falta de IPC, latencias altas (especialmente las 3 primeras gen de ryzen) y optimización de los videojuegos.

Cuando el peso de un videojuego recae en 3 o 4 núcleos por mucho que tengas más, el procesador no va a poder usarlos para compensar su limitación de IPC y hará cuello de botella si tienes una grafica potente y juegas a altos fps, sin ser necesario que marque 100% de uso el Afterburner. En mi 3700X me canso de ver esto en juegos como GTAV especializado en exprimir procesadores de 4 nucleos y demás juegos por el estilo.

Big little en videojuegos no creo que diste mucho de este problema hasta que realmente los juegos se apoyen en cantidad de núcleos con buenas latencias mas que en la fuerza de unos pocos nucleos.
 
te lo va a vender a precio de 5950 o 6950 (cuando salga) xd...

Yo no he dicho eso... lo segundo... estas comparando un 8+8 y un 16 núcleos... lo que estoy diciendo todo el rato esque no es un 16 núcleos... es un 8+8... que puedes jugar con un 16 núcleos y renderizar... pero esque con un 8+8, renderizas con 8 núcleos... o juegas con 8 núcleos... tienes que hacer las 2 tareas si o si a la vez... o tienes 8 núcleos muertos de risa.
A mi Intel no me va a vender nada en esta generación, en todo caso cambiaré mi 3950x por un 5950x por PURO CAPRICHO, no por necesidad.

Pero vamos, que si finalmente el 12900k rinde más que un 5950x en tareas que tiren de pocos núcleos, y en multicore rinde igual o se acerca, ¿que malo hay en que valga lo mismo que un 5950x?, no te entiendo, sinceramente... Obviamente Intel tirará de marketing y querrá venderlos como 16 núcleos, cuando es una verdad a medias, pero los AMD Bulldozer también los vendía AMD como "8 núcleos" cuando se trataba de un diseño CMT, así que también era una verdad a medias, e Intel en los tiempos de los P4 cuando tenía la mierda de netburst con un IPC de pena se encargó de sembrar en el consumidor la idea de "Mhz = potencia" cuando es una falacia total....

Te quiero decir, el marketing marketing es, el que compre un 12900k pensando que son 16 núcleos potentes, pues parte de culpa tiene xD, pero insisto, si esos 8 núcleos potentes + 8 "pochos" rinden parecido a un 5950x, pues tampoco veo el problema.

Saludos

EDITO: A lo segundo que dices no le veo sentido... ¿Porqué vas a tener que hacer las dos cosas a la vez? Puedes renderizar con los 16 núcleos a la vez, los Golden Cove rendirán más por supuesto, pero todos trabajaran repartiéndose el trabajo, y al final lo importante es el rendimiento multinúcleo que den todos trabajando a la vez. Te insisto, si resulta que rinden así como un 5950x, o un 10% menos ¿donde está el problema?

Y para juegos es que NO necesitas 16 núcleos en ninguna circunstancia, ahí tirarás de los 8 golden cove que son los que tienen más IPC, y santas pascuas...

Saludos
 
Te quiero decir, el marketing marketing es, el que compre un 12900k pensando que son 16 núcleos potentes, pues parte de culpa tiene xD, pero insisto, si esos 8 núcleos potentes + 8 "pochos" rinden parecido a un 5950x, pues tampoco veo el problema.
Voy a decir que el agua moja...
16 núcleos monolíticos a 1000 euros (este no existe)...
16 nucleos en chiplets a 1000 euros...
8+8 nucleos big/LITTLE a 1000 euros...

Voy a decir algo mas... la opción de arriba por mucho marketing y mucha historia es mejor que las que están mas abajo...

Si Intel no tuviera los núcleos Alder Lake y pusiera núcleos con un menor IPC aun con la historia del big/LITTLE, por big/LITTLE no compraba la CPU ni dios...
"Esque Intel no puede poner 16 núcleos big"... claro... perdiendo en mononúcleo en Cinebench poniendo frecuencias estratosféricas no pueden... pero esque AMD a podido siendo una compañía 50 veces mas pequeña...

Intel parece un partido político... lo hizo con Intel64... lo hizo también con AVX512 en CPUs de escritorio... lo va a hacer con big/LITTLE... la cosa es llevar la contraria a AMD aun removiendo 30.000 empresas de por medio...
Nvidia tampoco tiene que estar tan equivocada si en GPUs va a hacer diseños de Chiplets y no poner una GTX 1060 pegada con una RTX 4080.
 
Puedes renderizar con los 16 núcleos a la vez
Haber que tareas son paralelizables en 2 CPUs... porque en cuanto un núcleo big tenga que pasar datos a un LITTLE ya no son 16 núcleos... porque es que no pueden...
 
Yo al diseño Big-little le veo sentido en portátiles que requieren un mejor manejo de la energía para aumentar su durabilidad todo lo posible sin que el portátil en sí sea una castaña fuera de los cuatro programas de ofimática.

En ordenadores de escritorio que estan enchufados 24/7 a la red eléctrica lo veo un poco absurdo más allá del márketing que te permite hacer, porque si no tengo batería que cuidar ¿para qué quiero núcleos de menor rendimiento? Para eso que se pasen a una arquitectura basada en chiplets como AMD y así no tienes que forzar una arquitectura para poder competir en multinúcleo a una AMD que si le da la gana te pega mas chiplets y adiós.

Entiendo el Hype que puede despertar la novedad de algo diferente y que canales de hardware estén super ilusionados.... pero fuera de las versiones para portátiles no les veo mucho sentido, ni interés -y más con los precios que se manejan-¿rendirán bien? evidentemente, pero mejor rendirían 16 big en formato chiplet que no 8 big y 8 little.

Apple en sus procesadores basados en ARM lleva haciendo lo de bigg little hace ya varios años pero en productos como móviles, I-padds o portátiles que requieren de larga autonomía, potencia y control de temperaturas y consumo.
 
Última edición:
Voy a decir que el agua moja...
16 núcleos monolíticos a 1000 euros (este no existe)...
16 nucleos en chiplets a 1000 euros...
8+8 nucleos big/LITTLE a 1000 euros...

Voy a decir algo mas... la opción de arriba por mucho marketing y mucha historia es mejor que las que están mas abajo...

Si Intel no tuviera los núcleos Alder Lake y pusiera núcleos con un menor IPC aun con la historia del big/LITTLE, por big/LITTLE no compraba la CPU ni dios...
"Esque Intel no puede poner 16 núcleos big"... claro... perdiendo en mononúcleo en Cinebench poniendo frecuencias estratosféricas no pueden... pero esque AMD a podido siendo una compañía 50 veces mas pequeña...

Intel parece un partido político... lo hizo con Intel64... lo hizo también con AVX512 en CPUs de escritorio... lo va a hacer con big/LITTLE... la cosa es llevar la contraria a AMD aun removiendo 30.000 empresas de por medio...
Nvidia tampoco tiene que estar tan equivocada si en GPUs va a hacer diseños de Chiplets y no poner una GTX 1060 pegada con una RTX 4080.

Lo ideal sería tener todo núcleos potentes con un IPC de la hostia, no tener SMT para evitar así cualquier penalización de rendimiento que pueda venir por él (que existen a día de hoy, estoy seguro), y por supuesto, todas las CPUS monolíticas con un acceso a la RAM rapidísimo, octochannel en mainstream, latencias cojonudas, y por supuesto, 5,3Ghz en todos los núcleos, para así maximizar al máximo la potencia por core.

Eso sería lo ideal, claro, pero es que lo ideal dista mucho de ser realista, al final el coste de fabricación manda y lo que acabo de decir es un absurdo a día de hoy por lo que costaría fabricar esos chips, y además daría pie a procesadores con un consumo desmesurado.

Cada fabricante juega sus cartas en base a una estrategia, y de la misma manera que hace 5 años AMD decidió sacar CPUs NO monolíticas y usando el IF (algo que desde luego NO era lo ideal de cara a rendimiento), pues ahora Intel tira por este camino de núcleos heterogéneos.

Hace 5 años podríamos haber dicho (Intel lo dijo, de hecho) que los Ryzen eran una mierda, que tenían latencias absurdamente altas, que sería mucho mejor monolíticos, que vaya chapuza... Pero la realidad es que AMD tenía bien definida la estrategia, y si bien con la apuesta del diseño CMT de Bulldozer y la búsqueda de altas frecuencias a costa de peor IPC la cagó a base de bien, Ryzen ha demostrado con su madurez haber sido una buena apuesta. Los primeros Ryzen podrían haber tenido un IPC claramente más alto de haber sido monolíticos en lugar de usar dos silicios de 4 núcleos unidos, pero habrían sido más caros de fabricar y los Threadripper y Epyc serían inviables.

El diseño de AMD permite a día de hoy con un coste razonable tener procesadores de hasta 64 núcleos con un rendimiento impensable cuando salieron los primeros Ryzen, y por supuesto, aplastan todo lo que tiene Intel actualmente.

Tu afirmas que el big little en x86 es una mierda, que no va a funcionar y que no se pueden paralelizar operaciones en dos núcleos que son diferentes. Esto no es cierto, aunque sean núcleos diferentes, ambos son x86 y comparten instrucciones, que no rindan lo mismo no quiere decir que no puedas repartir cargas de trabajo, únicamente los golden cove rendirán más por tener mayor IPC y frecuencias, pero pueden repartirse el trabajo y aunar potencia de cálculo.

Me hace especial gracia esta frase:

Si Intel no tuviera los núcleos Alder Lake y pusiera núcleos con un menor IPC aun con la historia del big/LITTLE, por big/LITTLE no compraba la CPU ni dios...

Claro, por eso Intel no hace lo que dices, porque quiere vender xD. Y por eso hace precisamente el big.little, porque con el consumo y espacio que ocupan los núcleos grandes no le será viable meter más de 8, si metiese núcleos con menor IPC seguramente podría meter 16 o más, y serían todos big, pero estarían por debajo de Zen3.

Un saludo
 
Yo al diseño Big-little le veo sentido en portátiles que requieren un mejor manejo de la energía para aumentar su durabilidad todo lo posible sin que el portátil en sí sea una castaña fuera de los cuatro programas de ofimática.

En ordenadores de escritorio que estan enchufados 24/7 a la red eléctrica lo veo un poco absurdo más allá del márketing que te permite hacer, porque si no tengo batería que cuidar ¿para qué quiero núcleos de menor rendimiento? Para eso que se pasen a una arquitectura basada en chiplets como AMD y así no tienes que forzar una arquitectura para poder competir en multinúcleo a una AMD que si le da la gana te pega mas chiplets y adiós.

Entiendo el Hype que puede despertar la novedad de algo diferente y que canales de hardware estén super ilusionados.... pero fuera de las versiones para portátiles no les veo mucho sentido, ni interés -y más con los precios que se manejan-¿rendirán bien? evidentemente, pero mejor rendirían 16 big en formato chiplet que no 8 big y 8 little.

Apple en sus procesadores basados en ARM lleva haciendo lo de bigg little hace ya varios años pero en productos como móviles, I-padds o portátiles que requieren de larga autonomía, potencia y control de temperaturas y consumo.
La batería en un sobremesa te da igual, pero si la CPU consume 350w y con una RL de las mejores sigue siendo refrigeración insuficiente, entonces lo mismo sí que importa.

Es que algunos seguís creyendo el cuento de que el big.little es por "ahorrar batería" o por "gastar menos", cuando no es así, Intel hace esto simple y llanamente para poder escalar la potencia por núcleo en tareas que tiren de pocos (máximo 8), pero al mismo tiempo seguir escalando la potencia multicore.

Una vez pasas los 6-8 núcleos potentes, los demás no necesitas que sean punteros en IPC ni en frecuencias, lo que te importa ahí es la potencia de cómputo global, y es mejor 32 nucleos little que 16 potentes si consumen menos y ocupan menos espacio en el silicio.

No me suelo caracterizar por ser simpatizante de Intel, de hecho conozco bien la historia de primera mano desde los tiempos de los primeros Pentium, y opino que como empresa da asco, no tiene escrúpulos ni valores, y es capaz de engañar, mentir y vender a su madre por dinero. No obstante, en esto del big.little creo que aciertan, y de hecho raptor lake mantendrá los 8 cores golden cove, pero doblará los "eficientes" de 8 a 16, y además, AMD como ya he comentado también sacará big.little más adelante. Yo creo que el tiempo me dará la razón, ya veremos que pasa...

Saludos
 
Arriba