• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Entendiendo a Nvidia

El consumidor que compré Lovelace, lo que va a recibir es la gama baja (salvo que pague a partir de 800€ por una gama media). Tan sencillo y triste como eso. Hablando con precisión, no es que vayan mas recortadas, realmente los cortes son los de siempre, es que esos cortes tienen nuevos nombres. Y mas de uno va a comprar confundido, engañado, sin saber realmente lo que compra.

Si efectivamente es un cambio de nombre para más tarde meter las Super. Nvidia, y por lo que parece también AMD con lo de la RX 7600, han decidido sacar estos modelos mediocres para seguir agotando el stock de la generación pasada.
Respecto a lo que dices de: “Nvidia está recibiendo capital por su trabajo en la IA, no hablo de ventas como tal si no de inversión, y eso no es un dato de beneficio por lo que no aparecerá en sus estadísticas como ventas. Es lo que tu dijiste que era una burbuja.” … o no entiendo a lo que te refieres o creo que no es así.

Si una empresa recibe dinero, o lo reparte entre sus accionistas (y eso ya mostré que no estaba sucediendo) ó lo reinvierte. Y Nvidia no es de construir grandes factorías etc, Nvidia no fabrica nada, solo tiene a empleados haciendo dibujitos, así que como mucho lo reinvertiría pagándoles mejores sueldos o contratando a mas empleados. Bueno, igual si tiene alguna fábrica para tareas menores, igual no lo subcontrata todo, no lo se. Aparte de esto, no tengo datos de que este recibiendo otros dineros.

Si con lo de que recibe capital te refieres a que las acciones suben, ese dinero en realidad no lo recibe Nvidia, sino los accionistas que venden y se salen, y si lo dices porque la propia Nvidia tendrá acciones de si misma y ahora valen mas, en realidad mientras no las vendan siguen sin ganar nada, siguen siendo el mismo papelote en el bolsillo que no sirve para nada, no obtienen ningún beneficio de que el valor de la acción suba. Y si las venden, pues pierden la empresa. Si cuando ven que suben las venden ya las habrían vendido hace mucho.

Conste que no soy ningún experto en bolsa, así que si alguien ve otra cosa, bienvenido sea.

Lo que yo decía es que por su trabajo en procesadores de IA + las GPUs de PC, está recibiendo menos que lo que sacaba antes, en los 2 años anteriores, y por lo tanto eso no justifica en absoluto lo que está ocurriendo en el mercado de valores. Aunque la bolsa siempre mira al futuro, a intentar adivinar cuanto va a ganar en un futuro, pero es que la valoración la han hinchado tanto que tiene pintas de reventar mucho antes de que ese futuro imaginario pueda llegar (que realmente tienen bastantes pedidos$$). Y no sería la primera vez, XD. El 29nov2021 el precio de las acciones llegó a 333 $ y fueron bajando hasta estar a 112$ el 14oct2022. A una tercera parte. Seguro que durante ese periodo ha habido mucha gente que ha perdido pasta con Nvidia

Para quien tenga curiosidad, le dejo por aquí un enlace, ahí puede ver todas las gráficas, desde mil ángulos: NVIDIA PE Ratio 2010-2023 | NVDA

Nvidia como bien dices no fabrica, subcontrata ese proceso, es igual que apple con iphone. Pero a parte del beneficio de las ventas de sus GPUs es una empresa que da servicios en data centers y para crear algoritmos como se indica en el informe que has linkeado.

NVIDIA's GPU success can be attributed to its parallel processing capabilities supported by thousands of computing cores, which are necessary to run deep learning algorithms. The company's GPU platforms are playing a major role in developing multi-billion-dollar end-markets like robotics and self-driving vehicles.NVIDIA is a dominant name in the Data Center, professional visualization and gaming markets where Intel and Advanced Micro Devices are playing a catch-up role. The company's partnership with almost all major cloud service providers (CSPs) and server vendors is a key catalyst.

Quizá las ventas en lo que va de año no esté siendo tan buenas como los dos anteriores, pero son sus servicios los que la han hecho despegar.
¿Como iba a tener intel el 70% del mercado de venta en GPU? Muy sencillo, porque Intel es el fabricante que mas procesadores vende, muchos mas que AMD y porque todo lo que vende para sobremesa son APUs que llevan GPU. Bueno, si, también tiene CPUs de verdad, del socket 2011 y siguientes, pero no son muy comunes. Y también vende alguna APU con la GPU defectuosa desactivada, pero son muy pocas. No se porque tiene que indicar eso que todo sean portátiles.

Eso es cierto, no había caído en los premontados de oficina.

Lo que veo en la gráfica que has puesto es que NO ha aumentado el numero de “Notebook Graphics” vendidos. Se ve claramente que desde el 2010 han ido bajando las ventas, y que solo durante la plandemia con el rollo del teletrabajo han subido las ventas, porque a mucha gente, sobretodo en las administraciones públicas con dinero de todos, le han regalado un portátil. Finalizada está, han vuelto a caer. La tendencia es de bajada.

Por supuesto, a lo largo de los últimos 15-20 años, si no se han vendido mas unidades es porque ha habido gente no ha querido pasar por el aro. Cambiarse a un portátil es un síntoma de lo mismo, de cutrerío y alto precio en sobremesa. Si en sobremesa te dan lo mismo que un portátil es síntoma de que algo no marcha bien, tenemos como ejemplo las APUs de 4 núcleos que ha estado vendiendo Intel durante años, iguales a las de portátiles. …Pero no es solo ese el problema, durante la minería se vendía todo y a cualquier precio. Si solo han vendido esos millones es porque no han querido/podido fabricar mas, pero... Antes enviaban 25-28 millones sin problemas y ahora ¿solo pueden enviar 12-13 millones en un trimestre? ¿Se pueden fabricar muchisimos millones de chips de teléfonos pero no se pueden fabricar mas de 12 ó 13 millones de gpus?

Por cierto esa gráfica que has puesto viene del mismo sitio que la que he puesto yo, jonpeddie.com, pero no se exactamente que significa y Peddie no quiere explicármelo, porque quiere que le pague 1000€ por el informe completo. Realmente “Desktop Graphics” no significa Discrete, pueden ser también las integradas sumadas, aunque eso de “Envíos” hace que suene raro que sean gpus de tarjetas+integradas, pero es que los millones no coinciden con la imagen que puse yo antes. Después he pensado que esa que has puesto quizás fuese una gráfica TTM, es decir, suma los 4 trimestres anteriores (1 año) y los pone como si fueran de X fecha, pero tampoco me cuadran las cifras (a bulto, porque tampoco precisan nada). Así que sigo pensando que si puede ser GPUs discretas+integradas en la CPU. Yo de momento me quedo con la gráfica de antes, la de Tomsharware, que ellos si habrán pagado (supongo) y por eso saben lo que escriben: Desktop GPU Sales Lowest in Decades: Report

Cierto que tras la pandemia se desplomó la venta de portátiles, pero sigue siendo más del doble que las de escritorio. No creo que eso se traduzca en que haya más jugadores en portátil que en sobremesa, si no que en general se vende más hardware portátil.

Antes creo que era más común que los premontados llevaran una gráfica dedicada multimedia tipo GT 1030 (la última de Nvidia) pero con las integradas de los CPUs no tiene sentido. Eso al final debe reflejarse también en la gráfica que ponías arriba.

Ahora entran en juego los smartphones y están acaparando el mayor volumen del mercado, creo que eso indica que las cifras de ventas de gpus seguirán en decadencia por la tendencia de jugar en smartphone.

¿Las consolas? ¡Que remedio! Muchos se acaban comprando una consola al ver el robo del las GPUs. No es ni medio normal que por el precio de una tarjeta gráfica de PC tengas una consola con una GPU de similar potencia con 16GB + un Zen2 8 núcleos + placa base + SSD + fuente de alimentación + caja + mando para juegos. Normal que mas de uno acabe picando. Aunque no es lo mismo.

La tabla de juegos vendidos no me dice nada, no tiene porque tener una relación directa con la venta de GPU de PC, pero es que encima es de la era de los 2000. En 1998 las gpu de PC eran la S3 Virge, una desaceleradora, y lo que vino después costaba una pasta (mucho menos que ahora) y caducaba pronto, el avance era bestial, demasiado rápido, no te daba tiempo ni a usarla. Después del 2007 ya EMPEZARON a salir las GPUs mas parecidas a las actuales, la Nvidia 8800 y ATI 2900

De todas formas, puestos a hacerles algún caso a esas tablas, lo que podemos ver es que en el año 2007 por cada dólar gastado en juegos de PC se gastaban 9 dolares en juegos de consola, una relación de 9 a 1, mientras que en el año 2022 el gasto en juegos de PC ha subido brutalmente hasta casi igualar a las consolas, un 1 a 1. La gente se gasta mas o menos lo mismo en juegos de consola que de PC. E incluso si contabilizamos a los teléfonos, las consolas+telefonos suman 3 partes del pastel y el PC una parte, es decir, una relación 3 a 1, muchisimo mejor que aquella de 9 a 1 que había en el 2007. El gasto en juegos de PC ha ido aumentando y las consolas hundiéndose.
No entiendo que querías decir con esto, que relación tiene con que cada día se vendan menos tarjetas gráficas.

Bueno quizá no usé el mejor ejemplo. Si no me equivoco desde 2021 AMD y Nvidia en conjunto vendieron sobre los 90 millones de GPUs. Sólo la Nintendo Switch vendió en ese periodo entorno a los 70 millones de unidades. PS5 rozando los 40 millones, y habría que ver como quedó la Xbox. Pero no creo que se puede afirmar que en venta de hardware esté a la par que las GPU, lo de los juegos no sé si podrá ser por los gamepass.
 
El 13900K no es típico premontado de oficina y también es una APU con GPU integrada. No sabemos como jonpeddie hace las estadísticas y gráficas porque el informe donde lo explican (300pag) cuesta 1000$,,, y yo no lo voy a comprar.

También hay nuevas noticias de que AMD va a vender los Navi31 de las RX7900 como 7800. Es decir, está pensando en cambiarle el nombre disimuladamente para bajarle el precio sin que se note mucho la bajada de pantalones. De alguna forma tiene que venderlos para ir quitándoselos de encima. Supongo que les harán algún recortillo, que no sea muy significativo y a correr. Vamos, una bajada de precio encubierta de las 7900.

Pero siguiendo con el tema de nombres y confusiones:
_______________________________________________________



Ahora vienen con la 4060 (sin el Ti) - Info y cuentos chinos.

Hasta en los “reportajes patrocinados” confunden los nombres tongo de los chips. Si, esos también los han cambiado. Por ejemplo:
“Nvidia's GeForce RTX 4060 graphics card is based on the AD106 GPU with 3072 CUDA cores enabled that has peak FP32 compute throughput of 15 TFLOPS, which is just 15% higher compared to GeForce RTX 3060 with its 13 FP32 TFLOPS. But the AD106 has noticeable advantages over GA106 in the form of massively improved ray tracing performance (+40%) and Tensor compute throughput (+137%)

El Ampere GA106 mide 276 mm² y se utiliza para la RTX 3060 y para la RTX 3050 (recortándolo), mas tarde para las 3050 usaron el Ampere GA107 de 200 mm² para ahorrar
mientras que el Lovelace AD106 solo mide 190 mm². Se nota el cambiazo, no. Con el mismo nombre 106, ahora te están vendiendo un chip mas cutre, mas recortado, mas pequeño.

El equivalente real del AD106 es el GA107 de la RTX 3050, ambos de ~200 mm², no el GA106.
Igual que el equivalente mas próximo del Ampere GA106 de 276 mm² de las RTX 3060, sería el Lovelace AD104 de 295 mm² que lleva la 4070Ti

GA102 628 mm² - AD102 608 mm²

GA106 (276 mm²) -
GA107 (200 mm²) - AD106 (190 mm²)
. . . . . . . . . . . . . . . . . .- AD107 (146 mm²)

Pero hay un segundo problema, y es que ya no se aclaran ni ellos con tanto cambio de nombrecitos, el AD106 no es el que usa la 4060 sino el que usa la 4060Ti

La 4060 usa el AD107 un pedazo de silicio aun mas recortado de solo 146 mm² (que no es equivalente al “potente” GA107 200 mm² de la RTX3050, ha habido cambiazo de nombre).
Están comparando el Ampere GA106 276 mm² de la RTX3060 con el Lovelace AD107 146 mm² de la RTX4060 (y recuerdo que Ampere y Lovelace miden lo mismo, mas de 600 mm²). Por lo que al final, en vez de haber aumentado el rendimiento gracias al salto a Lovelace, pues se ha quedado igual. Igual de triste 2 años después.

Luego te cuentan un cuento chino, como que en tensor el rendimiento ha aumentado un 137% y se quedan tan anchos. Los núcleos para cálculos de tensores no han cambiando en Lovelace, sus rendimientos en TFLOPS los sigue indicando Nvidia como exáctamente los mismos que en Ampere (para la misma cantidad de núcleos Tensor y misma frecuencia), la única diferencia es que Lovelace añade una nueva variante, la de coma flotante de unos tristes 8 bits a todas las opciones que ya había FP16, BF16, TF32, INT8, INT4… con “Acumúlate en FP16” o con “Acumúlate en FP32”. Antes, en Ampere, esa opción de FP8 ni se habían molestado en incluirla, supongo que por considerarla poco útil, y no me extrañaría que ahora la hubiesen puesto solo para poder declarar que rinde el doble en tensor. A Lovelace le calculan los TFLOPS en 8bits y a la otra en 16bits, dan vergüenza ajena.


La 3060 GA106 (276 mm²) con 12 GB de ram
3584 cudas • 1,78GHz • 2op/ciclo = 12,76 TFLOPS
192 bits • 1,875GHz •2•2•2/8 = 360 GB/s de velocidad de la memoria
112 Tensor • 1,78GHz / 2 = 99.68 TFLOPS (Enteros 8bits)
30 RT • 1,78GHz

La 3060 (3840) GA106 (276 mm²) con 12 GB de ram
3840 cudas • 1,85GHz • 2op/ciclo = 14,21 TFLOPS
192 bits • 1,875GHz •2•2•2/8 = 360 GB/s de velocidad de la memoria
120 Tensor • 1,85GHz / 2 = 111.00 TFLOPS (Enteros 8bits)
30 RT • 1,85GHz

La 4060 AD107 (146 mm²) con 8 GB de ram
3072 cudas • 2,46GHz • 2op/ciclo = 15,11 TFLOPS
128 bits • 2,125GHz •2•2•2/8 = 272 GB/s de velocidad de la memoria
96 Tensor • 2,46GHz / 2 = 118.08 TFLOPS (Enteros 8bits)
24 RT • 2,46GHz

Ojo al brutal overclock de fábrica, que es el responsable de que estas birrias de chips de gama bajísima tengan un consumo tan alto. Consumen casi tanto como procesadores mucho mas grandes anteriores fabricados en procesos mucho mas viejos. Y todavía Nvidia nos dice que se siente orgullosa de ello, XD.

18432cudas / 10752cudas = 71.4% de aumento. Si hubiesen mantenido las proporciones para todas las gamas, como siempre han hecho, ese es el aumento teórico que tendríamos, un 71,4% en TFLOPS, que luego en la realidad siempre se queda en algo menos. Así habría habido un buen aumento por cambio a Lovelace, sin necesidad de tocar frecuencias y voltajes, sin necesidad de que el consumo se disparase a los niveles de locura que ha llegado.

Pero cuando tu haces OC, tu consigues unas ventajas, y también unos inconvenientes: Gasto eléctrico, mayor fuente, calor, ruido, deterioro, mas electromigración, mas corriente por los conectores que no la soportan, etc.
Cuando un fabricante hace OC, ellos consiguen los beneficios$$ , y tu los inconvenientes. Es todo un chollo.

Sobre el papel la 4060 es un 15,11 / 12,76 = 18,41% mas rápida (algo lamentable para ser un nuevo proceso de 4nm frente a los 8nm anteriores) que luego se queda en menos en uso real (y un 6% mas que la 3060(3840) ). Y si a eso hay que sumarle que la velocidad de la ram de la antigua 3060 es un 360 / 272 = 32,3% mayor, pues igual vemos en algún caso a la nueva 4060 rendir peor que la vieja 3060. No es justo comparar un procesador de 1/3 con otro de 1/6. Es el doble, es comparar una gama media-baja con una simplemente bajísima: Es normal que le cueste superar a la vieja, ni con todo el overclock del mundo.


No se muy bien como calcula Nvidia el tema de los núcleos Tensor, pero estos resultados salen correctos, y además se mantienen siempre en las mismas proporciones para todos FP16, BF16, TF32, INT8, INT4… con “Acumúlate en FP16” o con “Acumúlate en FP32”. Lo dicho, nada cambia en Tensores Lovelace salvo el añadido de FP8, no hay ningún aumento de rendimiento.

Para el tema del RT no hay forma simple de calcularlo, simplemente te tienes que creer lo que dice Nvidia sobre su rendimiento. Lovelace trae mejoras, unidades de Opacidad que utilizan imágenes alfa para reducir los cálculos necesarios de después, y mas rapidez en intersecciones de rayos, blabla,,, así que nos tendremos que creer eso del 40% de aumento de la 4060 (2,46/1,78= 38% solo por el overclock, es decir, que según Nvidia, 24 núcleos RT Lovelace rinden como los 30 RT viejos de Ampere, a la misma frecuencia), pero si alguien piensa que va a poder usar RT en juegos futuros en una tarjeta de 1/6 de gpu como esta, lo lleva claro, XD.


Si Nvidia hubiese venido de frente, sacando pecho, y diciendo exactamente lo que ha hecho: Viendo como está la competencia, hemos decidido vender:
- la 4080Ti a 1600$
-----------------------
- la 4070 por 1200$
- la 4060Ti a 800$
- la 4060 por 600$
-----------------------
- la 4050 por 400$
- la 4040 por 300$
- la 4030 por 250$

Si Nvidia hubiera dicho esto, yo habría contestado: Muy bien, ole tu, ¡ole tu! Con dos cojones!!!
Pero hacer justo eso, y luego ponerse a cambiar los nombres para intentar disimularlo, pues no me gusta un pelo.

Los que buscan GPUs de gama baja están de enhorabuena, ahora en Lovelace tienen dos GPUs mas bajas que no existían antes en Ampere, una del 16.6% (1/6) real4040 (fake4060) y otra recortada a un 13,9%, real4030 (fake4050).

Aquí tenéis la publi de Nvidia: https://images.nvidia.com/aem-dam/Solutions/geforce/ada/nvidia-ada-gpu-architecture.pdf
(Solo aparece gama alta y media, aun no sale la baja)
 

CACHE, ese gran invento moderno supernovedoso del pleistoceno


La memoria cache que llevan los procesadores (gráficos) es algo muy bueno, permite tener allí mismo los datos que está usando en ese momento, sin tener que ir a buscarlos a la vRAM de la tarjeta, que es mucho mas lenta que la cache. Si la cache es pequeña, lo que no le quepa tendrá que borrarlo y cuando lo necesite un milisegundo después ir otra vez a la vRAM a buscar lo mismo, perdiendo así el tiempo y usando el canal de comunicación con la VRAM mucho mas que si la cache fuese grande y no hubiese borrado ese dato.

Por eso tener una cache grande es bueno, porque permite usar menos el canal de comunicación con la vRAM, necesitar menos velocidad de memoria, y poner un bus mas pequeño y cutre, de menos bits. A su vez un bus de menos bits necesita menos controladores de vRAM de 32bits dibujados en el procesador gráfico, ahorra transistores, pero hace que no puedas poner mucha cantidad de vram porque los integrados de ram tienen una capacidad limitada. Cada modulo de vram de 32bits tiene una capacidad de 1 ó 2 GB. Si pones un bus pequeño de solo 128bits (4 • 32) porque no necesitas mas gracias a la cache, luego solo podrás poner 4 • 2GB = 8GB de vRAM (salvo que uses módulos de ram especiales, mas caros y problemáticos)

Además no hay milagros, la cache te ahorra paseos hasta la vRAM, a veces, otras veces no, y no hay una ciencia exacta para determinar cuanto ahorra, de forma que es mas probable que aparezcan momentos en los que la lenta velocidad de memoria que has puesto se quede corta, reduciendo el rendimiento en ese momento por ello. Al final, lo de "caballo grande, ande o no ande" es muy cierto. Si tienes el doble de velocidad de memoria no tienes que andar racaneando, ni te dará ningún problema. Esa funciona siempre.

Todo esto es parte de la arquitectura de toda Lovelace, que se ha diseñado así, usa las mismas proporciones en todas las gpus Lovelace, por eso el tema de la cache2 aumentada no tiene ninguna importancia a la hora de comparar dentro de Lovelace, aunque parezca ser la piedra filosofal de Lovelace y tanto se ha hablado de ella. Así que no le va a otorgar un rendimiento extra respecto a las Lovelaces mas grandes ni ninguna nueva ventaja, por lo tanto no afecta a los porcentajes calculados respecto a la max Lovelace de 600mm^2.

Si modifican el RT, lo hacen para todas, ¿Hace falta saber todas y cada una de las características de una arquitectura para poder saber si te están vendiendo 1/3 de Lovelace , 2/3 , ó un medio?
Si en generaciones anteriores, por ejemplo, 1/3 de la GPU tocha rendía X porcentaje de la grande, ahora 1/3 de Lovelace vendrá a rendir mas o menos en la misma proporción, comparado con la gorda. La cache2 aumentada no le aporta nada extra a esta comparación, porque todas llevan esa cache2 aumentada. Así podemos seguir mirando sin problemas que parte del pastel nos quiere vender Nvidia, y compararlo con la que nos quería vender años atrás.



La cantidad de cache2 va en relación con la anchura del bus de memoria. En Lovelace queda así:

-------------------------------------------------------------------------------------
100% Bus Memoria ---> Bus 384b - cache 96 MB <-- Cache Completa

2/3 Bus Memoria ------> Bus 256b - cache 64 MB <-- 2/3 Cache
1/2 Bus Memoria ------> Bus 192b - cache 48 MB <-- 1/2 Cache

1/3 Bus Memoria ------> Bus 128b - cache 32 MB <-- 1/3 Cache
-------------------------------------------------------------------------------------

y de aquí, recortan lo que les parece, según los chips pochos que les salen, quitando lo malo para aprovechar el resto, no se tira nada:



Las GPUs menores siempre llevan mas bus del que les correspondería comparado con la grande, en comparación con % de Cudas(tmu,rt,etc) que tienen. En arquitecturas anteriores también, es lo habitual, desde siempre:

RTX6000(4090Ti)-->Bus 384b - cache 96 MB - ROP 192
4090 -----------> Bus 384b - cache 72 MB - ROP 176 (cache y rasters mutilados, especialmente la cache)

4080 -----------> Bus 256b - cache 64 MB - ROP 112
4070Ti ---------> Bus 192b - cache 48 MB - ROP 80
4070 -----------> Bus 192b - cache 36 MB - ROP 64 (cache y rasters mutilados)

4060Ti ---------> Bus 128b - cache 32 MB - ROP 48
4060 -----------> Bus 128b - cache 24 MB - ROP 32 (recortados 8 MB de cache)
4050 Mobile ----> Bus 96b - cache 12 MB - ROP 32 (pensada también para escritorio)

Los raster de Lovelace van mas o menos equilibrados con los cudas, así que otra cosa mas que es proporcional a todo el chip, o casi.

Esta es la idea que tenían para la 4050 de escritorio, aunque viendo las circunstancias puede que cambien de idea a última hora (ó no). Es el integrado de la 4060 que lleva 32MB de cache2, pero recortando la famosa cache2 hasta dejarla en una mierda, y con 32bits menos de bus (además de otros recortes, claro). Como no se han atrevido a recortar los ROPs, han quitado de todo lo demás.

Es divertido ver los comentarios debajo de cualquier web que analice estas nuevas tarjetas, "cosas como espero que se pudran en las estanterías de las tiendas", etc, etc, XD
 
Última edición:
¿Lovelace es un buen diseño? - Cache2


Lovelace no es mas que Ampere fabricada en un tamáño de transistor mas pequeño (4nm vs 8nm), por lo que les cabe el doble de todo, y con unas cache2 mas grandes (en vez de ser solo el doble), además del soporte para el fake-frame y algún pequeño retoque en RT. Perfectamente se podría haber llamado Ampere2.

Vamos a darle otro enfoque a Lovelace, a mirarla desde otro ángulo, teniendo como referencia esta 4060 que acaba de salir. ¿CÓMO HAN USADO ESE SILICIO? . Rendimiento/transistores. Y hablemos también de la cache.

Las memorias caches son algo que consume una barbaridad de área del procesador, pero relativamente poca energía, es decir, permiten usar esa potencia eléctrica que no gastan (y que no calienta esa parte del procesador), en otras zonas, en los núcleos, permitiendo meter mas voltaje y mayores frecuencias y que el calor extra de esa zona se vaya disipando hacia las zonas de las caches. Sacrifican núcleos, ponen menos de la cuenta porque gran parte del procesador es cache, a cambio de ponerlos a mayor frecuencia. Un error.

Es un error, porque el “overclock” nunca es una buena idea, salvo que lo hagas tu en tu casa gratis en CPUs.
Apretando voltajes y frecuencias, cualquier chip puede llegar a consumir el doble para sacar un 20%-30% de rendimiento extra, ó el doble de consumo para sacar un 5% de rendimiento extra. No hay límite. El OC siempre proporciona peores cifras de eficiencia: Rendimiento / Watio, que es lo que importa en unos procesadores para cálculos altísimamente paralelizables como son las GPUs. Aquí no hay un hilo maestro que necesite mayores frecuencias como puede pasar en las CPUs.



Un ejemplo:

Cogemos dos GPUs completas, sin recortes, sin transistores bloqueados muertos de risa, de adorno, y vamos a ver como los han gastado y que resultado ha dado la elección:
- RTX 3070 Ti --> Tiene 17400 millones de transistores - Usados para meter muchos núcleos: 6144 cudas (tmu, RT, etc) - Usados para 8 controladores de ram = 256bits - y poca cache2= 4MB
- RTX 4060 ----> Tiene 18900 millones de transistores - Usados para meter pocos núcleos: 3072 cudas (tmu, RT, etc) - Usados para 4 controladores de ram = 128bits - y mucha mierda de cache2= 32MB

¿Qué tal el rendimiento?, ¿Cuál es la opción correcta?

Con esos millones de transistores podían haber hecho una 3070 Ti en 4nm, rindiendo como una 3070 Ti, sin subirle la frec, co$tando lo mismo de fabricar, ocupando poco área y consumiendo menos que la 4060. La 3070Ti tiene un 50% mas de rendimiento que la 4060.

¿Que mierdas han hecho con el silicio?, ¿en que lo han gastado? ¿Para que rayos queremos la cache2 gigante esa absurda? ¿Tanto ingeniero diseñando algo durante 2,5 años para que rinda peor que lo anterior? Se lo podían haber ahorrado (al ingeniero). Esas son las preguntas corretean por mi cabeza, y las respuestas que se me ocurren no son mejores. De momento las dejo a la imaginación de cada cual.




Pero podemos ir mas allá y ver como han aprovechado los 18000 millones de transistores en otras GPUs

- Titan RTX ----> Tiene 18600 millones de transistores - Usados para meter muchos núcleos: 4608 cudas (tmu, RT, etc) - Usados para 12 controladores de ram = 384bits - y poca cache2= 6MB
- RTX 3070 Ti --> Tiene 17400 millones de transistores - Usados para meter muchos núcleos: 6144 cudas (tmu, RT, etc) - Usados para 8 controladores de ram = 256bits - y poca cache2= 4MB
- RTX 4060 ----> Tiene 18900 millones de transistores - Usados para meter pocos núcleos: 3072 cudas (tmu, RT, etc) - Usados para 4 controladores de ram = 128bits - y mucha mierda de cache2= 24MB

La Titan RTX, (utiliza el mismo integrado Turing que la 2080 Ti pero entero, sin partes deshabilitadas, usa todos los transistores), tiene otro diseño, por lo que la forma de contabilizar cudas es diferente. No se puede comparar por el numero de estos, hay que ver el rendimiento. Mientras que entre Ampere y Lovelace si es mas comparable, porque son prácticamente la misma cosa.

Imaginaos una Titan RTX en vez de fabricada en 12nm, fabricada en 4nm con el tamaño de la 4060 y menos consumo que esta. O subiéndole un poco las frecuencias para que el consumo se acerque un poco al de la 4060 y teniendo aun mas rendimiento que la Titan RTX original. Y con GDDR6 mas rápidas que aquellas antiguas de 1,75GHz. Costando fabricar el chip lo mismo que les cuesta la 4060. Con sus 384 bit de bus de memoria y ningún problema para ponerle 24GB de ram, o 48GB. ¿Alguien se lo imagina? Pues Nvidia no.

La Titan RTX rinde como un 60% mas que la 4060, y podría ser mas aun si le suben un poco las frecuencias, que eran muy bajas para que no se disparase el consumo de aquel chip tan grande hecho en 12nm. Podría rendir sin problemas como una 4070 o más, es decir un 80% mas que la 4060 con menos watios que la 4060. Si es que vamos para atrás, cada día desaprovechan mas el silicio en gilipolleces, pero oye, todos contentos, y que ¡¡vivan las cache2 monstruosas!! XD.




P.D: En realidad la 4060 de escritorio si tiene transistores inhabilitados, le han quitado 8 MB de cache2, solo le quedan 24MB, pero dudo que afecte mucho al rendimiento, porque va mas holgada de velocidad de ram que la 4060ti al tener menos cudas y el mismo bus+frec. Por lo que no invalida nada de lo anterior en cuanto a rendimiento. A Nvidia no le importa eliminar esa cache2, y a mi tampoco.
 
Última edición:
¿Lovelace es un buen diseño? - Cache2


Lovelace no es mas que Ampere fabricada en un tamáño de transistor mas pequeño (4nm vs 8nm), por lo que les cabe el doble de todo, y con unas cache2 mas grandes (en vez de ser solo el doble), además del soporte para el fake-frame y algún pequeño retoque en RT. Perfectamente se podría haber llamado Ampere2.

Vamos a darle otro enfoque a Lovelace, a mirarla desde otro ángulo, teniendo como referencia esta 4060 que acaba de salir. ¿CÓMO HAN USADO ESE SILICIO? . Rendimiento/transistores. Y hablemos también de la cache.

Las memorias caches son algo que consume una barbaridad de área del procesador, pero relativamente poca energía, es decir, permiten usar esa potencia eléctrica que no gastan (y que no calienta esa parte del procesador), en otras zonas, en los núcleos, permitiendo meter mas voltaje y mayores frecuencias y que el calor extra de esa zona se vaya disipando hacia las zonas de las caches. Sacrifican núcleos, ponen menos de la cuenta porque gran parte del procesador es cache, a cambio de ponerlos a mayor frecuencia. Un error.

Es un error, porque el “overclock” nunca es una buena idea, salvo que lo hagas tu en tu casa gratis en CPUs.
Apretando voltajes y frecuencias, cualquier chip puede llegar a consumir el doble para sacar un 20%-30% de rendimiento extra, ó el doble de consumo para sacar un 5% de rendimiento extra. No hay límite. El OC siempre proporciona peores cifras de eficiencia: Rendimiento / Watio, que es lo que importa en unos procesadores para cálculos altísimamente paralelizables como son las GPUs. Aquí no hay un hilo maestro que necesite mayores frecuencias como puede pasar en las CPUs.



Un ejemplo:

Cogemos dos GPUs completas, sin recortes, sin transistores bloqueados muertos de risa, de adorno, y vamos a ver como los han gastado y que resultado ha dado la elección:
- RTX 3070 Ti --> Tiene 17400 millones de transistores - Usados para meter muchos núcleos: 6144 cudas (tmu, RT, etc) - Usados para 8 controladores de ram = 256bits - y poca cache2= 4MB
- RTX 4060 ----> Tiene 18900 millones de transistores - Usados para meter pocos núcleos: 3072 cudas (tmu, RT, etc) - Usados para 4 controladores de ram = 128bits - y mucha mierda de cache2= 32MB

¿Qué tal el rendimiento?, ¿Cuál es la opción correcta?

Con esos millones de transistores podían haber hecho una 3070 Ti en 4nm, rindiendo como una 3070 Ti, sin subirle la frec, co$tando lo mismo de fabricar, ocupando poco área y consumiendo menos que la 4060. La 3070Ti tiene un 50% mas de rendimiento que la 4060.

¿Que mierdas han hecho con el silicio?, ¿en que lo han gastado? ¿Para que rayos queremos la cache2 gigante esa absurda? ¿Tanto ingeniero diseñando algo durante 2,5 años para que rinda peor que lo anterior? Se lo podían haber ahorrado (al ingeniero). Esas son las preguntas corretean por mi cabeza, y las respuestas que se me ocurren no son mejores. De momento las dejo a la imaginación de cada cual.




Pero podemos ir mas allá y ver como han aprovechado los 18000 millones de transistores en otras GPUs

- Titan RTX ----> Tiene 18600 millones de transistores - Usados para meter muchos núcleos: 4608 cudas (tmu, RT, etc) - Usados para 12 controladores de ram = 384bits - y poca cache2= 6MB
- RTX 3070 Ti --> Tiene 17400 millones de transistores - Usados para meter muchos núcleos: 6144 cudas (tmu, RT, etc) - Usados para 8 controladores de ram = 256bits - y poca cache2= 4MB
- RTX 4060 ----> Tiene 18900 millones de transistores - Usados para meter pocos núcleos: 3072 cudas (tmu, RT, etc) - Usados para 4 controladores de ram = 128bits - y mucha mierda de cache2= 24MB

La Titan RTX, (utiliza el mismo integrado Turing que la 2080 Ti pero entero, sin partes deshabilitadas, usa todos los transistores), tiene otro diseño, por lo que la forma de contabilizar cudas es diferente. No se puede comparar por el numero de estos, hay que ver el rendimiento. Mientras que entre Ampere y Lovelace si es mas comparable, porque son prácticamente la misma cosa.

Imaginaos una Titan RTX en vez de fabricada en 12nm, fabricada en 4nm con el tamaño de la 4060 y menos consumo que esta. O subiéndole un poco las frecuencias para que el consumo se acerque un poco al de la 4060 y teniendo aun mas rendimiento que la Titan RTX original. Y con GDDR6 mas rápidas que aquellas antiguas de 1,75GHz. Costando fabricar el chip lo mismo que les cuesta la 4060. Con sus 384 bit de bus de memoria y ningún problema para ponerle 24GB de ram, o 48GB. ¿Alguien se lo imagina? Pues Nvidia no.

La Titan RTX rinde como un 60% mas que la 4060, y podría ser mas aun si le suben un poco las frecuencias, que eran muy bajas para que no se disparase el consumo de aquel chip tan grande hecho en 12nm. Podría rendir sin problemas como una 4070 o más, es decir un 80% mas que la 4060 con menos watios que la 4060. Si es que vamos para atrás, cada día desaprovechan mas el silicio en gilipolleces, pero oye, todos contentos, y que ¡¡vivan las cache2 monstruosas!! XD.




P.D: En realidad la 4060 de escritorio si tiene transistores inhabilitados, le han quitado 8 MB de cache2, solo le quedan 24MB, pero dudo que afecte mucho al rendimiento, porque va mas holgada de velocidad de ram que la 4060ti al tener menos cudas y el mismo bus+frec. Por lo que no invalida nada de lo anterior en cuanto a rendimiento. A Nvidia no le importa eliminar esa cache2, y a mi tampoco.
Si no lo he entendido mal y no me he perdido, dices que Nvidia ha copiado la tecnología Infinity caché de AMD (de acuerdo, Nvidia incrementa caché L2 en vez de la L3 que es lo que hace AMD) y les ha realizado un overclock alcanzando un incremento de rendimiento similar al que se realiza normalmente entre dos generaciones, pero quitando al usuario la posibilidad de overclock, disminuyendo así sus costes sin bajar el precio de sus gráficas.

Igual lo he resumido demasiado. Si es así, me parece que nos están tomando el pelo pero bien. Eso, unido al cambio de denominación para parecer que adquieres una gráfica superior... Vamos, que llevan dos años tocándose el ciruelo ante la falta de competitividad de AMD (al menos estos son medianamente baratos)
 
Si no lo he entendido mal y no me he perdido, dices que Nvidia ha copiado la tecnología Infinity caché de AMD (de acuerdo, Nvidia incrementa caché L2 en vez de la L3 que es lo que hace AMD) y les ha realizado un overclock alcanzando un incremento de rendimiento similar al que se realiza normalmente entre dos generaciones, pero quitando al usuario la posibilidad de overclock, disminuyendo así sus costes sin bajar el precio de sus gráficas.

Igual lo he resumido demasiado. Si es así, me parece que nos están tomando el pelo pero bien. Eso, unido al cambio de denominación para parecer que adquieres una gráfica superior... Vamos, que llevan dos años tocándose el ciruelo ante la falta de competitividad de AMD (al menos estos son medianamente baratos)

A ver, respecto al rendimiento:
Todo el avance de Nvidia de esta nueva arquitectura se puede resumir en una cosa: El nuevo proceso de fabricación de TSMC de 4nm (realmente 5nm retocado). Algo en lo que Nvidia no tiene nada que ver. Gracias a ese proceso han reducido el tamaño de cada transistor y ahora meten mas transistores en el mismo tamaño de chip (los típicos 600 mm² de toda la vida). Eso es lo que les ha dado la mayor parte del aumento de rendimiento. El, para que utilizan esos millones de transistores, eso ya si que es cosa de Nvidia, del diseño que hagan. Ahí entra lo opinado arriba, en mi opinión no los ha usado de la forma mas acertada. Mas bus y menos cache es mejor, aunque ellos igual piensan que con menos bus les salen las placas mas sencillas y baratas, y encima ponen menos ram.

El aumento de rendimiento se ha notado tanto en Nvidia porque el anterior proceso de 8nm de Samsung era un poco caca, ya iban un poco por detrás de TSMC en aquel momento, hace 2 años. Los nombres estos de 4, 5, 7, 8 nm son mas falsos que judas, tienen bastante poco que ver con la realidad, pero sirven para llamarlos de alguna forma.

El Ampere GA102 (de la 3090Ti) de 628 mm² con Samsung 8nm tenía 28300 millones de transistores
El Lovelace AD102 (de la 4090Ti) de 609 mm² con TSMC 4nm tiene 76300 millones de transistores. ¡¡¡Es el triple!!!

Por eso el cambio se ha sentido mas fuerte. Esto no es gracias a Nvidia, esto es gracias al paso de 2 años que les ha permitido a las fundiciones mejorar sus tamaños de transistores, para meter mas en el mismo espacio.

Ese nuevo proceso de 4nm de TSMC también les ha permitido subir frecuencias (nuevamente nada tiene que ver con Nvidia), pero en mi opinión Nvidia se ha pasado 3 pueblos subiendo, y ahí tenemos el consumo bestial que tienen. Eso si es decisión de Nvidia. (AMD está haciendo lo mismo, lo que pasa es que como Navi31 es mas pequeña que AD102, no da tanto el cante). Ese aumento de frecuencias tan loco les ha permitido conseguir otro 20% - 25% a cambio de un aumento de consumo muy grande. Si hubiesen aumentado solo un 10% las frec en vez de un 40%, hubiera sido otra cosa. También me da la impresión de que la 4090 en algunos momentos va escasa de velocidad de vram, ni cache ni leches, que encima la lleva recortada, creo que los 384bits se le quedan un poco cortos y rinde menos de lo que debería.

Lo que si es gracias a Nvidia es el no trasladar al comprador esa mejora de los 4nm, al mismo precio. Y para eso están los nuevos nombres.




Respecto a la caché gigante copiada a AMD Navi2:
Hombre, para aumentar la caché no hace falta copiar mucho, es simplemente ponerla mas grande. Si no lo hacían antes es porque ocupa medio procesador. Si buscas fotos de lo que ocupan los núcleos en cualquier CPU verás que es muy poquito. En cualquier diseño tienes que sacrificar unas cosas para poner otras. No es nuevo, ya en la época de los Intel Pentium2 estaban también los Celeron que eran exactamente lo mismo pero con parte de la caché desactivada. Mas tarde AMD tenía Athlon y Duron (Sempron después), mas de lo mismo, parte de la caché inutilizada, y lo mismo para los Core2 de 2MB ó de 6MB. Mas caché mejoraba el rendimiento, especialmente en algunos programas como juegos.

Hoy lo puedes ver por ejemplo en los Zen3 y Zen4 que llevan una caché gigante de 64MB pegada encima, que ocupa la mitad de un chiplet de 8 núcleos (en el cual los núcleos ocupan poco, porque lleva mas de 36MB de cache) y sin embargo tampoco consume-calienta demasiado. Si tuviese el mismo consumo que lo de debajo y encima impidiendo una buena refrigeración de lo de debajo, se tostaría el procesador. A los Zen+cache pegada encima también les afecta menos la frecuencia de la ram que tengas en la placa base, es decir, usan menos ancho de banda.

Por cierto Zen4 es un Zen3 pero a 5nm y con OC + el nuevo I/O con controladores para DDR5 y gpu integrada. Pero solo cambia eso, el I/O, porque los chiplets son lo mismo. Ya ves que esto de reciclar, refreír, y hacer overclock también se le da bien a AMD. Los Zen4 fabricados en 5nm deberían consumir mucho menos que Zen3, pero los han apretado al máximo, y han conseguido mucho mas consumo que Zen3.

Mas caché = mejores resultados. Si, pero a que coste. En el punto contrario a los AMD 3D, ahora mismo AMD acaba de sacar los Zen4c que son lo mismo que los Zen4 pero eliminado la mitad de la cache3 (16MB). Solo la mitad de la de nivel3, el resto queda intacto. Es, como aquellos Celeron P2, Duron, Sempron64, Wolfdale 2MB, etc, los mejores procesadores para comprar. Relación calidad precio de 10.

¿Cual es la ventaja? Que donde cabían 8 núcleos ahora meten 16. Casi nada, 16 núcleos por chiplet solo por quitarle la mitad de la cache3 y apretar un poco mas la caché. Estos chiplets de 16núcleos solo miden un 10% mas que los Zen4 de 8núcleos. En realidad son 16MB cada 8núcleos, por lo que sigue teniendo 32MB en total de cache3, pero han conseguido reducir el tamaño de todas las celdas SRAM usando solo 6 transistores en cada una, en vez de 8 habituales.
Zen 4c: AMD’s Response to Hyperscale ARM & Intel Atom

tJ0fqjh.png
8núcleos Genoa - 16núcleos Bergamo. (Lo rojo es la cache3. Lo azúl los núcleos que llevan la cache1 y 2)

Desventajas, como les den mucha caña, 16núcleos calentando la misma superficie no va a permitir la disipación de tantos watios sin que la diferencia de temp silicio-tocho_de_cobre sea muy grande. Es decir, que aunque el tocho de cobre lo puedas mantener a temp. ambiente (ideal, imposible), el silicio va a subir a demasiados grados. El resultado es que no los podrán poner a las mismas frec. y voltajes que los normales de 8 núcleos.
Esto no importa en GPUs, ahí es mejor 10 núcleos a 1 GHz que 2 núcleos a 4GHz

Espero que los próximos Ryzen lleven un chiplet de Zen5 de 8núcleos + uno de estos Zen4c de 16 núcleos. Sería un movimiento inteligente por parte de AMD.

Siempre engordan la caché del último nivel, ya sea de nivel 1, 2, 3,,, ó 4 como lo era las de los Intel Broadwell del 2015 con sus 128MB. Cuanto mas cerca del núcleo mejor, mayores velocidades (bus) le pondrán y menores latencias. Ya ves, AMD tampoco ha inventando las caches gigantes, y pegarlas encima es algo que ya se hacía con la RAM apilada HBM. Intel ya ponía caches externas en sus Pentium2 para aumentarlas, todo vale.

Esa cache4 de Broadwell sobremesa podía ser de tantos MB sin ocupar demasiado espacio porque no era SRAM como son las habituales, sino que era DRAM mala que ocupan menos espacio al usar solo un transistor para cada bit almacenado. La pusieron a un lado del procesador, ocupaba la mitad que él, y consumía 5W a tope. La unieron a la cache nivel3 como una Victim Cache (papelera donde las otras caches tiran cosas). Fue un procesador problemático que no salió bien y que Intel retiro de las estanterías 2 meses después, sustituyéndolo inmediatamente por Skylake.
A Broadwell Retrospective Review in 2020: Is eDRAM Still Worth It?


AMD ha querido jugar duro con Navi3, y como la caché no es tan importante en cuanto a frecuencias y consumo como los núcleos, pero si que ocupa mucho silicio, ha decidido hacer la caché en un proceso de fabricación viejo que le sale mas barato (7nm) y los núcleos en 5nm. Vamos, que no le importa que la caché tenga un tamaño mayor y un consumo mayor por ser a 7nm, porque no es algo significacativo. Pero juntar 2 partes independientes siempre empeora la comunicación y latencias. Para mi gusto adolece del mismo problema que Lovelace, unas cachés gigantescas que no aportan casi nada en comparación con los millones de transistores que gastan. Y frecuencias y consumos bestias que les han puesto. Navi31 con sus 350W no se queda nada corta en consumo rindiendo parecido a la 4080 (que solo mide 379 mm²) una gpu de tamaño medio-alto. Que gpus de estos tamaños anden en esos consumos es algo exagerado.

Si quieres verlo como que Nvidia le ha copiado la idea a AMD, bueno, si, pero es como si una marca de coches le copia a otra el poner discos ventilados, realmente ya están inventados desde hace un siglo, no hay mucho que copiar.

_________________________________________________________________________________________________________________________




Después de escribir todo esto, me toca matizar un poco mis palabras, recular. Estoy recordando-viendo-buscando-aprendiendo que no todos los transistores ocupan exactamente la misma superficie. Dependiendo para que tipo de celdilla se estén usando, ocupan mas área de silicio o menos. Las memorias caché se hacen con SRAM y los transistores de estas son de los que menos silicio ocupan. Así que si Lovelace no tuviese tanta caché y la hubiesen sustituido por mas cudas, no hubiesen podido meter tantos millones de trans en esos 600 mm². En vez de estar hablando de 28300 vs 76300 millones, igual estábamos hablando de ¿28300 vs 60000 millones? Igualmente creo que le daba para doblar Ampere entero y doblar el rendimiento manteniendo ó bajando el consumo, en vez de subirlo a 450W (ó a 600W, ya veremos cuando vendan la 4090Ti). Idem para todas las demás porciones de Lovelace.

Por ejemplo en los 146 mm² de silicio de la anteriormente mencionada 4060 si hubiésemos querido poner mas cudas y menos SRAM, no hubiesen cabido los 18900 millones de transistores. Igual habrían cabido solo ¿15000 millones?, por lo que no hubiésemos podido meter el 3070Ti completo que es de 17400 millones. Hubiésemos tenido que quitar algunos cudas(tmu, etc). Por lo tanto no hubiesemos tenido ese aumento del 50% mencionado antes en el rendimiento, se habría quedado en un ¿30% mas?. Eso sin subir frecuencias y consumos, que el nuevo proceso de TSMC 4nm permite algo mas de frec que el viejo Samsung 8nm
 
Última edición:
PORTÁTILES

Está claro que los nombres de las tarjetas solo sirven para ir a la tienda y pedir la que te interese, para nada mas. Para los que gusten de seguir usando los nombrecitos, aquí va otro ejemplo:

Real4070 = fake4080 = fake4090portátil

Para confundir un poco mas, en los portátiles han llamado RTX 4090 a lo mismo que en sobremesa llaman RTX 4080 (y que realmente es una 4070 sin Ti según los estandares de años anteriores) pero rebajada en frecuencias por lo que rinde menos. Me refiero a, menos que exactamente la misma tarjeta real de sobremesa, no menos que la que tenga el mismo nombrecito en sobremesa, no confundirse.

Supongo que el 99% sabe que los chips para portátiles son los mismos exactamente que los de sobremesa, que no hacen trabajo extra sin ningún sentido. Aún así lo menciono, por ese 1% que falta.

Cuando venden la RTX 4080 (real4070) como tarjeta para portátiles la llaman RTX 4090 y se quedan tan anchos. Por supuesto, a está no le hacen el overclock demente que han metido en sobremesa a todo Lovelace y que dispara sus consumos hasta cifras bestiales, a esta real4070, fake4080, fake4090portátil la dejan bloqueada a 120W, cuando en sobremesa la suben hasta 320W (una locura para un chip mediano, de 379 mm²). Yo creo que entre las dos cifras hay un margen para la cordura.

(también existe otra versión a 150W, lo cual es muy loco para meterlo dentro de la caja de un portátil. Además 150gpu+30cpu+20monitor-placa-vent-etc si tienes una batería por ej. de 60 W•h ----> 60 W x h / 200 W = 0,3 h = 18 minutos durará, pero eso ya es otro tema)

Es exactamente la misma tarjeta, vendida con 2 nombrecitos diferentes. Bueno, no, exactamente, no. A la fake4090portatil le ponen ram de la barata, GDDR6, en vez de la GDDR6X que lleva la de sobremesa fake4080, por lo que la versión portátil tiene la memoria mas lenta, no solo el gpu a menos frecuencia. A la portátil le podrán poner “turbo” hasta 4 GHz, da lo mismo, se va a quedar frenada por los 120W y/o por la temperatura dentro de un portátil. Teoricamente quedan así:

fake4080 (320W) -----------> frec gpu max = 2505 MHz ---- memoria= 716 GB/s
fake4090portatil (150W) --> frec gpu max = 2040 MHz ---- memoria= 576 GB/s
fake4090portatil (120W) --> frec gpu max = 1695 MHz ---- memoria= 576 GB/s


Y lo mismo para las demás Lovelaces de portátil mas bajas.
Este tipo de bromas son normales, por eso, guiarse por los nombrecitos es estar pidiendo a gritos ser engañado. ¿Por qué no han hecho esto en sobremesa? Pues, por vergüenza, porque iban a rendir mucho peor que los nombrecitos similares de las anteriores Amperes, pero intentarlo, ya lo intentaron. A la 4070ti la habían llamado antes 4080 y en realidad es una 4060Ti. Y hacia abajo, han seguido igual. ¡¡Cuidado, que no os tomen el pelo!! La broma para los portátiles queda así:

W7oIqT5.png


Seguro que aparece alguien quejándose de que la RTX 4090 solo tiene 256bits y que eso es muy poco para una 4090. Que el resto está muy bien, tiene mucha potencia, pero que una 4090 debería llevar 384bits de bus. ;facepalm;
- ¡Que te han dado el cambiazo con el nombre, que te están tomando el pelo!, ¡Olvídate del bus, que eso está "bien", es el que le corresponde para su nivel! Otro, - “Es que una RTX 4070 con solo 128bits…” --> ;facepalm;
7OKpMBw.png

Cuanto daño ha hecho esta publicidad ridícula que deja en el subconsciente que las 4060Ti son muy fuertes, a pesar de que blablabla,
pero muy fuertes, . . . lo cual es falso. El problema no es que tenga las patas flacas, es que toda entera es una birria de gama baja.​

Si os fijáis, en las de abajo ya coinciden portátil y sobremesa, porque la broma ya era suficiente y no han querido mejorarla. Los chips que ha metido en sobremesa para esos nombrecitos ya son lo suficientemente lamentables, como para encima meter otros aun mas cutres en portátil con el mismo nombrecito. También, porque llegados a cierto punto, con cifras de un 13% - 16,6% de la grande, recortar mas empieza a ser complicado. Da hasta pena. Son cifras equivalentes a la GTX 1630.

Lo mas divertido de estas subgamas bajas del averno que coinciden en nombrecito con portátil es que, a las de sobremesa, además de haberles recortado parte de la tan cacareada cache2 y dejarla en solo 24MB, (la 4060 portátil tiene sus 32MB de cache2 que le corresponden por tener 128bits), encima llegan con medio año de retraso, (si, hace medio año que se venden en portátiles) porque necesitaban tiempo para ir acumulando chips defectuosos (y deshabilitar parte de la cache) para sacar la 4060 de sobremesa (1/6 exácto de los 18.432 cudas de Lovelace).
La fake4060Ti tampoco tiene el chip completo, lleva cudas inhabilitados, supongo que pensaban que con eso ya le bastaba a la gente, el completo con 4608cudas (1/4 exácto de los 18.432 cudas de Lovelace) se lo ponen a los portatiles.
 
Última edición:
Lo que no me termina de quedar claro es lo siguiente:

Que problema tienes con Nvidia @Aparecido?

Si no te gusta su producto, pues no lo compres.
Si no te gusta su manera de proceder, pues no les compres.
Si no te gusta el precio al que se están vendiendo, pues no las compres.

Tan indignado estás con ellos que vienes a crear este hilo aquí?
Y tienes que postear estos Post tan tochos y largos para esto?

Que has trabajado para ellos y te han despedido de mala manera?
Que te prometieron una RTX 4090 y al final no te la han dado?

No sé, no entiendo lo de venir a dar mala publicidad a sus RTX 4000?
Como tampoco entendería venir por aquí a publicitarlas como "lo mejor de lo mejor", ojo.
Y tanto para las Nvidia como para las AMD, que conste.

La gente tiene que elegir lo que quiera (o pueda) comprarse con su dinero.

Y comentas en todo momento lo de "RTX Fake" para las RTX 4060 y RTX 4060 Ti.
A ver, permiten DLSS 3, consumen bastante menos y son algo mejores que sus homónimas de la serie 3000.

Saludos.
 
Lo que no me termina de quedar claro es lo siguiente:

Que problema tienes con Nvidia @Aparecido?

Si no te gusta su producto, pues no lo compres.
Si no te gusta su manera de proceder, pues no les compres.
Si no te gusta el precio al que se están vendiendo, pues no las compres.

Tan indignado estás con ellos que vienes a crear este hilo aquí?
Y tienes que postear estos Post tan tochos y largos para esto?

Que has trabajado para ellos y te han despedido de mala manera?
Que te prometieron una RTX 4090 y al final no te la han dado?

No sé, no entiendo lo de venir a dar mala publicidad a sus RTX 4000?
Como tampoco entendería venir por aquí a publicitarlas como "lo mejor de lo mejor", ojo.
Y tanto para las Nvidia como para las AMD, que conste.

La gente tiene que elegir lo que quiera (o pueda) comprarse con su dinero.

Y comentas en todo momento lo de "RTX Fake" para las RTX 4060 y RTX 4060 Ti.
A ver, permiten DLSS 3, consumen bastante menos y son algo mejores que sus homónimas de la serie 3000.

Saludos.

Sinceramente tampoco entiendo muy bien este hilo, que Nvidia intenta engañar con sus productos ???, y AMD hace lo mismo con sus VGAs y sus CPUs, e Intel hace lo mismo con sus VGAs y CPUs. Este post tufa a Flauros por todos los costados.

Un saludo.
 
Creo que lo que @Aparecido intenta mostrar es la disparidad precio-chip que se está produciendo en el mercado de gráficas: una falta de correlación entre los precios y el hardware real ofertado que se mitiga con un nombre comercial más pretencioso del debido. Vamos, la sensación bastante extendida de que las gráficas están infladas de precio pero respaldado con números.

Y seamos sinceros, quien marca el precio del mercado es Nvidia. AMD está tan habituada a comer las sobras de cada tendencia que va camino de renunciar a algo mejor.
 
Creo que lo que @Aparecido intenta mostrar es la disparidad precio-chip que se está produciendo en el mercado de gráficas: una falta de correlación entre los precios y el hardware real ofertado que se mitiga con un nombre comercial más pretencioso del debido. Vamos, la sensación bastante extendida de que las gráficas están infladas de precio pero respaldado con números.

Y seamos sinceros, quien marca el precio del mercado es Nvidia. AMD está tan habituada a comer las sobras de cada tendencia que va camino de renunciar a algo mejor.

No si estoy completamente deacuerdo en su planteamiento, es una realidad y no hay mas. Pero como bien ha dicho @Josep83 , si quieres compras, y si no que les den habas. Creo que estar con el run run no va a hacer cambiar las cosas. Si AMD daria un hostion en la mesa, y sacaria gama que de tu a tu cubra todas las gamas de Nvidia a un precio razonable, Nvidia no vendia una VGA mas.

La gente no es gili, o eso quiero creer. Yo compro lo mas potente, lo haga Nvidia, AMD o Nocilla, el problema es que ya ni me acuerdo cuando AMD saco una VGA para mandar. Y ojo !!!!!, que en la anterior generacion he tenido 2 6900XT.

Un saludo.
 
Lo que no me termina de quedar claro es lo siguiente:

Que problema tienes con Nvidia @Aparecido?

Si no te gusta su producto, pues no lo compres.
Si no te gusta su manera de proceder, pues no les compres.
Si no te gusta el precio al que se están vendiendo, pues no las compres.

Tan indignado estás con ellos que vienes a crear este hilo aquí?
Y tienes que postear estos Post tan tochos y largos para esto?

Que has trabajado para ellos y te han despedido de mala manera?
Que te prometieron una RTX 4090 y al final no te la han dado?

No sé, no entiendo lo de venir a dar mala publicidad a sus RTX 4000?
Como tampoco entendería venir por aquí a publicitarlas como "lo mejor de lo mejor", ojo.
Y tanto para las Nvidia como para las AMD, que conste.

La gente tiene que elegir lo que quiera (o pueda) comprarse con su dinero.

Y comentas en todo momento lo de "RTX Fake" para las RTX 4060 y RTX 4060 Ti.
A ver, permiten DLSS 3, consumen bastante menos y son algo mejores que sus homónimas de la serie 3000.

Saludos.
Te doy la razón, pero también apoyo al usuario porque en cierta medida da a conocer lo que es realmente Nvidia, y últimamente esta no se porta nada bien, precios desorbitados, calidad reducida, GPU quemadas por su culpa, etc ....
Esta claro que cada uno comprará lo que necesite y quiera claro, pero si la gente sabe mas, será más reacea y las empresas se pondrán mas las pilas para mejorar. Un saludo
 
No si estoy completamente deacuerdo en su planteamiento, es una realidad y no hay mas. Pero como bien ha dicho @Josep83 , si quieres compras, y si no que les den habas. Creo que estar con el run run no va a hacer cambiar las cosas. Si AMD daria un hostion en la mesa, y sacaria gama que de tu a tu cubra todas las gamas de Nvidia a un precio razonable, Nvidia no vendia una VGA mas.

La gente no es gili, o eso quiero creer. Yo compro lo mas potente, lo haga Nvidia, AMD o Nocilla, el problema es que ya ni me acuerdo cuando AMD saco una VGA para mandar. Y ojo !!!!!, que en la anterior generacion he tenido 2 6900XT.

Un saludo.
Hay mucha gente gili y mas de lo que imaginas jajajajaja y se llaman fanboys XD
 
Te doy la razón, pero también apoyo al usuario porque en cierta medida da a conocer lo que es realmente Nvidia, y últimamente esta no se porta nada bien, precios desorbitados, calidad reducida, GPU quemadas por su culpa, etc ....
Esta claro que cada uno comprará lo que necesite y quiera claro, pero si la gente sabe mas, será más reacea y las empresas se pondrán mas las pilas para mejorar. Un saludo

Tambien te doy la razon Compi, pero en los foros, sobre todo nosotros anda que no sabemos de que pie cojea cada marca.

Un saludo.
 
Tambien te doy la razon Compi, pero en los foros, sobre todo nosotros anda que no sabemos de que pie cojea cada marca.

Un saludo.
Si claro tu eres seguramente un profesional o esto te apasione mucho, y estas al tanto de todo. Yo sabia algo al respecto, pero no tan detalladamente y bueno viene bien saberlo jajajaja.
Un saludo
 
A mí me parece estupenda toda la información que está dando, en comparativas puedes ver que una 4000 tira poco más que su equivalente en 3000, pero no sabes por qué, normalmente era bastante más.

Seguiremos comprando lo que se necesite, pero mejor saber que entras por el aro voluntariamente, por DLSS3 y consumo, que no por fuerza bruta y estar confundido con las nomenclaturas.
 
A mí me parece estupenda toda la información que está dando, en comparativas puedes ver que una 4000 tira poco más que su equivalente en 3000, pero no sabes por qué, normalmente era bastante más.

Seguiremos comprando lo que se necesite, pero mejor saber que entras por el aro voluntariamente, por DLSS3 y consumo, que no por fuerza bruta y estar confundido con las nomenclaturas.

Esta clarisimo, que en esta Gen 4xxx, la unica que merece la pena, por mas que nos vendan la "burra" es la 4090 por el salto de rendimiento que da. El resto no es que no de mucho o poco rendimiento, si no que entras en precios en la que la 7900XTX no tiene competencia.

Un saludo.
 
Última edición:
Esta clarisimo, que en esta Gen 4xxx, la unica que merece la pena, por mas que nos vendan la "burra" es la 4090 por el salto de rendimiento que da. El resto no es que no de mucho o poco rendimiento, si no que entras en precios en la que la 7900XTX no tiene competencia.

Un saludo.

Y en gamas medias cuidado, una 4060Ti en fuerza bruta no tose a una 6700XT y son 100 pavos más. Para mí lo que demuestra toda esta información es que se están columpiando un huevo con esta generación, bastante por encima de lo que estamos acostumbrados.
 
Creo que lo que @Aparecido intenta mostrar es la disparidad precio-chip que se está produciendo en el mercado de gráficas: una falta de correlación entre los precios y el hardware real ofertado que se mitiga con un nombre comercial más pretencioso del debido. Vamos, la sensación bastante extendida de que las gráficas están infladas de precio pero respaldado con números.
Vaya!
Lo que todos ya sabemos y llevamos tiempo quejándonos?
Joder, que novedad.
 
No si estoy completamente deacuerdo en su planteamiento, es una realidad y no hay mas. Pero como bien ha dicho @Josep83 , si quieres compras, y si no que les den habas. Creo que estar con el run run no va a hacer cambiar las cosas. Si AMD daria un hostion en la mesa, y sacaria gama que de tu a tu cubra todas las gamas de Nvidia a un precio razonable, Nvidia no vendia una VGA mas.

La gente no es gili, o eso quiero creer. Yo compro lo mas potente, lo haga Nvidia, AMD o Nocilla, el problema es que ya ni me acuerdo cuando AMD saco una VGA para mandar. Y ojo !!!!!, que en la anterior generacion he tenido 2 6900XT.

Sí y no, el planteamiento es bastante conocido entre los que nos gusta el cacharreo pero el público generalista suele quedarse en dos reviews en YT y si acaso buscan opiniones en el buscador todopoderoso. Ahora con una búsqueda pueden tener los números planteados, pero de no ser así, tendrían solamente el streamer de turno usando tal o cual modelo (cuña publicitaria incluida, faltaría más), mucho vendemoto en redes faltando a la verdad (y hablo de canales de seguimiento masivo donde te sueltan un "el rasterizado está obsoleto", con sus dos gónadas morenas) y un nombre de "chip a-de-cientoypico" que puede llevar a engaño ("si tiene un código X será proporcionalmente lo mismo que el anterior, ¿no?" Pues no...). Ahora los números están meridianamente explicados, y sin eso es complicado entender cómo se puede criticar una serie de productos que no son técnicamente malos a secas, dejando un debate que considero bastante lógico en una especie de pelea de bar que no lleva a nada.

A partir de ahí, desde luego que cada cual se apañe y apechugue con sus decisiones (empresas incluidas).

@Josep83 tu kung fu audiovisual es poderoso
 
Arriba