• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Entendiendo a Nvidia

Aparecido

De profesión Chapuzas
Registrado
8 Jun 2023
Mensajes
191
Puntos
43
Entendiendo a Nvidia (y a su nueva 4060Ti)

Supongo que mucha gente ya se ha dado cuenta del asunto, aunque puede que algunos simplemente hayan notado algo raro en Lovelace y no entiendan muy bien la causa.

Introducción
Nvidia ha seguido mas o menos el mismo orden durante muchos años, dividiendo sus GPUs en 3 partes: Gama Alta, Media y Baja, es decir, el chip máximo completo (~600 mm²), 2/3 del pastel (66%), y 1/3 del chip máximo completo (33%).

JLb8jfk.png

Normalmente::
Gama Alta (< Completo) = Entre el 100% y el 67% CUDAs (TMU, RTcores, Tensor,...) con todos los ROP y Bus de Memoria = 384 bit
Gama Media (< 2/3) = Entre el 66% - 33% CUDAs (TMU, RTcores, Tensor,...) con 2/3 ROP y Bus de Memoria = 256 bit
Gama Baja (< 1/3)= Del 32% - 0% CUDAs (TMU, RTcores, Tensor,...) con 1/3 ROP y Bus de Memoria = 128 bit
7gGRdKJ.png


Con las siguientes dos tablas queda todo muy bien explicado. Os recomiendo mirarlas con detenimiento, descargarlas y pasar con cualquier visor hacia delante y atrás como si fuese un gif animado.
lIC8mMZ.png

En los últimos años no ha habido cambios, excepto la x80 en Ampere, que aumentó de nivel hasta el 80%. (y Tesla2, que tenía 512b de bus)


Clase x50, falso nombre x60, y precio de x70.

En esta nueva arquitectura, Lovelace, los ingenieros han hecho lo mismo de siempre (un buen trabajo), pero algún genio del marketing pensó, (viendo la lamentable situación de AMD, y de los consumidores), reducir un par de escalones los nombrecitos tontos de toda la familia Lovelace, poniendo “falsos” nombres para venderlas al doble de precio de lo habitual. Esto no solo lo han hecho para la 4060Ti, sino para todas la Lovelace.


La arquitectura Lovelace viene con el doble de cudas(tmu,rt,tensor,etc) que Ampere (18432 vs 10752) gracias a haber sido fabricadas en 4nm en vez de los 8nm de Ampere, además de mayores frecuencias. Un gran avance que ha sido arruinado por completo dandole a la gente menos parte del pastel que nunca. Todo pa mi, ha pensado Nvidia mientras se zampaba también tu parte.

La Lovelace 4060Ti debería tener el doble de cudas(tmu,rt,tensor,etc) que la anterior Ampere 3060Ti. Pero no solo no tiene el doble, sino que ni siquiera llega a tener los mismos cudas. ¡Tiene menos! El motivo es muy sencillo, Nvidia está intentando venderte la x50 (24% de max Lovelace) renombrada como x60Ti (que debería ser un 42% de max Lovelace, como es lo habitual).

Nvidia pone normalmente el nombre de x60 Ti (42%-45% del max chip completo) a una versión ligeramente recortada de la x70 (1/2 del chip completo), mientras que el nuevo genio del marketing le ha puesto ese nombre a 1/4 de Lovelace completo (un triste 23,6%), el cual debería haberse llamado 4050, como siempre.

UV4pg34.png


El problema es que mucha gente realmente se toma en serio esos nombres absurdos que eligen los responsables del marketing, para confundir tu mente. Piensan que si se llama X es porque tiene las mismas características que los antiguos modelos de nombres similares.
Ese es su error, tomar por buenos nombres que no significan nada, en vez de denominar las GPUs como deberían, es decir: - Hola, estaba buscando un cuarto de Lovelace. - Buenas, me pone un tercio de Lovelace, - medio Lovelace, ó, - el Lovelace completo, con toda su potencia.
Fácil y sencillo.

Las x50 normalmente suelen tener un rendimiento similar a las x60 de la arquitectura anterior y esta pequeña Lovelace 4050 (la falsa 4060Ti) con el gran “overclock” que trae de fábrica consigue incluso superar a la anterior x60Ti (no siempre). Si,, Lovelace es un gran avance, ya lo he dicho antes, y esta tarjeta rinde muy bien para ser una x50, incluso con el PCIe 8X que lleva, el cual puede ser algo aceptable en estas tarjetas de gama baja.

Los nombrecitos siempre serán un constructo que no significa nada, y encima elegidos por el fabricante. x60Ti, GA102, … ¡No significan nada! Mañana te dan el cambiazo y ni te enteras.
El Area en mm² y los Porcentajes siempre dicen la verdad, esos no te engañarán nunca.




El ancho de banda de Memoria no es un problema para esta 4060ti, los 128 bits están bien para esta tarjeta, es lo que le corresponde a una gpu del 24%, lo habitual, de toda la vida, el problema es que un 24% de Lovelace no puede dar nada mas.
Le han cambiado el nombre de 4050 por el de 4060Ti como haría un mago, como AMD hizo hace años con la HD 7790 --> R7 260X, poniéndole una pegatina encima con el nuevo nombre, XD.

Ha corrido por Internet el cuento de que las nuevas Lovelace tienen poco Ancho de Banda (velocidad) de la Memoria porque tienen menos bits conexión con la ram que las anteriores. E incluso ya han salido “defensores” a decir que si; que tienen menos porque así ya van bien, porque Lovelace no NECESITA tanto como las arquitecturas previas.
Evidentemente todo esto es falso. TODO.

Es falso que tengan un bus de pocos bits de conexión con la memoria. En las tablas (a la derecha) se puede ver que llevan exactamente los mismos bits de siempre, desde hace 15 años para ese tamaño de GPU. Tienen el bus que les corresponde.

Es falso que las Lovelace tengan poco Ancho de Banda de la Memoria. La velocidad de la memoria es igual o mayor que en las arquitecturas anteriores porque Lovelace TIENE un bus de los mismos bits y lleva ram de igual o mayor frecuencia.

¿Entonces por que hay gente quejandose que dice esas cosas? Pues, nuevamente, porque están comparando GPUs equivocadas debido a los errores con los nombrecitos. No se enteran de la fiesta.

¿Entonces por que hay “defensores” que aceptan que tienen menos, (lo cual es falso), y tratan de disculparlo?
Porque no quieren que los consumidores se enteren del cambiazo de nombres. Prefieren que sigan en su error y por eso buscan explicaciones falsas a un problema imaginario. Así, aceptan la mentira de que Lovelace tiene menos Ancho de Banda de la Memoria, y lo intentan disculpar, excusar, diciendo que es porque a Lovelace le basta con menos para funcionar bien (lo cual también es falso) gracias al incremento de la caché. Cualquier cosa con tal de no decirle a la gente que están comparando con una GPU equivocada, de tamaño (mm²) y porcentaje (%) equivocados, por culpa del cambiazo de nombres. A ninguna Lovelace le basta con menos bus o ancho de banda que a arquitecturas anteriores:

Lovelace completo TIENE y NECESITA (el mismo o) mayor ancho de banda que las anteriores arquitecturas
1/2 de Lovelace TIENE y NECESITA (el mismo o) mayor ancho de banda que las anteriores arquitecturas
1/3 de Lovelace TIENE y NECESITA (el mismo o) mayor ancho de banda que las anteriores arquitecturas
1/4 de Lovelace TIENE y NECESITA (el mismo o) mayor ancho de banda que las anteriores arquitecturas

El incremento de la caché2 es absolutamente irrelevante para la comparación, porque es una característica de toda la familia Lovelace por lo que no aporta nada al comparar dentro de la misma arquitectura, al comparar con el chip max completo. (Info sobre la caché, en el enlace de debajo)



Precio:
GTX 970 (54% del Maxwell completo) costaba $330,
GTX 1070 (50% del Pascal completo) costaba $379,
La carísima minera RTX 2070 (50% del Turing completo) costaba $499 y la RTX 2070 Super (55% del Turing completo) costaba $499 y eso que tenía un gigantesco chip de 545mm², no como esta falsa4060Ti de 190mm².
Incluso la carísima minera RTX 3070 (55% del Ampere completo) costaba $499.

Puedo oír desde aquí las risas de Nvidia intentando vender esta gama baja “un cuarto de chip” (1/4 de Lovelace completo), un 23,61% de Lovelace, al mismo precio que las x70 de generaciones previas. Nvidia no sabe que la plandemia y el tiempo de la minería han terminado. Necesita que alguien se lo diga. Todas las Lovelace tienen un precio horrible, desde la 1/6 de Lovelace, 1/5, 1/4, 1/3, 1/2, hasta Lovelace completo. No engañan a nadie.

Nvidia bajará los precios pronto (en mi opinión). Está 4050real (falsa4060Ti) la pondrá a $300. Así la gente será feliz. Pagando el doble de pasta que en anteriores generaciones por una x50, por una tarjeta de $150. Es una gran estrategia de mercado, cobrar $300 por algo de $150 y encima ser aplaudido.
Y solo han necesitado cambiar los nombrecitos de las GPUs.



Consumo:

Siempre hay comentarios irónicos diciendo que las Lovelace consumen poco y son muy eficientes. La realidad es que en cuanto a consumo, Lovelace es la peor generación de la historia de Nvidia, pero con diferencia, y esto no es discutible. Con Lovelace, Nvidia ha disparado los consumos hasta cifras nunca jamás vistas antes. Todas las GPUs de la familia Lovelace han aumentado su consumo un 50% o mas, respecto a las anteriores:

5uCALDD.png


Se puede ver como la grande (recortada), la 4090, consume 450W (que fácilmente pueden llegar a 600W) cuando en realidad podrían haber sido 300W, como siempre, con un poco menos de “overclock” de fábrica, que por cierto es lo que consume la RTX 6000, la hermana mayor de la 4090. Algo que se puede ver también en las Lovelace para portátiles (enlace debajo). Estos consumos altisimos también los puedes ver en las GPUs pequeñas, como la falsa4060Ti, un chip de x50, típico de 100W que por culpa de meterle bien de caña lo han llevado hasta los 160W (un 60% mas de lo debido):
GTX 1650 Die Size = 200 mm²
GTX 1650 Super . . = 284 mm²
RTX 3050 Die Size = 276 mm²
RTX 4060 Ti Die Size = 188 mm²
Ninguna de estas tarjetas de 200 a 280mm² consume tanto como la 4060Ti (real4050). No,, Lovelace no tiene un tamaño menor que generaciones anteriores, mide mas de 600 mm² como siempre. Si el chip de esta 4060Ti mide menos de 200 mm² es porque… (ya sabeís, XD)

Tristemente, cambiarle de nombre a una tarjeta no va a hacer que consuma menos. Aunque si pueden confundir tu mente. Por eso hay gente que dice que la 4060Ti consume poco.

Dicen: La 4060Ti consume menos que la 3060Ti, menos que la 2060, …
Realidad: La 4060Ti consume menos que esas porque es una 4050 con un nuevo nombre falso, con un chip mucho menor que el que debería (menos cudas, menos rendimiento). Comparada con la que le corresponde, consume mucho mas.

El altísimo consumo no es problema de la arquitectura Lovelace realmente. Tampoco de TSMC, pues sus fake4nm (5nm 4N) van muy bien y son eficientes. La culpa es de Nvidia, que les ha subido las frecuencias y el consumo hasta freírlas, destruyendo la eficiencia de TSMC hasta dejarla muy poco mejor que en las anteriores Ampere.

Un saludo.

Enlaces:
- La nueva CACHÉ Gigante de Nvidia
- Cifras de Ventas de Tarjetas Gráficas discretas
- GPUs de portátiles de Nvidia – La broma aún mas exagerada
- Nvidia en el Mercado de Valores --> 1 - 2 - 3 -
- El precio de 8GB de ram GDDR6 para las GPUs

(Actualizado con las "Super" de Enero2024)​
 
Última edición:
y así seguirán las cosas hasta que a amd y a intel les dé por intentar plantear una alternativa real
 
No veo el problema, y tampoco tengo porqué ver una 4050 ti en lugar de una 4060 ti.
 
Nvidia siendo nvidia, se le olvida quien los levanto y si se dieron cuenta que la mineria se acabo, pero no quieren bajarse del burro y quieren seguir teniendo las mismas ganancias y ofrecerte algo peor. Esta abusando de la confianza y tarde o temprano eso se paga. Ojala intel o amd peguen fuerte y se jodan por codiciosos.
 
Nvidia siendo nvidia, se le olvida quien los levanto y si se dieron cuenta que la mineria se acabo, pero no quieren bajarse del burro y quieren seguir teniendo las mismas ganancias y ofrecerte algo peor. Esta abusando de la confianza y tarde o temprano eso se paga. Ojala intel o amd peguen fuerte y se jodan por codiciosos.
Por codiciosos están como están Intel y AMD.
Que las GPUs de Intel no valen una mierda, pero bien te clavan de 300 a 400€ por ellas.
O las de AMD que sí son buenas, pero pocos programas las soportan para ciertos menesteres más allá de los juegos.

Dicho sea de paso, Nvidia es una empresa puntera tecnológicamente hablando. Si no fuera porque invierte en I+D+I cada año, no habría tecnologías como el DLSS, algo que AMD solo copia (en estos 7 años que llevo buscando gráfica no he visto aún a AMD sacar una tecnología puntera nueva, todo son copias). Luego AMD las hace Open Source bajo GPL y que las programe y refine su p.madre.
Claro, así Linus Torvalds estará contento, pero la realidad es que son las empresas privadas las que parten el bacalao, como se suele decir.

Y Nvidia está donde está porque se lo ha ganado a pulso, con precios desorbitados, sí, pero con productos de calidad.
 
Por codiciosos están como están Intel y AMD.
Que las GPUs de Intel no valen una mierda, pero bien te clavan de 300 a 400€ por ellas.
O las de AMD que sí son buenas, pero pocos programas las soportan para ciertos menesteres más allá de los juegos.

Dicho sea de paso, Nvidia es una empresa puntera tecnológicamente hablando. Si no fuera porque invierte en I+D+I cada año, no habría tecnologías como el DLSS, algo que AMD solo copia (en estos 7 años que llevo buscando gráfica no he visto aún a AMD sacar una tecnología puntera nueva, todo son copias). Luego AMD las hace Open Source bajo GPL y que las programe y refine su p.madre.
Claro, así Linus Torvalds estará contento, pero la realidad es que son las empresas privadas las que parten el bacalao, como se suele decir.

Y Nvidia está donde está porque se lo ha ganado a pulso, con precios desorbitados, sí, pero con productos de calidad.
Si ya se que te encanta Nvidia y eres su fan lo se , se que te regala GPUs y por eso los defiendes. Nvidia no se ganó nada, si no es por SEGA y los jugadores no está aquí porque hace unas decadas estuvo apuntito de hundirse. Calidad cuando queman GPUs por drivers, dios que calidad si si, directx 12 lo saco AMD y demas cosas. Que te guste que te cobren casi el doble por lo mismo es tu problema pero no el de los demás. Que tema drivers de AMD ya es del pasado, pero vamos cualquier cosa justificais para qie os quiten el dinero XD
 
Que se intente sacar del mismo saco a Nvidia, AMD, Intel o cualquier marca de hardware me parece hasta comico. TODAS son unas hurracas, TODAS lo unico que quieren es ganar mas que las demas, y una vez han conseguido posicionarse bien, a sacar gamas de risa a precio de oro.

Me parece increible que no se vea que se pueden poner ejemplos con cada una de las marcas y dejarla en evidencia.

Un saludo.
 
Si ya se que te encanta Nvidia y eres su fan lo se , se que te regala GPUs y por eso los defiendes. Nvidia no se ganó nada, si no es por SEGA y los jugadores no está aquí porque hace unas decadas estuvo apuntito de hundirse. Calidad cuando queman GPUs por drivers, dios que calidad si si, directx 12 lo saco AMD y demas cosas. Que te guste que te cobren casi el doble por lo mismo es tu problema pero no el de los demás. Que tema drivers de AMD ya es del pasado, pero vamos cualquier cosa justificais para qie os quiten el dinero XD
No lo digo yo, no soy fanboy de ninguna marca.
Pero al César lo que es del César. El 90% de las GPUs usadas en las estadísticas de Steam son Nvidia, por lo que Nvidia se ha ganado un mercado y lo domina a voluntad. Es lo que tenemos.
Y en empresas, rara vez verás comprar una serie 6000 o 7000 de AMD para edición de vídeo, modelado 3D, etc.. etc..

Si lo quieres bien, sino también.
 
No lo digo yo, no soy fanboy de ninguna marca.
Pero al César lo que es del César. El 90% de las GPUs usadas en las estadísticas de Steam son Nvidia, por lo que Nvidia se ha ganado un mercado y lo domina a voluntad. Es lo que tenemos.
Y en empresas, rara vez verás comprar una serie 6000 o 7000 de AMD para edición de vídeo, modelado 3D, etc.. etc..

Si lo quieres bien, sino también.
Pues la defiendes como si fuera tuya XD, las estadísticas de steam es de las que menos me fío, es algo a tener en cuenta pero no de fiar. Ese 90% es ficticio, te aseguro que es bastante menos y mas ahora. Que cende más eso no te lo quito, que Nvidia se va a marcar un Intel también XD. Intel también era el rey y ahora paga consecuencias, Nvidia ahora esta llendo por el mismo camino. Esta claro que si eres mejor venderas mas caro, pero una cosa es ser caro y otra tomar por tontos a los consumidores. Bueno mas bien nos toman por tontos las tres marcas pero...
En fin,menos mal que yo no tengo la necesidad de demostrar quien la tiene mas grande y solo cambio de componentes cuando es necesario, bueno también porque soy ecologista y me gusta reaprovechar XD.
 
Pues la defiendes como si fuera tuya XD, las estadísticas de steam es de las que menos me fío, es algo a tener en cuenta pero no de fiar. Ese 90% es ficticio, te aseguro que es bastante menos y mas ahora. Que cende más eso no te lo quito, que Nvidia se va a marcar un Intel también XD. Intel también era el rey y ahora paga consecuencias, Nvidia ahora esta llendo por el mismo camino. Esta claro que si eres mejor venderas mas caro, pero una cosa es ser caro y otra tomar por tontos a los consumidores. Bueno mas bien nos toman por tontos las tres marcas pero...
En fin,menos mal que yo no tengo la necesidad de demostrar quien la tiene mas grande y solo cambio de componentes cuando es necesario, bueno también porque soy ecologista y me gusta reaprovechar XD.
¿Desde cuando intel ha sido el rey? ¿En las integradas?
Si claro, mi HD 560 mueve un bluray UHD, y un MKV de 40 Gb, cojonudo //Sarcasmo.

Pues si no aceptas las estadísticas de Steam, ya me dirás qué estadísticas aceptas. ¿no serás tu el fanboy?
 
¿Desde cuando intel ha sido el rey? ¿En las integradas?
Si claro, mi HD 560 mueve un bluray UHD, y un MKV de 40 Gb, cojonudo //Sarcasmo.

Pues si no aceptas las estadísticas de Steam, ya me dirás qué estadísticas aceptas. ¿no serás tu el fanboy?
Me refiero a CPU, pero piensas que todo el mundo hace la encuesta? Yo no la hago. Yo si Fanboy tanto que por eso pongo a parir, nvidia, amd e Intel, vaya fanboy soy XD. No defiendo ninguna ya que todas son igual de hdp, porque se que si AMD o intel tienen la oportunidad lo hacen, bueno ya lo hicieron en su momento. Las cosas pueden cambiar, ambas marcas han hecho cosas bien y mal, pero lo de Nvidia es indefendible lo siento.
 
Última edición:
Me refiero a CPU, pero piensas que todo el mundo hace la encuesta? Yo no la hago. Yo si Fanboy tanto que por eso pongo a parir, nvidia, amd e Intel, vaya fanboy soy XD. No defiendo ninguna ya que todas son igual de hdp, porque se que si AMD o intel tienen la oportunidad lo hacen, bueno ya lo hicieron en su momento. Las cosas pueden cambiar, ambas marcas han hecho cosas bien y mal, pero lo de ahtlo de Nvidia es indefendible lo siento.
Si las encuestas no se hacen chato, las encuestas de Steam son una recolección de datos, y punto.
Y tu puede que no la hagas, pero hay mucha otra gente que sí y que sí le interesan los resultados, especialmente luego para publicarlos en webs como la del chapuzasinformatico.com.

Y aquí estamos hablando de gráficas, no de CPUs, pero vamos, que te pones a desviar el tema porque te ha dolido que AMD no venda tanto.

No sé qué es el ahtlo de Nvidia.
 
Si las encuestas no se hacen chato, las encuestas de Steam son una recolección de datos, y punto.
Y tu puede que no la hagas, pero hay mucha otra gente que sí y que sí le interesan los resultados, especialmente luego para publicarlos en webs como la del chapuzasinformatico.com.

Y aquí estamos hablando de gráficas, no de CPUs, pero vamos, que te pones a desviar el tema porque te ha dolido que AMD no venda tanto.

No sé qué es el ahtlo de Nvidia.
A mi que venda o no, me la pela XD, si nvidia se cae, sigo teniendo un plato en mi mesa, que AMD cae, lo mismo y si es intel también. Pero a ti si te duele si me meto con tu Nvidia XD. Si fuera fan de AMD no tendría una gtx1080 tendria la Vega XD.
 
A mi que venda o no, me la pela XD, si nvidia se cae, sigo teniendo un plato en mi mesa, que AMD cae, lo mismo y si es intel también. Pero a ti si te duele si me meto con tu Nvidia XD. Si fuera fan de AMD no tendría una gtx1080 tendria la Vega XD.
Estás diciendo tonterías y para colmo te choteas.
Ya te lo he dicho, no soy fan de ninguna marca ni empresa.
Pero tu erre que erre que sí.
Pues chato, aquí te quedas. Yo paso de ti.
 
Estás diciendo tonterías y para colmo te choteas.
Ya te lo he dicho, no soy fan de ninguna marca ni empresa.
Pero tu erre que erre que sí.
Pues chato, aquí te quedas. Yo paso de ti.
Y tu me lo llamas a mi, siempre que digo algo de Nvidia saltas a defenderla , yo acaso cuando opinas de AMD o intel te digo algo? No. Porque me la pela. Yo no me estoy choteando de nada y ni digo tonterías , digo lo que pienso, porque dices que me duele que AMD gane o no dinero. Ami no me dan de comer, y yo no defiendo ninguna marca, digo sus cagadas y lo que me parece y punto.
 
Y tu me lo llamas a mi, siempre que digo algo de Nvidia saltas a defenderla , yo acaso cuando opinas de AMD o intel te digo algo? No. Porque me la pela. Yo no me estoy choteando de nada y ni digo tonterías , digo lo que pienso, porque dices que me duele que AMD gane o no dinero. Ami no me dan de comer, y yo no defiendo ninguna marca, digo sus cagadas y lo que me parece y punto.
XD
Ahora, resuelve la ecuación...
 
XD
Ahora, resuelve la ecuación...
No resuelvo nada, te lo aclaro XD. Pero si te e ofendido o molestado lo siento, no quiero ofenderte ni nada, en lo personal me pareces un tio genial, digo esto porque no quiero mal rollo jaja
 
No resuelvo nada, te lo aclaro XD. Pero si te e ofendido o molestado lo siento, no quiero ofenderte ni nada, en lo personal me pareces un tio genial, digo esto porque no quiero mal rollo jaja
Bueno, después de leer tu mensaje y meditar mi respuesta, te contesto ahora.

Primeramente te digo NO, no debes disculparte tú. Han sido a mi quién me han subido los humos y te ha contestado mal. Cada cual tenemos una personalidad y una forma de escribir. Sí te puedo decir que los XD me han sacado de mis casillas, pero NO ES tú culpa, pues ya venía caliente de otro tema personal, y lo he pagado contigo.

Por lo tanto, te ruego aceptes mis disculpas por haber subido el tono de la conversación y haberte tratado mal. De verdad lo siento de veras.

Dicho esto, puedo responderte a tus otros comentarios, si lo aceptas.
Sí, es verdad, lo he estado meditando y sí, llevas razón, soy un poco fanboy con Nvidia.
Sin embargo, no me gustan sus precios, como a cualquiera, no estoy a favor de su política de cómo trata al cliente. El mayor problema al que me enfrentaba al montar mi Pc eran los programas de edición de vídeo que iba a usar, lo que me obligaba a tener una gráfica Nvidia.
No hace falta que diga que sí, por un lado me alegraba, pero me ha sentado como una patada en los webs el precio de su gráfica 4080 en mi caso. Y tenía pasta para una 4090 si hubiera querido, pero como no voy a jugar con ella a priori, me decanté por una 4080 finalmente.

Me hubiera comprado una serie 7900 si realmente hubiera tenido soporte de los programas que uso para editar (Corel Pinnacle por ejemplo). Pero no encontraba información del soporte a esta arquitectura de gráficas. Me la hubiera comprado también especialmente por los conectores estándares que usa, no como Nvidia que usa su nuevo conector que jode las gráficas, especialmente las más potentes. Sin embargo no podía elegir tampoco.
Sí, me gusta el DLSS y las demás tecnologías que tiene nvidia en juegos, pero prefiero resolución nativa (en mi caso 4K).

Y también me gusta el programa GeForce Experience, pero solo lo uso en contadas ocasiones, prefiero configurarme yo los juegos y su calidad en la mayoría de los casos, sin embargo, el programa para descargar el último driver de forma segura es para mi lo mejor del programa en concreto.

Luego hablando sobre procesadores, también te puedo decir que SÍ, soy más partidario de Intel que no de AMD actualmente. No diría que soy fanboy de nada, pero sí que te puedo decir que buscaba con el Pc estabilidad en W11 Pro, y veía muchos problemas en este foro con hardware AMD, por lo que creo que AMD debe mejorar mucho (recientemente el problema de las CPUs quemadas).
Por otro lado está el caso de que con la nueva arquitectura ZEN no he visto cores eficientes energéticamente hablando, algo que me decepcionó, y aunque sus 16 cores con sus 32 hilos del 7950X eran un caramelito, me interesaba más una CPU híbrida y más estable.

Eso sí, no fue hasta que AMD compró ATI que dejé de usar gráficas Radeon y posteriores, y no fue hasta que compré el i7 6700 que dejé de usar procesadores AMD, y antes eran más estables las plataformas AMD, eso sí lo recuerdo, lo cual me dice que, desde mi punto de vista, AMD ha dejado el desarrollo de su software para que otros trabajen en ella, antes de sacar un producto más pulido, y eso no lo quiero cuando compro un Pc.

Sí, me gusta "cacharrear" como a todo hijo de vecino, pero en este caso he preferido irme a por lo seguro, por eso compre un i9.

Ahora me retiro a cenar. Te pido perdón otra vez por las maneras y mis comentarios anteriores, y me retiro a cenar.

Perdón por el tocho.
 
Bueno, después de leer tu mensaje y meditar mi respuesta, te contesto ahora.

Primeramente te digo NO, no debes disculparte tú. Han sido a mi quién me han subido los humos y te ha contestado mal. Cada cual tenemos una personalidad y una forma de escribir. Sí te puedo decir que los XD me han sacado de mis casillas, pero NO ES tú culpa, pues ya venía caliente de otro tema personal, y lo he pagado contigo.

Por lo tanto, te ruego aceptes mis disculpas por haber subido el tono de la conversación y haberte tratado mal. De verdad lo siento de veras.

Dicho esto, puedo responderte a tus otros comentarios, si lo aceptas.
Sí, es verdad, lo he estado meditando y sí, llevas razón, soy un poco fanboy con Nvidia.
Sin embargo, no me gustan sus precios, como a cualquiera, no estoy a favor de su política de cómo trata al cliente. El mayor problema al que me enfrentaba al montar mi Pc eran los programas de edición de vídeo que iba a usar, lo que me obligaba a tener una gráfica Nvidia.
No hace falta que diga que sí, por un lado me alegraba, pero me ha sentado como una patada en los webs el precio de su gráfica 4080 en mi caso. Y tenía pasta para una 4090 si hubiera querido, pero como no voy a jugar con ella a priori, me decanté por una 4080 finalmente.

Me hubiera comprado una serie 7900 si realmente hubiera tenido soporte de los programas que uso para editar (Corel Pinnacle por ejemplo). Pero no encontraba información del soporte a esta arquitectura de gráficas. Me la hubiera comprado también especialmente por los conectores estándares que usa, no como Nvidia que usa su nuevo conector que jode las gráficas, especialmente las más potentes. Sin embargo no podía elegir tampoco.
Sí, me gusta el DLSS y las demás tecnologías que tiene nvidia en juegos, pero prefiero resolución nativa (en mi caso 4K).

Y también me gusta el programa GeForce Experience, pero solo lo uso en contadas ocasiones, prefiero configurarme yo los juegos y su calidad en la mayoría de los casos, sin embargo, el programa para descargar el último driver de forma segura es para mi lo mejor del programa en concreto.

Luego hablando sobre procesadores, también te puedo decir que SÍ, soy más partidario de Intel que no de AMD actualmente. No diría que soy fanboy de nada, pero sí que te puedo decir que buscaba con el Pc estabilidad en W11 Pro, y veía muchos problemas en este foro con hardware AMD, por lo que creo que AMD debe mejorar mucho (recientemente el problema de las CPUs quemadas).
Por otro lado está el caso de que con la nueva arquitectura ZEN no he visto cores eficientes energéticamente hablando, algo que me decepcionó, y aunque sus 16 cores con sus 32 hilos del 7950X eran un caramelito, me interesaba más una CPU híbrida y más estable.

Eso sí, no fue hasta que AMD compró ATI que dejé de usar gráficas Radeon y posteriores, y no fue hasta que compré el i7 6700 que dejé de usar procesadores AMD, y antes eran más estables las plataformas AMD, eso sí lo recuerdo, lo cual me dice que, desde mi punto de vista, AMD ha dejado el desarrollo de su software para que otros trabajen en ella, antes de sacar un producto más pulido, y eso no lo quiero cuando compro un Pc.

Sí, me gusta "cacharrear" como a todo hijo de vecino, pero en este caso he preferido irme a por lo seguro, por eso compre un i9.

Ahora me retiro a cenar. Te pido perdón otra vez por las maneras y mis comentarios anteriores, y me retiro a cenar.

Perdón por el tocho.
No te preocupes, no tienes tampoco que disculparte, tenemos nuestros dias, yo quizás me pasé con lo del Fanboy, pero sinceramente estoy quemado con todas las marcas porque nos toman como a tontos y todo lo que dices pues es verdad.
Lo de los "XD" es una fea mania que se me pegó al escribir pero nunca son con mala fé ni para ofender y puedo entenderte, pero cuando los pongo es porque voy de buen rollo. Yo también te pido disculpas que cuando me debaten me pierdo y sigo y sigo jajaja, pero tampoco me has faltado el respeto ni nada, no me e sentido nunca mal. Si te w visto postear y me pareces un tio genial y claro según tus intereses preferirás una cosa u otra. Nada compi que tengas un provecho y no te preocupes y te pido disculpas yo también.

Un saludo máquina.
 
Vamos a ver...las empresas se montan para ganar pasta. Los engendros de Nvidia (y en cierta medida Amd) se han llevado algunos años choteándose de los gamers vendiendo sus gráficas, incluso las de gama baja, a precios totalmente absurdos en gran parte por la crisis de la minería (que a ellos les ha venido de puto lujo para ganar pasta gansa) y ahora que la minería está en sus horas mas bajas y los que querían una gráfica ya la tienen (pagando un sobreprecio absurdo) o simplemente se han hartado y se han comprado una consola, pues lo que tienen ahora es un ajo y agua de manual. Y mas si lo que sacan al mercado son versiones recortadas de gráficas que se presuponen de gama media a precio de gama alta y con cantidades de vram incomprensibles para un pleno 2023 que estamos y/o con buses o anchos de banda recortadísimos y con nomenclaturas extrañas para confundir al usuario no expermientado. Por mi les pueden dar mucho, pero mucho por culo. Entiendo que quieran ganar pasta pero no a costa de tratarnos como gilipollas.
Si, a ver, no te quito la razón. Todas las empresas están para ganar pasta.
Pero una cosa es ganársela y otra pasarse 3 pueblos.
Yo espero que AMD mejore su software para compatibilidad con programas de terceros de edición de vídeo (especialmente eso), compresión y descompresión de vídeo por hardware (que seguro hay algo (pero no en todos los programas) y si lo hacen, pues cambiaré a una Sapphire (que no sé si siguen siendo tan buenas como antaño).

Porque ¿a cuanto anda ahora la 7900 XTX? Creo que son 600€ menos de lo que me costó la 4080
 
Arriba