Le pongo cuando salió la arquitectura para que se haga una idea si se pilla una arquitectura actual como es RDNA 3.
Es decir, si pilla una 7000, pues teniendo en cuenta los años que lleva GCN 4 teniendo soporte, pues mínimo hasta 2030 tiene soporte continuo de drivers RDNA3. ¿Para que voy a poner una fecha de arquitectura futura, si no se cuando van a dejar de venderse los productos RDNA 1, 2 y 3? Podría ser que en 2028 aún hubiese productos a la venta basados en RDNA3 como tu mismo has comentado que ha pasado con GCN4 y GCN5.
Aún así comenta que es para Linux, cosa que aún le viene mejor si opta por AMD, ya que la comunidad mantiene los drivers al día, comparándolos con los drivers que ofrece AMD para Windows., incluso para generaciones anteriores a GCN 4.
Si, muy actual, Navi salio a la venta hace 4 años (y eso también influye para que dejen de tener soporte las actuales y las próximas) y el año que viene sale Navi4. Por lo menos van a tener soporte hasta el 2050, o 2100.
Por ejemplo, la APU A10-6790K (y otros) salió a la venta en Nov 2013 (en algunos sitios hablan de Dic), como superestreno, para quien la comprase el primerito día:
https://www.cpu-world.com/CPUs/Bulldozer/AMD-A10-Series A10-6790K.html
y para mitad del 2015 se acabaron los drivers. Además esos últimos drivers siempre son practicamente testimoniales, para no admitir que no tienen soporte ya:
https://www.amd.com/en/support/apu/...es-apu-for-desktops/a10-6790k-radeon-hd-8670d
Otro ejemplo, la Radeon R5 230 salió a la venta en Abril del 2014, para quien la comprase el primerito día:
AMD Radeon R5 230 Specs
y para mitad del 2015 se acabo el soporte:
https://www.amd.com/en/support/grap...es/amd-radeon-r5-200-series/amd-radeon-r5-230
para algún sistema operativo como Win8, se acabo el soporte para Abril del 2014. El mismo día que salió.
Eso para los que compren de estreno, recien salido al mercado. Para los que compren algo que ya tiene meses, años pues...
Lo dicho, hay que mirar de donde vienen y adonde van, no solo decir "Si sale ahora, entonces tienes drivers hasta el año 2250". Eso no funciona así
Es cierto, se me olvidó éso, la comunidad puede hacer drivers de código abierto 100% compatibles, entonces podría tener una vida más larga ya que voy a estar en Linux. Quiero decir, si AMD deja de sacar drivers.
Entonces creo que iré a por AMD entonces ya que no me interesa el Raytracing ni nada porque lo desactivaría para tener más fps en CSGO y juegos competitivos.
"Lo mejor es que no compres ninguna", pues por qué crees que pienso seguir con mi 1050 ti hasta que salga ardiendo? x'DDD He podido jugar a todos los juegos con todo al minimo, así que palante! xP
No se porque pensaba que tenías prisa, que querías cambiar ya
¿Crees que el precio volverá a bajar alguna vez? Porque si la comida sube y no ha vuelto a bajar, me imagino que las gráficas harán lo mismo.
Eso es videncia. Bajar bajarán seguro. La pregunta es cuando, y cuanto. Pero viendo el record de bajisimas ventas trimestre trás trimestre que están teniendo Intel, AMD, Nvidia, Samsung, fabricantes de DDR, de flash,... y las fundiciones, pues espero que sea mas pronto que tarde, o que se vayan todos a la ruina.
¿Y qué me dices de Intel, tampoco venderá a precio razonable verdad? No he oído mucho de sus gráficas y no sé si son de código libre com AMD.
No me gusta ser conejillo de indias. Si las regalarían... tal vez
¿Qué significa el "SP" que comentas, compañero?
Stream Processors. Es la abreviatura de toda la vida. Los núcleos del las tarjetas gráficas, que llevan una ALU para hacer operaciones con numeros enteros, suma, multiplicación.. y operaciones lógicas AND, OR, Inversor.. y ademas llevan una FPU para hacer operaciones con numeros reales.
Lo que ahora Nvidia llama cuda, desde que le puso es nombrecito molon para poder patentarlo, pero que siguen siendo igualmente SP.
AMD no se ha molestado en inventarse un nombre molón y les siguue llamando SP.
No siempre son igual ni constan de las mismas cosas. Por ejemplo Turing podía hacer con cada cuda una operación con nº enteros y al mismo tiempo una con nº reales. Es decir, 2 operaciones en 1 cuda.
Ahora Ampere (Lovelace) puede hacer al mismo tiempo una operación con nº reales y otra con (nº reales ó nº enteros, a alegir), es decir, 2 operaciones en 2 cudas. Por eso escucharás a gente decir que los cudas de Ampere (Lovelace) son peores, rinden menos que los anteriores de Turing.
Turing tenia 4608 cudas y Ampere 10752, pero son distintos no puedes comparar unos con otros. Ampere (Lovelace) lleva unos cudas que pueden hacer una operacion de enteros o de reales (nunca las dos al mismo tiempo) y luego otros que solo sirven para numeros reales.
Resumiendo, que llamarlos SP, cuda, o como quieras en realidad no significa nada, porque de una arquitectura a otra cambian, no son la misma cosa.
Sobre los youtubers, si bueno, yo no me fio de nada de youtube, pregunto aquí en reddit, obvio les pagan o les regalan la gráfica o vete a saber, no creo que lo hagan gratis.
Muchos van por las visitas, les paga youtube, pero otros sacan pasta hasta de debajo de las piedras.
Por cierto, las gráficas que me han pasado los compañeros aquí ¿por qué las AMD tienen el doble de ram que las nvidia, son menos potentes esa ram o algo?
Cada empresa juega sus bazas. Nvidia siempre dice que pone poca ram para que no les sirva a los profesionales y tengan que pasar por caja a pagar las Quadro.
En realidad también sirve para la obsolescencia programada, para que caduquen antes.
La cantidad nada tiene que ver con la velocidad. ,,, bueno, salvo que las memorias esten puestas en paralelo con un bus de mas bits
Gracias por el tocho compañero, así me he enterado mejor de todo (que es lo que buscaba xP).
Yo igual con mi 1050 ti compañero, me dió hasta para jugar ciberpnuk 2077 en 720p, y por ahora pudo jguar a todo, quizás en el futuro tenga que bajar a 600x800, no me importa.
Cuando se queme o algo, pues nada ahí ya no me quedará de otra. Pero vamos, 0 ganas de montarme un pc por piezas ahí estorbando todo lleno cables y montarlo pfff, desde que subieron las gráficas se me quitaron las ganas ya de montar nada.
Gracias compañero. Pues no sé cuanto quiero gastarme, querí saber las equivalencias entre nvidia y amd en potencia, ya me voy enterando más.
Ahora mismo tengo 0 ganas de comprar nada por los precios, seguramente empeorarán más ya que he visto por ahi que de 800€ pasan a 1400€ la misma gráfica en cada generación, así que la próxima vete a saber cuánto cuesta.
Ésa que mencionas creo que sería la más "acertada" para mi, pero pfff 400€, ya éso de 200€ como decadas atrás, nah de nah... u.u
Gracias compi es lo buscaba! Voy a ver si encuentro la serie 4000 y las nuevas de AMD que le hacen la competencia a las 4000.
Que va, la quiero para renderizar en Blender Linux, no creo que porque no traiga Raytracing renderize peor una AMD en Blender (¿no?). Lo digo porque Blender renderiza con trazado de rayos, pero supogn oqeu son 2 cosas distintas, no sé.
Las AMD si tienen RT, aunque es mas lento que las Nvidia de similares caracteristicas. No se casi nada de Blender, solo que existe, que se utiliziza para benchs y poco mas, pero creo que es facil que todo esto que están añadiendo por todas partes de Inteligencia Artificial (como en las CPUs de Intel) va a ayudar en ese tipo de cálculos.
Y para jugar en Linux, ahora que protón de Steam permite jugar el 90% de juegos de Windows en Linux, lo he probado y me van casi todos, si tuviera los drivers de AMD pues ya me irian todos y sin crashes.
El Raytracing no me gusta nada, igual no lo entiendo pero, veo diferencias con ray tracing encendido y apagado en youtube, y solo se ve el reflejo del agua y no noto nada más, para lo que da y lo que te baja los pfs, no me merece la pena, sobretodo si juego csgo, overwatch 2, tf2, etc, juegos online.
El problema es que el RT vuelve vagos a los programadores. No es que los próximos juegos vayan a tener un RT que te haga alucinar, es que pasarán de currase las técnicas de iluminación y sombras actuales y se verán mucho peor que ahora. A no ser que actives el RT. Eso es lo que parece que viene.
Y el DLSS n orecuerdo que hacía, creo que renderizaba imagenes a un mayor numero de pixeles o algo así, tampoco me interesa, quiero jugar a 1080p, no creo que haya mucha diferencia de un 4k a 1080p, quiero decir, no creo que el CSGO cambie mucho ¿no? Voy a poder apuntar igual de bien, y creo que se ve igual los enemigos y demás, no veo bien la resolución alta para mi actualmente.
DLSS es un filtro de mierda. Te dicen que juegues a una resolución baja y que el filtro ese ya afilará un poco los bordes para que no parezca tan baja. Como si utilizases un filtrado bicúbico ó Lanczos + afilado de bordes. Es el lonchafinismo de los gamers. Creo que incluso meten algo de filtro temporal. Por supuesto emborrona y no es lo mismo que jugar a resolución mayor, pero si la tarjeta no da mas de si, pues cualquier apaño cutre bienvenido sea.
El DLSS3 es el fake-frames. El fotograma creado lo guarda en la cache en vez de mostrartelo y cuando crea el siguiente fotograma en vez de mostrartelo, mira los dos y crea un falso fotograma por interpolación (produciendo así mas latencia) y te saca el falso, y luego mas tarde el verdadero. Si los cambios son pequeños, las intepolaciones son decentillas. Si los cambios son grandes, las interpolaciones están llenas de defectos. Si tienes unas tarjeta que escupe pocos fps, cada fotograma se separa del siguiente muchos milisegundos, y las interpolaciones son malas. Especialmente si es un juego con muchos cambios.
El fake-frame es como esos programas para convertir un video de 30fps en 60fps, pero en tiempo real, empeorando la latencia del juego
Si quieres mirar un listado de tarjetas por rendimiento, puedes echar un vistazo a este. Pero no lo tomes como algo serio y creíble, simplemente para mirar a bulto, mas o menos:
https://www.techpowerup.com/gpu-specs/geforce-gtx-1050-ti.c2885