La IA es el nuevo Multimedia, o el nuevo Puntocom, puro marketing. Es tan nueva, que existe desde hace medio siglo. Nada ha cambiado, salvo el marketing, y el nombre, mucho mas galáctico ahora. Antes era solo Aprendizaje Maquina, y claro, quieras que no, es un nombre mucho mas feo, nada que ver.
Para hacer los cálculos para la IA sirve, y servido siempre cualquier cosa, igual que para los cálculos de la minería de las monedas.
E igual que en la minería, lo mejor no son las GPUs, ni de lejos. Todo esto de AMD no es mas que el mismo marketing para vender, nada mas.
Lo mejor para la IA son las FPGA, o los ASICs, que básicamente son una FPGA bloqueada, fija, que no se puede modificar.
Las FPGA son puertas lógicas AND, OR y negado que tu las vas programando dentro del integrado (algo similar a hacer circuitos eléctricos con interruptores de la luz en serie, paralelo, e inversor). mucho mas comodas que hacer circuitos con las puertas en TTL (7408, 7432,...) y cablecitos. Para quien no sepa nada de los integrados TTL, son esos que llevan placas viejas de juegos (sin CPU ni GPU) y que aún no funcionan en MAME
, a ver si alguien se lo curra, XD
Los FPGA son buenos y baratos. De multitud de compañías. Mientras que Nvidia tiene unos precios demenciales.
Intel compró a la compañía de FPGAs
Altera hace unos años, y AMD a
Xilinx. Vamos, que ya saben de que va el tema.
Como ya he dicho usar GPUs es una mala idea, poco rendimiento y mucho consumo. Pero como en los últimos años Nvidia ha conseguido que bastante gente usase su lenguaje privativo, cerrado, etc... CUDA, pues ahí la tenéis triunfando con una mierda de sistema y con clientes rehenes que tienen que empezar de cero de nuevo si quieren escapar de Nvidia.
Pero a las GPUs en IA les va a pasar exactamente igual que a las GPUs en minería. A Nvidia le queda poca cuerda, todos huyen de Nvidia y los grandes no quieren tocarla ni con un palo (google, amazon, microsoft, chapgpt,...), todos se hacen sus propios FPGAs ó piensan hacerlo.
Todos los que no son Nvidia ya están asociados para que la programación de la IA en CUDA desaparezca. Para crear un lenguaje común, por lo que Nvidia quedará a por ahí tirada. La pregunta del millon es ¿Cuanto tiempo tardará en ocurrir?