Doble de rendimiento no significa doble de fps, significa doble de potencia computacional, pero eso no se ve reflejado en fps de un videojuego en factor constante.
Te voy a poner un ejemplo para que lo entiendas.
Pongamos que la rtx 3090 tiene una potencia (no lo recuerdo así que me la invento) de 1000 teraflops, y consigue en el juego x (que está 100% optimizado para aprovechar la gráfica a la perfección) 1000fps; la rtx 4090 tiene el doble de potencia, osea si 2000tflops. Si siguiéramos esta regla de 3 está gráfica daría 2000fps en el mismo juego. Usando la misma lógica tendríamos que una gráfica 1000 veces inferior en potencia a la rtx 3090, osea con 1tflop de potencia nos estaría dando un rendimiento de 1fps. Esto no es así realmente, esta última gráfica no correría el juego ni a 1 ni a 0.5, simplemente no se ejecutaría correctamente. Esto sucede porque la gráfica necesita gran parte de los recursos para ejecutar distintos cálculos del juego y más cosas, potencia que no es directamente traducida en un incremento de fps lineal, si no que sería un aumento porcentual incalculable por el infinito número de variables que entran en juego (drivers, optimización del juego, de la gráfica, de la arquitectura que utiliza, el sistema operativo etc etc etc) la única forma de saber el rendimiento final real de la gráfica es midiendo su rendimiento.
Como resultado final tendríamos que nuestra 3090 nos da 1000fps, nuestra 4090 nos daría en torno a unos 1400fps y para correr el juego aunque sea a 1 fps necesitaríamos una gráfica de mínimo 50tflops de potencia (de nuevo todos los datos que he puesto en el ejemplo son inventados, y puede que me haya equivocado en ciertos puntos pero en líneas generales creo que se entiende)