• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Rendimiento de una fuente de alimentacion

hector1104

De profesión Chapuzas
Registrado
26 Sep 2013
Mensajes
255
Puntos
16
Edad
33
Hola a todos,

Como ya sabéis el rendimiento se expresa matemáticamente como la relación entre Salida/Entrada de modo que para una fuente de supongamos 900W de entrada y 800W de salida su rendimiento es:

Rendimiento = 800/900 = 0,88 = 88%



Aquí viene mi cuestión, cuando los fabricantes venden las fuentes de alimentación como p.e. Potencia = 700W y rendimiento de 90% me surge la duda de:

1. Siempre he odio que en realidad esos 700W son mentira debido a que tienes que restar la potencia debida a la falta de rendimiento por lo que la potencia real sería 630W, por lo que a la hora de comprar una fuente debemos calcular el consumo del ordenador en función de la potencia "real" contando la eficacia de la fuente.

2. Por otra parte, se me quemo la fuente hace unos meses al cambiar a una gráfica de mayor potencia y me dio que pensar y buscar información, y encontré lo siguiente: "Si el fabricante dice que su PSU tiene una potencia nominal de 700W significa que será capaz de proporcionar esos 700W absorbiendo, por ejemplo, unos 850W de la red. Es decir, que una fuente tenga una eficiencia baja no significa que no sea capaz de proporcionar la potencia que especifica el fabricante (por ej. 700W), simplemente necesitará absorber más potencia de la red para poder suministrar esos 700W." Por lo que en este caso, al comprar la fuente lo haremos respecto a la potencia (sin tener en un principio en cuenta la eficacia).


:confused:¿Cual de las dos está en lo cierto0:confused:?
 
Como base dejate orientar empezando por ver las fuentes con certificado 80plus y superiores, y luego informate un poquito sobre los carriles (12v; 5v; 3v), estos son los que alimentan los diferentes componentes y es donde tienes que ver que son capaces de proporcionar el amperaje necesario.
 
Hay que hacer la cuenta a la inversa. Una fuente de 700W (a la salida) consume (a la entrada) 700/rendimiento. Por ejemplo con 80% de rendimiento, una fuente de 700W al máximo de su potencia consume 875W de la red. Cuando anuncias una fuente de 700W, los tiene que dar a la salida.

Pero es aún más complicado. De nada sirve tener una fuente de 700W si en el/los raíles de 12V, (que son los más importantes y los que más consumen con extremada diferencia) sólo te da 380W. Ahí, en ese dato, es donde las fuentes de mier** engañan. Hay que mirar en la etiqueta:

Marca de confianza (FSP Raider 750):

raider_specs750.jpg


Que creo que tiene una eficiencia de 85%, certificada según el standard 80+
Esto quiere decir que a la salida de la fuente tienes un rendimiento certificado máximo, combinando todos los raíles, de 750W, y que en el raíl de 12V tienes un consumo máximo de 720W (720W / 12V = 60A de amperaje máximo en el raíl de 12V). Y que consumiendo 750W, vas a consumir de la red 750/0.85 = 883 W.

Ahora vamos con una fuente asquerosa (que por cierto suele vender una marca de tiendas de informática que podría ser APP o cualquier otra... xD) UNYKA:
Unyka-700W-D.jpg


Como ves, ya no aparece la misma información. Primero, no aparece la potencia de cada raíl. Tiene dos raíles de 12V de 16A. Eso hace 2 x 16A x 12V = 384W en el raíl de 12V. Y el resto de la potencia hasta 700??. En los otros raíles, pero que nunca vas a usar esa potencia en esos raíles. Un engaño de fuente. Además, no podrás alimentar una gráfica que consuma más de 32A (si tiene dos alimentaciones, si no 16A), sin contar que la placa y el procesador y los ventiladores también consumen a 12V...

¿Y el rendimiento?. Ni viene. Podría venir en su página Web, pero al no estar certificada ¿dicen la verdad?. No puedes saberlo. Si tuviera un 70% sería para darse con un canto en los dientes:
Al 70%, consumiendo al máximo (que nunca lo va a hacer porque da potencia en los raíles equivocados), tendríamos 700/0.7 = 1000W de consumo en la red. Compáralo con la anterior que en teoría consumía más.

Una manera de tener seguridad en cuanto a las fuentes de alimentación es buscar que estén certificadas según el standard 80+. Al estar certificadas, no pueden ocultar datos, son reales.

No obstante, hay algunas marcas que bien para ahorrarse el certificado, bien porque sólo producen para el mercado europeo a 230V (el standard 80+ certifica a 115V -americano- y a 230V -europeo- obligatoriamente), no certifican sus fuentes aunque den un rendimiento superior al 80% y sean fiables. Eso ya se ve en las reviews

Además, hay que tener en cuenta la calidad de los componentes internos. A mejores componentes, más estabilidad de voltajes (importante en overclock) y más durabilidad de la fuente (menor tasa de fallos).
 
Última edición:
Excelente explicación, y con informacion adicional que desconocia, Gracias!
 
Arriba