• ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

Consumo real sin misterios.

Josep83

Súper Moderador
Miembro del equipo
Registrado
23 Abr 2018
Mensajes
9.261
Puntos
113
Edad
41
Muy buenas compañeros.

Pues sin ningún tipo de historia ni misterio, hoy me ha picado la curiosidad.
Y resulta que como tengo conectado TODO el equipo a un ladrón, pues me he dicho a mi mismo:
"Tate, métele el contador de consumo al enchufe del ladrón a ver cuanto consume en total todo el equipo mientras haces el gilipollas con juegos y demás".

Pues resulta que he cogido con mi PC Principal, que podéis exactamente en mi firma, y me he puesto con varias configuraciones a ver cuanto llega a consumir.

Pues la cosa es la siguiente,
He probado el Far Cry 4 a pantalla completa y el The Division 2 con HDR activado y en ambos casos el consumo siempre ha estado por debajo de 500W y como mucho algún pico puntual a 550W como mucho.
Ojo, de todo el equipo: la torre, el monitor (Aorus FV43U) y los altavoces (Creative Stage 360).

También he puesto los 2 monitores a la vez y con 2 juegos simultaneamente, The Witcher 3 y Cyberpunk 2077 y el consumo ha seguido siendo el mismo prácticamente (520W).

Las pruebas las he hecho a 1440p y a 4K y todos los juegos en Ultra.

Y salvo al CPU que si lo tengo con un voltaje concreto y un OC determinado, a la gráfica no le tengo hecho ningún ajuste especial.

Lo que vengo a referirme con este hilo es que tampoco debemos volvernos locos ni obsesionarnos con los altos consumos de nuestros equipos.
Puesto que a esos 500-550W habría que restarle el consumo de los monitores y de los altavoces, con lo cual aún queda un consumo bastante por debajo de esa cantidad.

Y dicho esto, si vosotros queréis poner vuestros consumos haciendo pruebas de estrés o jugando con vuestras configuraciones, pues mejor que mejor.

Saludos.
 
Aquí voy a dar una opinión contraria y por experiencia.

Yo me entretuve comprobando en su día aparato por aparato, y el monitor 34” ultrawide me consume normalmente sólo unos 27 KWh en uso normal (al máximo según las especificaciones alcanza 80 KWh).

Luego el PC (Ryzen 7 2700 + RTX 2070) con uso de ofimática estaba normalmente entre 100-120 Kwh, con juegos se iba a 350-400. Lo usaba unas 8h al día durante 6/7 días a la semana)

Con sólo pasar a un nuc i3 (unos 10-15 KWh aparte del monitor) en el uso normal (el 99% del tiempo), que va perfectísimo, he notado bastante la diferencia en la factura. Con cosas mas pesadas se va a unos 40KWh como mucho.

Y el incremento del mes que me dediqué a jugar sólo los fines de semana (unas 8h cada día ya que cuando pillo el vicio lo hago bien), también lo noté :D

Ahora dependerá de lo que se tenga contratado, a medida que el precio del KWh sube, el incremento se nota más (cuando hice la prueba estaba más o menos como ahora en PVPC)
 
Última edición:
Tambien mucha culpa de las creencias de necesitar x cantidad de vatios en una fuente para ir sobrados la tienen AMD o Nvidia cuando anuncian que las graficas tal o cual van a necesitar una fuente de x vatios segun que configuracion de hardware o las famosas paginas psu calculator que casi siempre tiran muy para arriba cuando quieres saber que fuente comprar segun la confi de tu pc...
Yo mas que en la cantidad de vatios me centraria con mas interes en la calidad, eficiencia en como se suministran, se regulan,...ya que al fin y al cabo casi que la mayoria vamos muchas veces sobrados con nuestras fuentes siempre que sean buenas porque ya sabemos que las castañeras anuncian por ejemplo 650w y dan a lo sumo 300 y encima de aquella manera...
 
Aquí voy a dar una opinión contraria y por experiencia.
Contraria a que?
Porqué no contradice nada de lo que yo he dicho.

Salvo por lo del Nuc, quizá?
Pero no iba por ahí el asunto del hilo, sinó por el tema de las fuentes de alimentación y su potencia máxima.

Por eso está en el apartado de Fuentes de Alimentación.

Saludos compañero.
 
Lo que vengo a referirme con este hilo es que tampoco debemos volvernos locos ni obsesionarnos con los altos consumos de nuestros equipos.

Cierto, disculpa, no me suelo fijar en el subforo y al leer lo anterior pensé que te referías al coste eléctrico.
 
Cierto, disculpa, no me suelo fijar en el subforo y al leer lo anterior pensé que te referías al coste eléctrico.
En absoluto compañero, no pasa nada, además es un muy buen aporte.
 
ya sabemos que las castañeras anuncian por ejemplo 650w y dan a lo sumo 300 y encima de aquella manera...
Por eso es mejor si se tiene que ir a por alguna de estas :poop:, ir a por lo menos 800W.
Aunque lo suyo son mínimo 550W de algo decente y 80+ Gold.
 
Yo por ejemplo uso una EVGA de 850w que quiero pasarle al pc de mi hijo cuando el lunes monte en mi pc una Corsair RMx de los mismos vatios.
Y podria haber comprado una de 650/750w segun mi confi ya que iria tambien algo desahogado de vatios...
Lo que pasa que siempre soy de los que pienso que para futuras ampliaciones y sobre todo graficas burras (que no creo que la tenga 😂) me gusta tener margen de vatios a sabiendas de que muchos de ellos ni me los suministrará la fuente porque no me haran falta realmente...
Entonces me quedo como estoy por mania ya, compro fuentes de 850, no menos ni mas...
 
Aprovecho para perguntar ya que no lo tengo claro: sé que una fuente no está todo el rato suministrando el máximo de su potencia si no lo que requiere el PC, y el tema de la eficiencia, pero aun así… ¿una fuente de más potencia consume algo más en similares condiciones que otra (del mismo modelo o no) de menor potencia ?
 
Aprovecho para perguntar ya que no lo tengo claro: sé que una fuente no está todo el rato suministrando el máximo de su potencia si no lo que requiere el PC, y el tema de la eficiencia, pero aun así… ¿una fuente de más potencia consume algo más en similares condiciones que otra (del mismo modelo o no) de menor potencia ?
Eso depende de cada modelo de fuente, de sus sistemas y de como los mismos a diferentes cargas regulen el consumo...
Hay fuentes plus gold de 650w que en ese sentido a determinada carga tienen un mayor consumo que una fuente plus gold de 850w con la misma carga...
 
Aprovecho para perguntar ya que no lo tengo claro: sé que una fuente no está todo el rato suministrando el máximo de su potencia si no lo que requiere el PC, y el tema de la eficiencia, pero aun así… ¿una fuente de más potencia consume algo más en similares condiciones que otra (del mismo modelo o no) de menor potencia ?
A ciencia cierta no te podría contestar.
Pero por lo que tengo entendido eso depende del tipo de eficiencia.

Pongamos 2 ejemplo:

1r ejemplo:
2 fuentes de 800W una Gold y otra no.
Para el mismo equipo, una consumiría 500W y la Gold 485W, por ejemplo.

2o ejemplo:
Mismo equipo y misma cerftificación pero una fuente de 1000W y otra de 800W.
La fuente de 800W consumiría algo menos porqué está más dentro del rango de eficiencia que la de 1000W, pero puede ser prácticamente despreciable ese margen.
Pueden ser 3 o 4W como mucho.
 
Aprovecho para perguntar ya que no lo tengo claro: sé que una fuente no está todo el rato suministrando el máximo de su potencia si no lo que requiere el PC, y el tema de la eficiencia, pero aun así… ¿una fuente de más potencia consume algo más en similares condiciones que otra (del mismo modelo o no) de menor potencia ?

Depende de la curva de eficiencia. La certificación solo te informa de que la fuente alcanza al menos una serie de requisitos en cuestión de eficiencia. Luego puede ocurrir que una fuente tenga su pico de eficiencia al 30 % de carga, otra al 40 %, otra al 50 %... Para poder contestar a esa pregunta prácticamente habría que mirar la curva de eficiencia de cada fuente en particular, y a partir de ahí dictaminar. Otra cosa es que la eficiencia a bajas cargas tiende a desplomarse, y entonces una de más potencia, en reposo, será mucho menos eficiente que la de menos potencia; pero claro, al estar en reposo el PC el consumo es mínimo, así que... En resumen: todo depende de dónde esté el punto de máxima eficiencia de cada fuente con respecto al consumo real.
 
El tema de sobredimensionar la fuente, generalmente viene de la cuerva de la eficiencia. Si nos ponemos a rascar consumo, si tu equipo va a estar consumiendo 300W en el momento mas critico, conviene tener una fuente que tenga el punto optimo de operación en 300W, que suelen ser las que dan del orden del doble, 550,600,650... Y así para cualquier wattage. Que si haces números en el fondo ahorras céntimos, y no es preocupante ni cogerse de mas ni cogerse de menos siempre que la fuente sea de calidad y supla el pico máximo que necesites.
 
El tema de sobredimensionar la fuente, generalmente viene de la cuerva de la eficiencia. Si nos ponemos a rascar consumo, si tu equipo va a estar consumiendo 300W en el momento mas critico, conviene tener una fuente que tenga el punto optimo de operación en 300W, que suelen ser las que dan del orden del doble, 550,600,650... Y así para cualquier wattage. Que si haces números en el fondo ahorras céntimos, y no es preocupante ni cogerse de mas ni cogerse de menos siempre que la fuente sea de calidad y supla el pico máximo que necesites.

Ese es un "error" muy común (entre comillas, por supuesto). Sería así si además de consumir 300 W en su momento más crítico fuese además su uso más habitual. Por ejemplo, si los 300 los consume jugando y el 90 % del tiempo que el PC esté encendido es para estar jugando, sí que tiene sentido en este caso particular poner una fuente cuya mayor eficiencia esté en 300 W. Pero si no es así, si el jugar ocupa, pongamos, el 30 % del uso, y el resto es ofimática, YouTube... es perfectamente posible bajar potencia sin problema. Otra cosa es que ya nos metamos a analizar precios, gastos energéticos y demás historias.

Evidentemente, dando por hecho que estamos hablando de fuentes decentes.
 
Si la idea del hilo es precisamente la de romper el falso mito de tener que comprarse una fuente de 1000W para las nuevas GPUs.
Como fue el caso que pasó hace un par de años y el que está pasando ahora con la llegada de las nuevas GPUs.

Que todo el mundo se obsesiona con los consumos y quiere cambniarse sus fuentes de 750W por otras de 1000W porqué si.
No vaya a ser que se les quede corta la suya.
 
Ese es un "error" muy común (entre comillas, por supuesto). Sería así si además de consumir 300 W en su momento más crítico fuese además su uso más habitual. Por ejemplo, si los 300 los consume jugando y el 90 % del tiempo que el PC esté encendido es para estar jugando, sí que tiene sentido en este caso particular poner una fuente cuya mayor eficiencia esté en 300 W. Pero si no es así, si el jugar ocupa, pongamos, el 30 % del uso, y el resto es ofimática, YouTube... es perfectamente posible bajar potencia sin problema. Otra cosa es que ya nos metamos a analizar precios, gastos energéticos y demás historias.

Evidentemente, dando por hecho que estamos hablando de fuentes decentes.
Y al final, lo mas gracioso, es que después de afinar el lápiz todo lo que se pueda, estamos hablando de que estas rascando 15W en el peor de los casos en las horas de uso extremo. Al final de tener una fuente super eficiente en el punto de uso que mas uses a tener una mas "versátil" o "menos ajustada" son, como digo, CENTIMOS...

De todos modos, yo entiendo perfectamente a quien se pilla una fuente de 1000W platinum cuando se coge un i7 o un i9 y una buena gráfica. Yo soy el primero que recomienda opciones "practicas" cuando me piden un presupuesto, mientras también soy el primero que prefiero para mi una fuente top, por sobredimensionada que esté :ROFLMAO::ROFLMAO: y así para todos los componentes... Entusiastas nos llaman, ¿no?
 
Tambien desde diversos sectores se promueve y hay un interes especial en que el mercado de las fuentes se mueva y mucho...
Y en el tema gamer, de altos consumos, de fuentes de calidad, de coste,...pues mas aun.
Pensemos que hay marcas que mueven mucha pasta en el tema de las fuentes en los segmentos medios-altos/top y cuanto mas se mueva el mercado mejor, como sucede tambien con las graficas....
 
Y al final, lo mas gracioso, es que después de afinar el lápiz todo lo que se pueda, estamos hablando de que estas rascando 15W en el peor de los casos en las horas de uso extremo. Al final de tener una fuente super eficiente en el punto de uso que mas uses a tener una mas "versátil" o "menos ajustada" son, como digo, CENTIMOS...

De todos modos, yo entiendo perfectamente a quien se pilla una fuente de 1000W platinum cuando se coge un i7 o un i9 y una buena gráfica. Yo soy el primero que recomienda opciones "practicas" cuando me piden un presupuesto, mientras también soy el primero que prefiero para mi una fuente top, por sobredimensionada que esté :ROFLMAO::ROFLMAO: y así para todos los componentes... Entusiastas nos llaman, ¿no?

Sí. Irónicamente la mayor diferencia de dinero la vas a encontrar justo al comprar la fuente, donde las diferencias son de euros, no de céntimos. Así, afeitar 100 W en la fuente porque realmente no sean necesarios (caso del 30 % de uso de juegos) puede notarse en el consumo real (nuevamente, depende de la curva de eficiencia), pero el posible ahorro, de céntimos como bien dices, es prácticamente despreciable frente al ahorro de 10-15 € que tienes cuando te compras la fuente. Ojo, que si estamos hablando de céntimos por día la cantidad no es despreciable. Es pequeña, sí, pero no despreciable.

De todas formas, el tema es:

Si la idea del hilo es precisamente la de romper el falso mito de tener que comprarse una fuente de 1000W para las nuevas GPUs.
Como fue el caso que pasó hace un par de años y el que está pasando ahora con la llegada de las nuevas GPUs.

Que todo el mundo se obsesiona con los consumos y quiere cambniarse sus fuentes de 750W por otras de 1000W porqué si.
No vaya a ser que se les quede corta la suya.

Es decir, que el PC va a funcionar con una fuente algo menos potente, porque los consumos reales son los que son. Y si de 8 horas vas a dedicar 1 o 1 y media a jugar, no pasa nada por que la fuente esté en esos momentos al 80 % de carga. Fuente de calidad, se entiende, no una Tacens.
 
yo entiendo perfectamente a quien se pilla una fuente de 1000W platinum cuando se coge un i7 o un i9 y una buena gráfica
Si y no compañro.

Yo tengo una 750W Platinum y una 1000W Gold.
Ambas son muy buenas y ambas están desaprovechadas.

Antes aún porqué tiraba de SLI con 2 GTX 1080, pero aún así tampoco me acercaba a esa potencia.
Pero los conectores para las GPUs si que me hacían falta, puesto que pocas son las fuentes que en su día tenóian más de 4 conectores de 8 pines para GPU.
La mayoría de 850W no los traían.
Debías irte a por las 1000W si o si.

Pero hoy en día, por suerte, ya no es así.

Entiendo que vayas a comprar componentes nuevos y montes un PC nuevo con una fuente nueva. de calidad y con mucha potencia.
Pero si ya tienes un equipo decente tirando a bueno y renuevas GPU, que necesidad hay de cambiar la fuente si ya tienes algo tipo 750W Gold?
 
Aquí voy a dar una opinión contraria y por experiencia.

Yo me entretuve comprobando en su día aparato por aparato, y el monitor 34” ultrawide me consume normalmente sólo unos 27 KWh en uso normal (al máximo según las especificaciones alcanza 80 KWh).

Luego el PC (Ryzen 7 2700 + RTX 2070) con uso de ofimática estaba normalmente entre 100-120 Kwh, con juegos se iba a 350-400. Lo usaba unas 8h al día durante 6/7 días a la semana)

Con sólo pasar a un nuc i3 (unos 10-15 KWh aparte del monitor) en el uso normal (el 99% del tiempo), que va perfectísimo, he notado bastante la diferencia en la factura. Con cosas mas pesadas se va a unos 40KWh como mucho.

Y el incremento del mes que me dediqué a jugar sólo los fines de semana (unas 8h cada día ya que cuando pillo el vicio lo hago bien), también lo noté :D

Ahora dependerá de lo que se tenga contratado, a medida que el precio del KWh sube, el incremento se nota más (cuando hice la prueba estaba más o menos como ahora en PVPC)
Creo que te sobran unas cuantas 'K' por ahí, una fuente de 1000W a tope durante 1 hora, sería 1 Kw/h que al precio actual digamos de 300€/Mw, serían 0,3€/hora en la factura, lo dicho a tope, 1Kw/h=0,3€/h para 300€/Mw
 
Arriba