Hallo,
um Strom zu sparen und die Hardware zu schonen habe ich mit der Taktfrequenz der CPUs experimentiert. Hierzu habe ich einmal "powersave" in /etc/sysfs aktiviert und gemessen und dann mit der "performance" Einstellung. Und zu meinem Erstaunen liegen diese Extreme nur ca. 5-8 Watt pro Sekunde auseinander. Kann das stimmen? Das Test Objekt ist ein Samsung Laptop mit Intel i3 M330 cores und NVidia GeForce 310M und ein weiterer Grund für diese Tests sind "thermal shutdowns" die auftreten wenn eine grafisch anspruchsvolle Anwendung startet und der Lüfter nur kurz aufdreht und der Laptop sofort ausgeht. Jetzt mit maximaler CPU Leistung bleibt das Gerät handwarm. Könnte ich also richtig liegen wenn ich die grafische Anwendung bzw. das NVidia Bauteil als Problem sehe?
skalieren der CPUs zum Stromsparen
- lostparity
- Beiträge: 1
- Registriert: 24.09.2018 17:05:41
Re: skalieren der CPUs zum Stromsparen
… das wären 28,8kW/h Differenz – was würde da erst die Gesamtaufnahme sein? Ich würde eine geeignetere Messmethode wählen.lostparity hat geschrieben:24.09.2018 19:11:13Und zu meinem Erstaunen liegen diese Extreme nur ca. 5-8 Watt pro Sekunde auseinander.
Re: skalieren der CPUs zum Stromsparen
Bei einem i3-330m* liegt nahe, dass das Gerät eher günstig war. Wurde da möglicherweise auch beim Kühlkonzept gespart und das ist der Nvidia-GPU nicht gewachsen?
Bei einem 8 Jahre alten Gerät kann man auch mal nach Verschleißerscheinungen fragen. Hast du die Wärmeleitpaste/pads von CPU und insbesondre GPU schon mal erneuert?
Nvidia machte in der Zeit gerade die RoHS-Umstellung und hat das nicht auf Anhieb hinbekommen. Das führte teils zu kalten Lötstellen. Manche Nvidia-Bauteile sind seinerzeit wie die Fliegen gestorben. Vielleicht hast du einen Nachzügler.
Experimente zur Stromaufnahme sind zum Zweck des Erkenntnisgewinns zu begrüßen, haben aber für gewöhnlich wenig praktischen Nutzen. Als Paradigma zum Stromsparen hat sich weitgehend "race to idle" durchgesetzt. D.h. eine Aufgabe wird auch unter Inkaufnahme eines höheren momentanen Stromverbrauchs so schnell wie möglich erledigt, um danach so schnell wie möglich wieder in den tiefsten Stromsparmodus zu verfallen. Das spart insgesamt meist mehr Strom, als längere Zeit auf Teillast zu fahren.
Insgesamt könnte es helfen, das genaue Modell des Laptops zu verraten. Vieleicht gibt es bekannte Probleme.
*) Ich nehme an, um den geht's.
Bei einem 8 Jahre alten Gerät kann man auch mal nach Verschleißerscheinungen fragen. Hast du die Wärmeleitpaste/pads von CPU und insbesondre GPU schon mal erneuert?
Nvidia machte in der Zeit gerade die RoHS-Umstellung und hat das nicht auf Anhieb hinbekommen. Das führte teils zu kalten Lötstellen. Manche Nvidia-Bauteile sind seinerzeit wie die Fliegen gestorben. Vielleicht hast du einen Nachzügler.
Experimente zur Stromaufnahme sind zum Zweck des Erkenntnisgewinns zu begrüßen, haben aber für gewöhnlich wenig praktischen Nutzen. Als Paradigma zum Stromsparen hat sich weitgehend "race to idle" durchgesetzt. D.h. eine Aufgabe wird auch unter Inkaufnahme eines höheren momentanen Stromverbrauchs so schnell wie möglich erledigt, um danach so schnell wie möglich wieder in den tiefsten Stromsparmodus zu verfallen. Das spart insgesamt meist mehr Strom, als längere Zeit auf Teillast zu fahren.
Insgesamt könnte es helfen, das genaue Modell des Laptops zu verraten. Vieleicht gibt es bekannte Probleme.
*) Ich nehme an, um den geht's.