Energie verbrennen

Kann man hier bei Golem lesen.

Das Folding@home-Projekt der amerikanischen Stanford University sucht «Rechenzeitspender» zum Kampf gegen Alzheimer, Parkinson, Rinderwahnsinn und andere Krankheiten, die mit Protein-Fehlfaltung einhergehen sollen.

Das Projekt ist schon lange bekannt und macht mitunter weitaus mehr Sinn als das Rechenzeit verbrennen aka Seti@home. Denkt man jedoch an die 180W Boliden namens PS31 frägt man sich natürlich wieviel Schaden so ein vernetztes Heizkonsolen Netzwerk in der Natur anrichtet, von dieser ist der Mensch irgendwie auch abhängig. Zwar schließe ich mich nicht der momentanen Hysterie an, bin aber auch nicht der Ansicht auf Teufel komm raus die Umwelt zu schädigen. Und ja bevor jetzt jemand kommt, aber der PC — der PC hat keinen linearen Verbrauch ist also auch, abgesehen von Hardcore-Gamer-PCs mit SLI etc., durchaus genügsamer und in Ruhephase etc. ohnehin weitaus sparsamer … den 180W Dauerkiller muß man gerade bei modernen PC eher suchen.
Aber egal auch mal davon abgesehen finde ich es recht befremdlich das das Stromsparkonzept bei Konsolen noch nicht angekommen ist, von Grafikkarten ganz zu schweigen — das es geht zeigt z.B. Intels 4fach Core mit knapp 40-50W!

  1. Die Leistungsaufnahme ist mit 165 Watt im Ruhezustand und 180 Watt im Spielbetrieb sehr hoch; im Standby lag sie unter einem Watt. heise []


4 Antworten zu “Energie verbrennen”

  1. mitleser sagt:

    Wirklich nettes Projekt. Hab auf meinen Rechnern das Bildschirmschoner-Modul installiert. Danke für den Hinweis auf das Projekt!

    LG
    mitleser

  2. Chris sagt:

    Da gibbet jetzt ein neues Netzteil — ausschließlich für die Grafikkarte. 5 1/4″-Schacht, Strom, passt… 😉

  3. Bernd sagt:

    Ich habe mir überlegt, wie man den Wirkungsgrad einen moderen Computers verbessern kann. Die Frage die ich mir gestellt habe, wie kann ich die überschüssige Wärme nutzen. Die Antwort: Der Computer muss «in den» Warmwasserboiler. 😀
    Dort, als Applikation Server angebracht und angebunden z.B. via WLAN entfaltet das Gerät beim übersetzen mancher Ports nicht nur die Aufgabe einer Tinderbox oder berechnet die Faltung mancher komplexer Moleküle, nein mein Wasser wird auch signifikant wärmer. Wirkungsgrad = echte 100 %! 😀

  4. Grainger sagt:

    Eigentlich sollte es gar kein Problem sein die Leistungsaufnahme einer Grafikkarte zu senken bzw. dem jeweiligen Bedarf an Grafikleistung anzupassen.

    Schließlich ist die Darstellung eines 2D-Desktops für modernere Grakas doch nur noch eine so nebenbei erledigte Pflichtübung (mal von so sinnlosen grafischen Spielereien wie in Echtzeit gerenderte Transparenz– und Glaseffekte bei gewissen neueren Benutzeroberflächen 😉 abgesehen).

    Also könnte man den 2D-Teil einer GraKa vom 3D-Teil trennen (getrennte GPUs bzw. getrennte Kernel in einer GPU); eine 2D-fähige GPU mit einigen Beschleunigerfunktionen für GUIs (Rechtecke zeichnen, Flächen füllen, usw.) kann doch heutzutage nur ein paar Cent in der Produktion kosten.

    Das GraKa-RAM können beide Teile gemeinsam nutzen.

    So lange nur die Benutzeroberfläche des OS dargestellt wird kann der 3D-Teil abgeschaltet bleiben bzw. mit minimalster Taktfrequenz und Voltzahl vor sich hin idlen (Vorsicht: denglisch).

    Und selbst wenn der 3D-Teil zugeschaltet wird könnte dieser seine Leistungsaufnahme skalieren (wie es fast alle moderneren CPUs heutzutage tun und längst nicht mehr nur die jeweiligen Mobile-Versionen).

RSS-Feed abonnieren