Einsparungen im Rechenzentrum – 30% aller Server komatös

Home » News » Einsparungen im Rechenzentrum – 30% aller Server komatös
4. August 2015 News, Rechenzentrum Keine Kommentare

 

Ende Juni 2015 ging eine Meldung durch die gesamte IT-Presse: Jeder Dritte Server laufe laut der Hochrechnung einer Studie ungenutzt vor sich hin. Ausgehend von den Erhebungen der IDC aus dem Jahr 2012 (die damals 35 Millionen Server weltweit gezählt hat) könne man somit von etwas über 10 Millionen Servern ausgehen.

Die anteiligen Stromkosten für die Server und die Infrastruktur (Kühlung etc. ) könne man weltweit auf etwa 4 Gigawatt schätzen – so viel wie 4 Atomkraftwerke produzieren.

Laut der verlinkten Studie soll die von uns visualisierte Situation über 6 Monate oder länger bestanden haben. Weiterhin wird ausgeführt: „nearly a third of capital in enterprise data centers is wasted“. Zu Deutsch: ein Drittes des in Rechenzentren investierten Kapitals wird verschwendet.

rechen30

Liest man diese Meldung völlig unkritisch so könnte man glauben, dass Rechenzentrums-Betreiber bzw. Unternehmen, die eine große Anzahl von Servern in Rechenzentren betreiben regelrecht verschwenderisch mit den durchaus sehr kostspieligen Ressourcen Raum (Racks bzw. Höheneinheiten) und Energie umgehen. Zudem legt die Studie nahe, dass sich an dieser Situation seit den letzten Jahren nichts geändert hat.

 

Ein erster Überblick

Da auch wir Rechenzentrums-Dienstleistungen wie Server-Housing, Cloud-Services und Managed Server anbieten, haben wir uns die Studie etwas näher angesehen. Zuerst ist uns dabei aufgefallen, dass das als Studie bezeichnete Dokument nur drei Seiten lang ist. Gerade in Kenntnis vergleichbarer Studien verwundert das – also haben wir bei einem der renommierten Autoren (Jonathan G. Koomey, Ph.D.) per E-Mail nachgefragt. Tatsächlich erhielten wir innerhalb kürzester Zeit folgende Antwort:

 


…“ That short overview IS the study.  This was the first of what we hope will be an ongoing series of reports on this topic.  TSO logic is growing and every 6 months or so we will publish another update that includes a larger sample. If other companies can demonstrate similar capabilities we will add their data to the sample.

Our thinking about the overview was that we would publish it and see what we learn from people reading it.  We got good press coverage (http://www.koomey.com/post/120611632473) and there’s a lot of interest.“ …

…“We are clear in the note that it is a small sample (4.000 Servers) and that we treat all servers that have near zero utilization and no network traffic delivered from the load balancers for 6 months or more as comatose.“…


 

Die Studie im „Detail“

Der Vorläufer

Alles begann im Jahr 2008 als im Auftrag von McKinsey&Company (einem global agierendem Consulting-Unternehmen) eine fortlaufende Untersuchung mit dem Namen Revolutionizing Data Center Energy Efficiency veröffentlicht wurde. Die Quelle der Daten wird nicht genannt, es soll sich aber um ca. 20.000 Server handeln. Beteiligt war damals auch das „The Uptime Institute“ – ein Industrie-Konsortium welches u.A. Schulungen und Zertifizierungen hauptsächlich im Bereich Effiziente IT anbietet. Die Studie zeigt, dass die durchschnittliche Auslastung der Server lediglich  ca. 6% der maximalen Prozessor-Last beträgt und zudem bis zu 30% der untersuchten Server quasi völlig ohne Last laufen.

Ferner wird aufgezeigt, durch welche Herrausforderungen es zu dieser ineffizientem Rechenzentrums-Auslastung kommen kann und wie mit der Anwendung von Best-Practise Lösungen (beispielsweise die Konsolidierung und Virtualisierung) die Effizienz der eigenen Server-Infrastruktur innerhalb des Rechenzentrums gesteigert werden kann.

 

Die Initial-Studie

Die Initialstudie beinhaltete einen Datensatz von 4.000 Servern, der über einen Zeitraum von 6 Monaten und mehr entstand. Die Quelle der Daten für die Untersuchung stammt von TSOlogic, einem großen Anbieter von Tools zur Rechenzentrum-Analyse und -Optimierung. Über die Initialstudie selbst ist weiterhin nicht viel mehr bekannt. TSOlogic ist ein „guter alter Bekannter“ des an der Vorläufer-Studie beteiligten Uptime Institut. So räumte TSOlogic 2014 bei dem vom Uptime Institut veranstaltetem „Uptime Symposium“ den „Green Enterprise IT Award“ ab.

 

Die fortlaufende Studie

Als Quelle für die eigentliche 30% Hochrechnung dient ein Datensatz des Uptime Institut und auch hier handelt es sich um 20.000 Server (wie in der Vorläufer-Studie, dessen Quelle jedoch ungenannt bleibt). Als Partner der Studie wird die Anthesis Group genannt, eine weltweit tätige Beratungsfirma die offiziell für mehr Nachhaltigkeit in der Wirtschaft eintritt. Als Werkzeug um die Daten zu sammeln und auszuwerten wurde anscheinend wiederum auf die bekannte Software-Lösung von TSOlogic zurückgegriffen.

Obwoh zwischen den Studien mehrere Jahre liegen, scheint sich an der geringen Rechenzentrums-Effizienz nichts gebessert zu haben. Auch die aktuelle Studie ermittelt, dass 30% der Server über einen Zeitraum von 6 Monaten sich dauerhaft im idle-Modus befinden. Dieser Zustand wird ermittelt indem außer der Prozessor-Last und der Arbeitsspeicher-Auslastung auch Upstream-Traffic und Benutzer-Zugriffe aufgezeichnet werden.

In der Studie wird davon ausgegangen, dass sich das Ergebnis repräsentativ für alle weltweit vorhandene Server ist – laut IDC 35 Millionen im Jahr 2012. Das entspräche 10 Millionen „komatöser“ Server mit einer Leistungsaufnahme inklusive der erforderlichen Kühlung von 4 Gigawatt. Weiterhin wird vermittelt, dass diese Server-Infrastruktur ohne negative Folgen außer Betrieb genommen (ausgeschaltet) werden kann. Eine Darstellung, die mit den wenigen veröffentlichten Daten nicht geprüft werden kann. So ist beispielsweise nicht klar, ob erforderliche Reserven einkalkuliert wurden – genaueres lässt sich nur mit einem besseren Kenntnis der zu Grunde liegenden Datenbasis sagen, die jedoch nicht veröffentlicht bzw. uns zur Verfügung gestellt wurden.

 

Zusammenfassung

Die typische Auslastung der Server innerhalb eines Rechenzentrums ist laut einer aktuellen Studie des Bundesministerium für Wirtschaft und Technologie abhängig vom Rechenzentrum und dem Industriezweig sehr unterschiedlich. Sehr große Unternehmen mit eigenen Rechenzentren fällt es dabei zumeist leichter die erforderlichen Ressourcen zu managen als kleineren Rechenzentrums-Betreibern, die eine Vielzahl an verschiedenen Kunden mit unterschiedlichen Anforderungen bedienen. Mit über 5 Jahren Erfahrung im Rechenzentrums-Bereich sehen wir erwartungsgemäß die höchste Auslastung während der regulären Arbeitszeiten. Bei der folgenden Kurve handelt es sich um ein nicht repräsentatives Beispiel:

rechen60

 

Aufgrund erforderlicher Redundanzen und Leistungsreservern ist unsere Rechenzentrums-Infrastruktur nie über 85% ausgelastet. Bei Hochverfügbarkeitslösungen fällt die Auslastungskurve noch einmal geringer aus. Schlißlich muss sichergestellt werden, dass auch bei einem Server-Ausfall in Stoßzeiten die Services unserer Kunden zu 100% verfügbar sind. Im folgenden verlinken wir eine Reihe von empfehlenswerten und unabhängigen Studien zum effizienten Lastmanagement im Rechenzentrum.

 

Weitere Informationen / Quellen

 

Studie für das Bundesministerium für Wirtschaft und Technologie – Untersuchung des Potentials von rechenzentrenübergreifendem Lastmanagement zur Reduzierung des Energieverbrauchs in der IKT

Die Beauftragte der Bundesregierung für Informationstechnik – GREEN-IT Ein Leitfaden zur Optimierung des Energieverbrauchs des IT-Betriebes

Deutsche Energie-Agentur – Leistung steigern, Kosten senken: Energieeffizienz im Rechenzentrum. Ein Leitfaden für Geschäftsführer und IT-Verantwortliche.

Umweltbundesamt – Materialbestand der Rechenzentren in Deutschland Eine Bestandsaufnahme zur Ermittlung von Ressourcen- und Energieeinsatz 

IT@Intel White Paper – Intel IT’s Data Center Strategy for Business Transformation

Intel –  Datacenter Optimization

Intel Data Center