Rechenzentren – Energiefresser oder Effizienzwunder?
Seit dem Beginn der Green IT-Diskussionen vor etwa 10 Jahren hat das Thema Energieeffizienz von Rechenzentren erheblich an Bedeutung gewonnen. Mitte der 2000er Jahre war noch kaum einem IT-Verantwortlichen bewusst, wie viel Energie seine IT und insbesondere sein Rechenzentrum benötigt. In einer Befragung von IT-Verantwortlichen durch die Experton Group aus dem Jahr 2008 kannten nur 10 Prozent den Stromverbrauch ihrer IT. Heute können 85 Prozent der Rechenzentrumsbetreiber in Deutschland ihren Jahresstrombedarf nennen [1]. Dieser Bewusstseinswandel war auch notwendig, denn der Anteil der Rechenzentren am Stromverbrauch ist beachtlich.
Der amerikanische Wissenschaftler Jonathan Koomey geht von einem Anteil der Rechenzentren am weltweiten Stromverbrauch von 1,1 bis 1,5 Prozent aus. Für die USA schätzt er diesen Anteil auf bis zu 2,2 Prozent. In Deutschland gehen nach Berechnungen des Borderstep Instituts 2 Prozent des gesamten Stromverbrauchs in die Rechenzentren. Im Raum Frankfurt sind die Rechenzentren sogar für 20 Prozent des Strombedarfs verantwortlich.
Mit dem gestiegenen Bewusstsein gingen auch viele Maßnahmen zur Verbesserung der Energieeffizienz in Rechenzentren einher. Neu geplante und gebaute Rechenzentren verfügen in der Regel über eine sehr effiziente Kühlung mit Außenluft – entweder direkt oder indirekt über Wärmetauscher. Die Unterbrechungsfreien Stromversorgungen (USV) haben einen hohen Wirkungsgrad. Bei der Beschaffung der IT-Hardware wird auf energieeffiziente Geräte geachtet. Zudem werden die Potenziale von Servervirtualisierung oft ausgenutzt [1].
Dennoch ist der Energiebedarf der Rechenzentren in Deutschland in der Vergangenheit angestiegen. Dies zeigt eine aktuelle Untersuchung des Bundeswirtschaftsministeriums zur Entwicklung des Energiebedarfs der Informations- und Kommunikationstechnik (IKT). Die Studie [2] wurde vom Borderstep Institut gemeinsam mit dem Fraunhofer IZM erstellt (Abb.1). Seit dem Jahr 2010 stieg der Energiebedarf der Rechenzentren in Deutschland um 15 Prozent auf 12 Mrd. kWh. Auch für die Zukunft ist mit einem weiteren deutlichen Wachstum des Energiebedarfs zu rechnen – trotz steigender Energieeffizienz von Servern und Rechenzentrumsinfrastruktur. Bis zum Jahr 2025 wird der Energiebedarf der Rechenzentren in Deutschland voraussichtlich auf 16,4 Mrd. kWh ansteigen. Ein weiteres mittleres Kohlekraftwerk wäre notwendig, um diesen Anstieg abzufangen.
Im europäischen Vergleich liegt Deutschland an der Spitze, was den Energiebedarf der Rechenzentren angeht, gefolgt von dem Vereinigten Königreich (10,8 Mrd. kWh im Jahr 2015) und Frankreich (8,6 Mrd. kWh im Jahr 2015). Da Deutschland mit einem Anteil von 25 Prozent an den Rechenzentrumskapazitäten auch den größten europäischen Rechenzentrumsmarkt darstellt [3], ist diese Spitzenstellung nicht verwunderlich. Die aktuell hohen Strompreise in Deutschland – Rechenzentren sind nicht von der EEG-Umlage ausgenommen – stellen ein zweischneidiges Schwert dar. Zum einen bieten sie einen Anreiz, Energie zu sparen. Deshalb gehören die deutschen Rechenzentren zu den energieeffizientesten Rechenzentren weltweit [1]. Zum anderen führen sie aber auch dazu, dass große internationale Konzerne wie Google, Facebook oder Microsoft ihre oft sehr energieeffizienten Rechenzentren bisher eher in Skandinavien, den Niederlanden oder in Irland errichten, wenn sie einen Standort in Europa suchen.
War der Strombedarf der Rechenzentren in der Vergangenheit noch meist nur zur Hälfte durch die eigentlichen IT-Komponenten bestimmt, so steigt deren Anteil mittlerweile deutlich an. Dennoch verursachen die Klimatisierung, USV, Transformatoren etc. noch immer einen erheblichen Teil des Gesamtstrombedarfs. Gemessen wird die Effizienz der Infrastrukturlösungen meist mit der sogenannten Power Usage Effectiveness (PUE). Sie gibt an, wie hoch der Strombedarf des Gesamtrechenzentrums im Vergleich zum Strombedarf der eigentlichen IT ist. Im Idealfall ist der PUE-Wert gleich eins. Das hieße, der gesamte Strom des Rechenzentrums wird von der IT benötigt. Ein PUE-Wert von zwei bedeutet, dass Klimatisierung, USV, etc. genauso viel Strom benötigen wie die IT selbst. Die Spannweite der PUE-Werte in der Praxis ist enorm. Neue Großrechenzentren weisen oft sehr gute Werte auf, während kleinere und ältere Rechenzentren oft noch PUE-Werte in der Größenordnung von drei haben. Google gibt für seine Rechenzentren z. B. einen durchschnittlichen PUE-Wert von 1,12 an. Die Deutsche Telekom geht bei den Rechenzentren von T-Systems im Jahr 2014 von durchschnittlich 1,64 aus. Vodafone gibt für seine Rechenzentren in Europa einen Durchschnittswert von 1,46 an. Eine Untersuchung des Marktforschungsunternehmens IDC, in der kleine Rechenzentren befragt wurden, ermittelte eine durchschnittliche PUE von 2,4 [4]. Die Studie des BMWi kam für durchschnittliche Rechenzentren in Deutschland im Jahr 2015 auf einen Wert von 1,8.
Früher musste man sich im Rechenzentrum warm anziehen, heute ist eher kurze Hose angesagt.
In Zukunft wird der Stromverbrauch der Infrastruktur im Verhältnis zum Stromverbrauch der IT weiter zurückgehen. So steigen die Temperaturen in Rechenzentren und damit die Effizienz der Klimatisierung voraussichtlich weiter an. Bis vor wenigen Jahren glichen Rechenzentren eher Kühlschränken mit Raumtemperaturen von 18 Grad oder weniger. Bei Arbeiten im Rechenzentrum musste man sich oft warm anziehen. Heute werden 25 Grad und mehr als Raumtemperatur empfohlen – einzelne Rechenzentren erreichen auch über 30 Grad. Da ist dann schon eher die kurze Hose angesagt. Moderne USV-Anlagen erreichen Wirkungsgrade von 95 Prozent und mehr – auch im Teillastbetrieb. Allerdings setzen sich diese Verbesserungen an der Infrastruktur nur verhältnismäßig langsam durch. Während die IT-Komponenten im Rechenzentrum in der Regel alle drei bis fünf Jahre modernisiert werden, liegen die Nutzungsdauern der technischen Gebäudeausrüstung wie Klimatisierung und USV eher im Bereich von 15 Jahren und mehr.
Schaut man sich den Stromverbrauch der IT-Geräte genauer an, so ist festzustellen, dass insbesondere der Strombedarf der Datenspeicherung stark zunimmt. Trotz Technologien zur Datenkomprimierung und Deduplikation, immer höheren Kapazitäten der Festplatten und zunehmendem Einsatz von Flash-Speicher in Rechenzenten verursacht das steigende Datenvolumen in Rechenzentren einen immer höheren Strombedarf. Bei einzelnen Rechenzentren beträgt der Strombedarf der Speichersysteme heute bis zu 50 Prozent des gesamten Strombedarfs der IT.
Mobile Endgeräte, Multimediadienste, Cloud-Computing und Big Data treiben das Rechenzentrumswachstum
Die Gründe für den Anstieg des Energiebedarfs der Rechenzentren liegen in dem immer stärker zunehmenden Bedarf an Rechenleistung und an dem gestiegenen Bedarf an Datenspeicher. Getrieben wird der Bedarfszuwachs durch Trends wie Smartphones, Tablets, internetfähige Fernsehgeräte, Videostreaming, Cloud-Computing und Big Data. Auch das Internet der Dinge und die zunehmende Digitalisierung der Produktion – unter dem Schlagwort Industrie 4.0 bekannt – werden den Bedarf an zentral bereitgestellter IT-Leistung in Rechenzentren weiter erhöhen.
Betrachtet man den Energiebedarf der IKT insgesamt, so ergibt sich durch diese Entwicklungen eine deutliche Verschiebung der Verursacher – hin zu den Rechenzentren und Netzen. Dagegen werden die in Haushalten und Unternehmen genutzten Endgeräte immer energieeffizienter – vor allem dank der europäischen Regulierung zu Standby und zur Produktkennzeichnung. Hatte ein durchschnittlicher PC vor wenigen Jahren oft noch eine Leistungsaufnahme von bis zu 100 Watt, so benötigen aktuelle Geräte oft nur noch ca. 30 Watt. Smartphones und Tablets benötigen nur ca. 2 bis 4 Watt. Und auch bei Fernsehgeräten ist die Zeit der Stromfresser mit Geräten, die 200 Watt und mehr verbrauchen, längst vorbei. Selbst Geräte mit einer Bildschirmdiagonale von 55 Zoll liegen heute in der Leistungsaufnahme in der Regel deutlich unter 100 Watt.
Die deutlich geringere Leistungsaufnahme der Endgeräte täuscht aber über einen wichtigen Zusammenhang hinweg: Die Nutzung der Endgeräte verursacht immer mehr Strombedarf in den Netzen und Rechenzentren. So verursacht ein beruflich genutztes Tablet heute im Durchschnitt ca. fünfmal mehr Strombedarf im Rechenzentrum als am Endgerät selbst [5]. Der Strombedarf der Übertragungsnetze ist gemäß einer Studie des Centre for Energy-Efficient Telecommunications bei der mobilen Internetnutzung noch einmal deutlich höher als der der Rechenzentren [6].
IT-Leistung schwer messbar
Dem gestiegenen Energiebedarf der Rechenzentren steht ein um ein Vielfaches gestiegener Output gegenüber. Die IT-Leistung der Rechenzentren ist in der Vergangenheit enorm angestiegen. Gemäß Moore’s Law verdoppelt sich die Zahl der Transistoren auf den Prozessoren alle 18 Monate – und das schon seit ca. 50 Jahren. Koomey hat einen ähnlichen Zusammenhang für die Energieeffizienz festgestellt – hier verdoppelte sich die Anzahl der Rechenschritte pro Kilowattstunde in der Vergangenheit alle 1,57 Jahre. Bezogen auf das einzelne Rechenzentrum ist es aber leider bis heute nicht möglich, den Output standardisiert so zu messen, dass quantitative Aussagen über die Entwicklung der Energieeffizienz und ein Vergleich verschiedener Rechenzentren möglich sind. Bisherige Versuche, geeignete Kennzahlen zu entwickeln, scheiterten an der Komplexität und an der Vielfalt der internen Software-Prozesse, mit denen IT-Hardware belastet wird, um seinen eigentlichen Zweck in der Applikation zu erfüllen. Ein Ansatz, der aktuell auch im internationalen Normungsprojekt ISO/IEC 30134-5 verfolgt wird, ist die Messung der CPU-Last als Maß für die Nutzung eines Servers. Gelingt es zusätzlich, ein Maß für die Leistungsfähigkeit des Servers zu bestimmen, so kann damit die tatsächlich erbrachte Leistung berechnet werden. Gemeinsam mit der dc-ce rz beratung hat Borderstep ein Arbeitspapier vorgelegt, in dem ein solcher Ansatz – basierend auf Messungen des Benchmarks SpecPower – vorgeschlagen wird [7]. Dieser Ansatz ermöglicht es, praktikable Ergebnisse erzielen, selbst bei komplexen und vielfältigen Diensten und Anwendungen.
Vielfalt der Rechenzentren
Bei allen Überlegungen zur Energieeffizienz von Rechenzentren ist eine Tatsache nicht zu vergessen: Kaum ein Rechenzentrum gleicht dem anderen. Rechenzentren werden in der Regel individuell geplant und haben ganz unterschiedliche Aufgaben zu erfüllen. Auch hinsichtlich der Größe unterscheiden sich die Rechenzentren sehr. Sprechen kleine Unternehmen bei einer Ansammlung von zwei oder drei Servern oft bereits von ihrem Rechenzentrum, so gilt für andere oft erst ein eigenes Gebäude mit einer Leistungsaufnahme im Megawattbereich als ein "richtiges" Rechenzentrum.
IT-Trends wie Konsolidierung von Rechenzentren, Virtualisierung und Cloud-Computing führen dazu, dass sich die Struktur der Rechenzentren laufend verändert. Der Trend geht klar zu großen Rechenzentren. Die Megarechenzentren von Google, Facebook, Apple, Microsoft und Co. mit Leistungsaufnahmen von 50 Megawatt stehen hier an der Spitze der Entwicklung. Aber auch große Colocation-Rechenzentren kommen bei der Leistungsaufnahme in diese Größenordnung. In Colocation-Rechenzentren vermieten kommerzielle Anbieter Infrastrukturkapazitäten für das Auslagern bzw. Unterbringen von Servern. Das Dienstleistungsspektrum dieser Rechenzentren umfasst somit die Bereitstellung von Stellflächen für IT-Hardware, deren Stromversorgung, Kühlung, Zugangsschutz und Brandsicherung sowie Anbindung an vorhandene Telekommunikationsnetzwerke. Die Kunden von Colocation-Rechenzentren sind Unternehmen und Institutionen, die aus verschiedenen Gründen keine eigenen Infrastrukturen betreiben können oder wollen. Insbesondere Unternehmen aus dem Cloud-Computing-Bereich greifen oft auf Colocationflächen zurück. In Deutschland gibt es mehr als 200 Colocation-Rechenzentren. Sie sind oft sehr groß. Etwa die Hälfte der Rechenzentren mit mehr als 5000 m2 IT-Fläche in Deutschland sind Colocation-Rechenzentren.
Der Anteil von Cloud-Rechenzentren und Colocation-Rechenzentren nimmt insgesamt deutlich zu. Gemessen an der IT-Fläche stellen sie heute schon mehr als ein Drittel der Rechenzentrumskapazitäten in Deutschland. Bis zum Jahr 2020 wird ihr Anteil auf ca. 50 Prozent steigen (Abb.2). Im Vergleich zu Cloud-Rechenzentren nimmt der Anteil traditioneller Rechenzentren weiter ab, insbesondere von denjenigen im Eigenbetrieb der Unternehmen und Behörden. Zahlenmäßig bilden diese Rechenzentren zwar mit über 95 Prozent den größten Anteil, gemessen an der IT-Fläche wird ihr Anteil aber von aktuell knapp 1,3 Mio. m2 bis zum Jahr 2020 deutlich auf nur noch 900.000 m2 sinken.
Die genannten Änderungen der Struktur der Rechenzentrumslandschaft wirken sich auch auf den Energiebedarf aus. Die neu entstehenden großen Rechenzentren werden deutlich effizienter sein als die Rechenzentren im Bestand. Aktuell liegt laut einer Umfrage von Borderstep im Februar 2014 der PUE-Wert guter neuer Rechenzentren in Deutschland bei 1,2 bis 1,5. Damit benötigen diese allein durch die Steigerung der Energieeffizienz der Infrastruktur mehr als 25 Prozent weniger Energie als ein vergleichbares Bestandsrechenzentrum mit einem PUE von 2,0.
Ausblick
Die Bedeutung von Rechenzentren für die Wirtschaft und die Gesellschaft wird in Zukunft weiter zunehmen. Kaum eine wirtschaftliche Tätigkeit und auch viele Freizeitbeschäftigungen sind heute ohne funktionierende Rechenzentren vorstellbar. Mit der zunehmenden Digitalisierung wird diese Bedeutung sogar noch stark zunehmen. Eine Folge der zunehmenden Nutzung von zentral bereit gestellter IT-Leistung ist der weiter zunehmende Energiebedarf der Rechenzentren – trotz deutlicher Effizienzverbesserung.
Der Energiebedarf der Rechenzentren ließe sich aber durchaus reduzieren. Dass die Rechenzentrumsinfrastruktur oft für 50 Prozent und mehr des Strombedarfs eines Rechenzentrums verantwortlich ist, passt nicht mehr in die Zeit. Hier ist noch ein sehr großes Optimierungspotenzial. Gelänge es, den durchschnittlichen PUE-Wert von aktuell 1,8 auf realistische 1,4 zu senken, so bräuchte man ein Kohlekraftwerk weniger in Deutschland. Ein sehr hohes Potenzial besteht zudem in der Nutzung der Abwärme von Rechenzentren. Selbst bei einem PUE-Wert von nahe eins liefert ein Rechenzentrum mit einer Leistungsaufnahme von 50 MW immer noch genau diese Energiemenge in Form von Abwärme. Bislang werden die 50 MW einfach in die Luft gepustet. Dabei könnte man damit problemlos alle Haushalte einer Kleinstadt mit Wärme versorgen.
Abschließend lässt sich also feststellen, dass Rechenzentren aufgrund ihrer enormen Bedeutung für die Wirtschaft und Gesellschaft und der hohen Effizienzfortschritte bestimmt nicht als "Energiefresser" bezeichnet werden können – dennoch gibt es sehr hohe Potenziale, ihre Energieeffizienz weiter zu steigern.
- R. Hintemann und J. Clausen: Rechenzentren in Deutschland: Eine Studie zur Darstellung der wirtschaftlichen Bedeutung und Wettbewerbssituation. Studie im Auftrag des Bundesverbandes Informationswirtschaft, Telekommunikation und neue Medien e.V. (BITKOM), Berlin, 2014
- L. Stobbe, M. Proske, H. Zedel, R. Hintemann, J. Clausen, und S. Beucker: Entwicklung des IKT-bedingten Strombedarfs in Deutschland - Studie von Fraunhofer IZM und Borderstep im Auftrag des Bundesministeriums für Wirtschaft und Energie, Fraunhofer IZM und Borderstep Institut, Berlin, 2015
- R. Hintemann: Deutliches Wachstum bei deutschen Rechenzentren – Update 2015. Studie zur Entwicklung von Rechenzentren im Jahr 2015, Borderstep Institut, Berlin, 2015
- G. Nebuloni und A. Olah: Wachstumsmotor IT: So fördern effiziente Rechenzentren das Unternehmenswachstum, IDC/Rittal, Frankfurt, 2014
- R. Hintemann und K. Fichter: Energy demand of workplace computer solutions - A comprehensive assessment including both end-user devices and the power consumption they induce in data centers, in EnviroInfo & ICT4S, Conference Proceedings (Part 1), Copenhagen, 2015, S. 165–171
- CEET: The Power of Wireless Cloud. An Analysis of the Energy Consumption of Wireless Cloud., 2013
- L. Ackermann und R. Hintemann: KPI für IT-Leistung und Energieeffizienz von Rechenzentren. Borderstep Arbeitspapier, Borderstep Institut, Berlin, 2016