20.09.2013 – Kategorie: IT, Management
Green IT: Effizienz-Klasse statt Hardware-Masse
Rechenzentren und Server werden immer energieeffizienter.
Das belegte bereits im Mai letzten Jahres eine Studie des Borderstep-Instituts im Auftrag des BITKOM. Demnach ist zwar die Zahl der in Deutschland verwendeten Server zwischen 2008 und 2011 um sieben Prozent auf gut 2,3 Millionen gestiegen, der gesamte Stromverbrauch sank jedoch im gleichen Zeitraum um vier Prozent auf 9,7 Terawattstunden (TWh). Zu verdanken ist diese Entwicklung zum einen der effizienter gewordenen Informationstechnik selbst – insbesondere konnte der Verbrauch von Servern maßgeblich verringert werden – zum anderen wird dank innovativer Kühlkonzepte deutlich weniger Energie für die Klimatisierung der Rechenzentren benötigt. Der Trend des steigenden Stromverbrauchs der Server und Rechenzentren in Deutschland scheint somit gestoppt beziehungsweise sogar umgekehrt worden zu sein. Dass an dieser Entwicklung nicht nur Großkonzerne beteiligt sind, zeigt das Beispiel der Thomas-Krenn.AG. Das Unternehmen aus dem Bayerischen Wald hat sich auf die Entwicklung, Herstellung und den Vertrieb besonders effizienter Server spezialisiert und ist – was vielen bislang nicht bewusst war – auch in den Bereichen Cloud und Virtualisierung sehr gut aufgestellt. Peter Ackermann, Manager Hosting, erläutert in seinem Beitrag, welche Erfolge die Branche bereits in puncto Nachhaltigkeit erzielen konnte und wo noch Handlungsbedarf besteht.
Durchschnittlicher Energieverbrauch
Die Frage nach dem durchschnittlichen Verbrauch eines Rechenzentrums lässt sich nicht so ohne Weiteres beantworten: Was ist ein durchschnittliches Rechenzentrum? Welche Last wird genutzt? Wie sind die einzelnen Module aufgebaut? Hier gibt es viele Möglichkeiten und Faktoren. Auch die Frage nach dem Energieverbrauch einer Suchanfrage zum Beispiel kann aufgrund unterschiedlichster Faktoren kaum beantwortet werden. Um nur einige zu nennen: Wie viele Suchserver laufen genau? Wie sind diese konfiguriert? Wie gut ist der Suchalgorithmus? Zählt man die Last von nur einem Suchserver, der diese Suchanfrage bearbeitet oder vom kompletten Cluster? Damit wird die Komplexität dieser Thematik deutlich. Gerade die IT-Branche mit ihrem großen Energieaufwand sollte sich jedoch ihrer Verantwortung bewusst sein und insbesondere beim Bau neuer Rechenzentren den Aspekt der Nachhaltigkeit berücksichtigen.
Doch auch vorhandene IT-Systeme lassen sich durch eine Reihe von Maßnahmen und Möglichkeiten optimieren. Die Informationstechnologie entwickelt sich in fast allen Software- und Hardwarebereichen enorm schnell und oftmals revolutionär weiter. Damit Unternehmen möglichst schnell auf neue Anforderungen reagieren können, sollten moderne Serverlandschaften daher vor allem einen flexiblen Aufbau mitbringen.
Eine Technologie, die in den letzten Jahren maßgeblich an Bedeutung gewonnen hat und deren Potenzial noch lange nicht ausgeschöpft ist, ist das Cloud Computing. Trotz der noch immer vorherrschenden Unsicherheit in den Unternehmen lässt sich eine eindeutige Zunahme in der Nutzung der Cloud verzeichnen. Mittelständler hinken bei dieser Entwicklung nach wie vor etwas hinterher, obwohl sich ihre Anforderungen an IT-Infrastrukturen immer mehr denen von Großunternehmen annähern. In vielen Fällen resultiert ihre Unsicherheit aus Unwissenheit und fehlendem Verständnis sowie möglicherweise schlechten Erfahrungen mit unseriösen Anbietern in der Vergangenheit. Insbesondere für KMUs kann sich die „Wolke“ jedoch lohnen. Bislang noch fehlende Standards machen es aber umso wichtiger, die Dienste des Providers gründlich zu testen, bevor man sich für eine Auslagerung von Daten entscheidet. Im Idealfall hat man hierfür ein abzuarbeitendes Testprotokoll in petto, das sich direkt mit den Angeboten weiterer Anbieter vergleichen lässt. Wichtig ist vor allem, dass das Testprotokoll bereits an das Projekt angepasst wird. Es ist beispielsweise nicht sinnvoll, die Außenanbindung eines Cloud-Angebots zu testen, wenn die entsprechende Anwendung kaum Daten außerhalb der Infrastruktur transferiert. Sollte es darüber hinaus schon eine Virtualisierungslösung im eigenen Haus geben, ist darauf zu achten, ob es eine Austauschmöglichkeit mit der geplanten Cloud-Lösung gibt und wie diese aussieht. Das kann Kosten sparen und die eigene Arbeit deutlich erleichtern.
Komplexe Infrastruktur leicht aufgebaut
Darin liegt auch das größte Potenzial des Cloud Computing, da nun Lösungen erschwinglich sind, für die man früher viel Hardware benötigt hätte und die für zahlreiche Unternehmen schlichtweg unbezahlbar waren. Dank der heute existierenden Technologien können hochkomplexe Infrastrukturen relativ leicht und kostengünstig aufgebaut werden. Zudem kann der Kunde innerhalb kürzester Zeit eine neue Serverinstanz starten, die auch erst ab diesem Zeitpunkt abgerechnet wird. So haben auch kleine Firmen mit schmalem Budget und innovativen Ideen die Chance, diese zu verwirklichen und damit den Markt voranzutreiben. Vor einigen Jahren war dies noch undenkbar, da man in der Regel schon bei der Einführung von bestimmten Projekten einen großen Serverpark betreiben und auch bezahlen musste. Gerade durch die Verknüpfung von etablierten Technologien mit der Cloud ergeben sich heute ganz neue Möglichkeiten.
Ein schöner Nebeneffekt des Cloud Computing sind zudem Effizienzsteigerungen im Hardware-Bereich: Ob nur noch 80+-zertifizierte neue Netzteile, spezielle Low Voltage CPUs oder RAM mit einem sehr niedrigen Watt-per-GByte-Wert, all das kann den Energieverbrauch maßgeblich reduzieren. Zum Vergleich: Lagen die durchschnittlichen jährlichen Stromkosten eines Servers aus dem Jahre 2006, beispielsweise dem SR 1325, noch bei 352,59 Euro, waren es bei einem vergleichbaren Gerät aus dem Jahre 2009, wie etwa dem CSE 512, noch durchschnittlich 257,89 Euro. Heute verbraucht der CSE 512 sogar nur noch 92,72 Euro pro Jahr und das bei einer gleichzeitigen Leistungssteigerung um 500 Prozent.
Trend zur Virtualisierung
Die bedeutendste Entwicklung der letzten Zeit – auch in Bezug auf „Green IT“ – ist definitiv die Virtualisierung – ob für Server, Storage oder Netzwerk. Durch Virtualisierung sind wir heute in der Lage, Hardware-Ressourcen richtig auszunutzen und energieeffizient zu arbeiten. Anstelle eines Serverparks mit 20 bis 30 notwendigen Servern in der Vergangenheit verrichten heute nur noch zwei bis drei Hosts mit bis zu 30 virtuellen Servern ihren Dienst. Dies verringert zum einen maßgeblich den Energieverbrauch, zum anderen erreicht man eine höhere Verfügbarkeit und leichtere Skalierung. Für eine virtualisierte Umgebung ist stabile Hardware unerlässlich. Neben den Servern ist zudem ein zentraler Storage erforderlich, der unbedingt ausreichend dimensioniert sein muss. Um hier eine performante Infrastruktur zu implementieren, sollte zuvor eine genaue Bedarfsanalyse erstellt werden, die neben der Zahl der zu virtualisierenden Server auch detaillierte Daten zum Anwendungsverhalten enthalten sollte. Lässt man diese Analyse außen vor, läuft man Gefahr, dass man entweder zu groß dimensioniert, was unnötige Kosten verursacht, oder zu klein, was im schlimmsten Fall zu einer Nichtfunktion der gesamten Umgebung führen kann.
Insgesamt wird das Thema „Green IT“ häufig jedoch noch recht stiefmütterlich behandelt, da viele gar nicht wissen, was es heute schon für Möglichkeiten gibt. Hier gilt es, sich entsprechend zu informieren und die besten Varianten auszuprobieren und vor allem die eingesetzten Funktionen regelmäßig auf Einsparmöglichkeiten und Effizienz zu kontrollieren. Das setzt ein gewisses Verantwortungsbewusstsein und Interesse für diese Thematik voraus. Ein Blick auf die Energiewerte der eingesetzten Lösungen ist grundsätzlich sinnvoll. Allerdings ist das nicht immer möglich, da man häufig auf vorhandene Industrielösungen zurückgreifen muss. Bei Cloud und Hosting sollte sich der Anwender jedoch immer überlegen, welche Dienste beziehungsweise Server in der Cloud laufen können. Hierdurch kann die zugrunde liegende Hardware in der Regel deutlich effizienter genutzt werden, was zu geringerem Energieverbrauch und zugleich geringeren Kosten führt.
Bei der Thomas-Krenn.AG beschäftigt man sich seit längerem damit, weil immer wieder Anfragen von Kunden kommen, ob die Server, die Thomas Krenn verkauft, nicht auch für die eigenen Kunden gehostet werden könnten. Inzwischen hat das Unternehmen seine Dienstleistungen in diesem Bereich stetig erweitert und ist mit seinem Enterprise-Hosting-Angebot gerade in den Bereichen Cloud und Virtualisierung stark. Neben der reinen Virtualisierung bietet Thomas Krenn seinen Kunden allerdings auch die Möglichkeit, klassische dedizierte Server mit virtualisierten Servern und der eigenen Cloud-Lösung sinnvoll zu verknüpfen und informiert darüber, welche Workloads sich virtualisieren lassen und welche besser auf normalen Servern aufgehoben sind.
Optimierung der Software
In vielen Bereichen werden Performance-Probleme immer noch mit zusätzlicher Hardware kompensiert, was jedoch in den meisten Fällen überhaupt nicht nötig ist. Durch reine Software-Optimierung kann die Leistung des Gesamtsystems um bis zu 1.000 Prozent gesteigert werden. Sorgt ein Unternehmen etwa beim Programmieren von Webseiten oder Programmen dafür, dass die eigenen Algorithmen möglichst ressourcenschonend und effizient laufen, trägt es bereits einen großen Teil zur „Green IT“ bei. Kürzere Laufzeiten bedeuten weniger Rechenzyklen und damit weniger Energieverbrauch. Gerade bei alten, etablierten Codes sollte man daher in regelmäßigen Abständen Kontroll-Audits durchführen und überlegen, ob das ganze System nicht gegebenenfalls durch neue Technologien wesentlich effizienter zu nutzen ist. Das intelligente Nutzen von Caches zum Beispiel kann bereits einiges bewirken. Unter welchen Bedingungen das Gesamtsystem und die einzelnen Komponenten optimal laufen, lässt sich am besten durch detaillierte und regelmäßige Überprüfung ersehen. Wenn in einem Server beispielsweise ein RAID-Controller verbaut ist, der auf Streaming-Performance optimiert wurde, wird eine hauptsächlich random-I/O produzierende Anwendung kaum das Optimum an Leistung erreichen. Sollte es in der Programmierung allerdings gelingen, diesen random-I/O im RAM zu cachen, dort zu sortieren, um dann als „Stream“ auf das RAID-System zuzugreifen, wird dies ein paar Leistungspunkte einbringen. Ein Standardrezept zur Prozess-Optimierung gibt es nicht, aber jegliche Art von Beschäftigung mit dieser Thematik hilft bereits dabei, „Green IT“ weiter voranzutreiben. (ak)
Teilen Sie die Meldung „Green IT: Effizienz-Klasse statt Hardware-Masse“ mit Ihren Kontakten: