26.01.2021 – Kategorie: Cloud Computing
Public Cloud: Warum der erste Cloud Business Case immer falsch ist
Gut an der Cloud: man zahlt das, was man nutzt. Schlecht an der Cloud: man zahlt, was man nutzt. Was wie ein Widerspruch klingt, kann sich fatal auf die Kosten bei der Cloud-Migration auswirken. Wer den Einsatz der Public Cloud prüft oder sie schon nutzt, , kann mit folgender Vorgehensweise Kosten senken.
Laut dem „Cloud Monitor 2020“ des Bitkom nutzen ein Drittel aller Unternehmen in Deutschland schon die Public Cloud und für ein weiteres Drittel plant dies. Obwohl es also schon sehr viele Cloud-Migrationsprojekte gibt, habe ich noch kein einziges Mal gehört, dass sich die Annahmen aus dem ursprünglichen Business Case tatsächlich als zutreffend herausgestellten. Bei den Berichten von Kunden und Partnern ist die ganze Bandbreite dabei: von wir wurden „überraschenderweise teurer“ bis zu „überraschenderweise deutlich günstiger“.
Public Cloud: Eine Frage der Wirtschaftlichkeit
Dennoch ist es keine Option, die Wirtschaftlichkeit einer Cloud-Migration nicht zu hinterfragen. Dabei muss man aber zwei entscheidende Faktoren berücksichtigen: Erstens kann man davon ausgehen, dass eine Unterschreitung der ursprünglich angenommenen Kosten durchaus akzeptiert wird, der Betrieb in der Cloud später aber nicht teuer sein sollte als ursprünglich angenommen. Zweitens muss man feststellen, dass sich die niedrigsten Betriebskosten für eine Anwendung erst dann ermitteln lassen, wenn das System bereits in die Cloud migriert wurde.
Vorsicht beim Vergleichen
Während der erste Punkt kaum diskutiert werden muss, die Worst-Case-Betrachtung ist für die meisten Fälle ausreichend, ist der zweite Punkt spannend. Die häufigste Methode zur Ermittlung der Betriebskosten in der Cloud führt nämlich fast immer zu falschen Ergebnissen: der sogenannte „Like for Like“-Vergleich der Bestandsumgebung mit einer zukünftigen Cloud-Umgebung. Bei diesem Vergleich werden Server, CPU, Arbeitsspeicher und Storage quantifiziert und diese Ergebnisse in die öffentlichen Preiskalkulatoren der Cloud-Anbieter eingegeben. Das Ergebnis lautet fast immer: Die Cloud ist teurer als der aktuelle Betrieb.
Laut Cloud Monitor können 91 Prozent aller befragten Unternehmen gesunkene oder zumindest gleichbleibende Kosten feststellen. Markstudien von Analysten sehen das Einsparpotential irgendwo zwischen 56 Prozent (Studie von IDC zu AWS) und – bedingt durch besonders hohe Einspareffekte bei Windows-Systemen – 70 Prozent (Studie von Forrester zu Microsoft Azure). Warum weicht also der eigene „Like for Like“-Vergleich davon ab?
Das Problem: Wenn in der Vergangenheit ein System konfiguriert wurde, orientierte man sich an den Empfehlungen des Herstellers. Lieber etwas mehr CPU-Leistung und lieber etwas mehr Arbeitsspeicher. Das fällt in der eigenen virtualisierten Umgebung kaum auf. In der Cloud zahlt man allerdings alles, was man nutzt. Auch wenn man es nicht braucht. Das bedeutet: Eine virtuelle Maschine mit 16 halb ausgelasteten Prozessoren kostet in der Regel doppelt so viel wie eine Maschine mit acht voll ausgelasteten Prozessoren. Obwohl der genutzte Leistungsbedarf der Anwendung identisch ist.
Kostenreduktion in der Cloud
Aber sollten die massiven Skaleneffekte der Hyperscaler nicht zu deutlich geringeren Preisen führen? Absolut. Allerdings kauft man nicht nur eine virtuelle Maschine ein, sondern einen Service zum Betrieb einer VM, inklusive aller Service- und Support-Kosten. Außerdem müssen die Hyperscaler für den kurzfristigen Bedarf ihrer Kunden viele zusätzliche Kapazitäten vorhalten, die auch in die Mischkalkulation einberechnet werden.
Genau darin liegt auch das Geheimnis der Kostenreduktion in der Cloud: Man sollte möglichst wenig ungenutzte Ressourcen (sog. Waste, Müll) in seiner Cloud-Nutzung haben. Zusätzlich können jene Kunden deutlich finanziell profitieren, die den Hyperscalern bei der Planung ihrer Ressourcen-Nutzung helfen. Wer dann noch zusätzlich die Unterschiede und den Wettbewerb zwischen den Hyperscalern zu nutzen weiß, der wird seinen ursprünglichen Business Case immer unterbieten können.
„Müll-Management“ nicht vernachlässigen
Der erste Punkt, das Verhindern von „Waste“ durch sogenanntes „Waste Management“, geschieht durch eine laufende Überprüfung der Auslastung der genutzten Ressourcen. Die CPUs und Konfigurationen der Hyperscaler sind häufig leistungsfähiger als die bisherige Hardware. Das bedeutet, dass je nach Anwendung die gleiche Leistung aus weniger virtueller Hardware herausgeholt werden kann. Das wirkt sich nicht nur auf die Kosten der Virtuellen Maschine (VM) aus, sondern auch auf die eingesetzten Lizenzen, die nicht selten ebenfalls nach den virtuellen Cores abgerechnet werden.
Auch muss geprüft werden, ob Anwendungen mit geringer Grundlast aber hohen Lastspitzen in günstigeren Burst-Machines betrieben werden können. Auch die Nutzung sogenannter SPOT-Instanzen – Restkapazitäten, die im Marktplatzprinzip vertrieben werden – können die Kosten für bestimmte Anwendungstypen deutlich reduzieren. Am ehesten spart man natürlich in der Public Cloud, wenn man Workloads abschalten kann. Wenn das wegen 24×7-Anforderungen nicht möglich ist, kann man dem Hyperscaler die dauerhafte Nutzung über sogenannte „Reservations“ ankündigen und wird für die bessere Planbarkeit mit bis zu 80 Prozent Rabatt auf die VM belohnt.
Beim Vergleich zwischen den Hyperscalern können deutliche Unterschiede auftreten: VM ist nämlich nicht gleich VM. Bei manchen Anbietern ist beispielsweise lokaler Storage enthalten, der bei anderen Anbietern zusätzlich bezahlt werden muss. Auch die SLAs der VMs können unterschiedlich sein und je nach Anbieter muss eine zweite VM betrieben und bezahlt werden, damit überhaupt eine minimale Verfügbarkeit gewährleistet wird.
Kalkulation der Public Cloud kann schnell komplex werden
Nicht zuletzt gibt es Unterschiede bei den Lizenzen für Betriebssysteme und Datenbanken: Zwar lassen sich bei allen Hyperscalern deutliche Einsparungen bei den Lizenzkosten realisieren, die Unterschiede sind aber wesentlich. So können anbieterspezifisch bestimmte Lizenzen ohne Mehrkosten gleichzeitig im eigenen RZ und in der Cloud genutzt werden.
Die Kalkulation eines korrekten Cloud Business Case kann schnell komplex werden. Die verschiedenen Hyperscaler bieten allerdings sogenannte Cloud Adoption Frameworks an, die Erfahrungen aus unzähligen Kundenprojekten zusammenführen und die Aspekte Mensch, Technik und Prozesse ganzheitlich in einem iterativen Vorgehensmodell greifbar machen. Wer sich dem Cloud Business Case genauso iterativ nähert und das als Betriebsprozess etabliert, der wird zu denen gehören, die die Einsparpotentiale der Cloud tatsächlich heben können.
Man muss anerkennen, dass die Disziplin der Wirtschaftlichkeitsbetrachtung der Cloud-Nutzung für viele Unternehmen noch neu ist. Mittlerweile hat sich allerdings auch schon eine aktive Community und ein „De Facto“-Standard für dieses Thema unter dem Begriff „FinOps“ gebildet (Financials+Operations, in Anlehnung an DevOps). Die Erfahrungen und das Buch der FinOps Foundation sind sehr lesenswert und an dieser Stelle als weitere Informationsquelle zu diesem Thema absolut empfohlen.
Über den Autor: Patrick Schidler ist Head of Azure Cloud Marketing bei Microsoft Deutschland.
Lesen Sie auch: Public Cloud auf AWS und Azure: Neues Angebot für den Engineering-Bereich
Teilen Sie die Meldung „Public Cloud: Warum der erste Cloud Business Case immer falsch ist“ mit Ihren Kontakten: