12.09.2013 – Kategorie: IT
Storage-Markt in Deutschland: Starkes Datenwachstum fordert Unternehmen
IT-Verantwortliche erwarten in den nächsten 24 Monaten einen starken Anstieg des Datenvolumens. So rechnen zwei von drei Befragten mit einem Zuwachs von über 20 Prozent in diesem Zeitraum. Grafischen Daten wie Bildern und Videos wird mit 44 Prozent der Nennungen das größte Wachstum zugetraut, dahinter folgen mit 42 Prozent solche mit unstrukturiertem Inhalt wie Office-Dokumente oder E-Mails und mit 38 Prozent Transaktionsdaten aus Business-Anwendungen.
IDC geht davon aus, dass Unternehmen kurzfristig auf diese Entwicklung reagieren und Lösungen finden müssen, ansonsten könnte es zu einer Überlastung der IT-Infrastruktur und insbesondere der Speicher und Netze kommen. Neben dem Management, der Analyse und der Ausschöpfung des Informationspotenzials dürfen auch die technologischen Auswirkungen des Datenzuwachses nicht vernachlässigt werden.
Welche Schwerpunkte IT-Verantwortliche aus der erwarteten Entwicklung ziehen sollten, erläutert Mark Schulte, Consultant bei IDC: „Ganz oben auf der Prioritätenliste der IT-Entscheider stehen die Steigerung der Storage-Kapazität sowie die Sicherstellung der Datenaufbewahrung und Compliance. Ebenfalls als wichtig einzustufen sind der Schutz der virtuellen Serverinfrastruktur, die Steigerung der Storage-Performance und die Reduzierung der Storage-Kosten. Unternehmen haben also den Handlungsbedarf erkannt, stehen aber gleichzeitig auch unter Kostendruck.“
Derzeit setzen 56 Prozent der befragten Unternehmen Virtualsierungslösungen ein, knapp ein Drittel plant den Einsatz innerhalb der nächsten zwölf Monate. Als größten Treiber für diese Entwicklung nannten 41 Prozent die bessere Speicherauslastung, gefolgt von der Steigerung der Storage Performance (36 Prozent) und der Verringerung der Speicherkosten (35 Prozent).
Nutzenorientiertes Cloud Storage
Speicherkapazität aus der Cloud zu beziehen, ist keine Seltenheit mehr. Dabei favorisieren Unternehmen Storage aus der eigenen Private Cloud gegenüber der gehosteten Private und Public Cloud. Die Menge des genutzten Speichers ist dabei mit zehn bis 19 Prozent der Unternehmenskapazität noch relativ gering. IT-Verantwortliche sehen in der Nutzung von Storage in der Public Cloud die mit Abstand größte Herausforderung, insbesondere, was IT-Sicherheit und Kontrolle der Daten betrifft. Mit einer zunehmenden „Privatisierung“ des Cloud Storage in der Hosted und In-House Private Cloud sinken allerdings diese Hürden. Während bei der Public Cloud vor allem die Kostenreduzierung als Vorteil gesehen wird, sind es bei der Private Cloud die höhere IT-Sicherheit und Effizienz der Storage-Umgebung.
Starkes Wachstum von Solid State Storage
IDC geht davon aus, dass der Einsatz von SSD/Flash-basiertem Speicher in den kommenden zwei Jahren stark anwachsen wird. Dessen Anteil an der Speicherkapazität im Unternehmen soll demnach um 43 Prozent ansteigen. Derzeit kommen am häufigsten SSDs in Kombination mit Festplatten zum Einsatz. Die Verwendung von hybriden Arrays bieten Anwendern sowohl Performance-Vorteile der SSD-Technologie als auch die hohe Kapazität der Festplatten.
Das Rechenzentrum „aus der Box“
Konvergente Systeme nutzen derzeit 16 Prozent der befragten Unternehmen. Wenngleich also die Verbreitung noch relativ gering ist, gibt ein Viertel der befragten Unternehmen an, integrierte Lösungen in den nächsten zwölf Monaten implementieren zu wollen. Bevorzugt werden Komplettlösungen, in denen Speicher-, Netzwerk- und Rechenkomponenten von einem Hersteller integriert sind. Als Vorteile für die Nutzung eines Rechenzentrums „aus der Box“ wird die bessere Anwendungs-Performance, höhere Verfügbarkeit und Flexibilität sowie die effiziente Nutzung der IT-Ressourcen genannt, die sich als Private Cloud kurzfristig verwirklichen lässt. Als Nachteile werden die geringere Sicherheit, ein hoher Preis und die schwierige Integration in die bestehende IT-Infrastruktur angeführt.
Scale-Out-Storage mit Potenzial
Die größten Vorteile einer Scale-Out-basierten Storage-Architektur sehen die befragten IT-Entscheider in der hohen Performance und Skalierbarkeit sowie im einfachen Management der Storage-Umgebung. Derzeit verwenden allerdings erst sieben Prozent der befragten Unternehmen Scale-Out-Storage. Als Gründe hierfür sieht IDC die noch relativ geringe Anzahl von Anbietern und das Scale-Out-Prinzip im Storage-Bereich.
Software-defined Storage als Innovationstreiber
Das Konzept des Software-defined Storage stellt die zentrale Komponente der Vision des Software-defined Data Center dar. Ziel einer solchen Plattform ist die Zusammenführung von Storage-Ressourcen und der Aufbau einer Service-basierten Infrastruktur. Bislang haben allerdings erst acht Prozent der befragten Unternehmen ein solches Konzept umgesetzt. Als die größten Vorteile von Software-defined Storage werden Kostenvorteile und die Skalierbarkeit des Speichers genannt. 42 Prozent der befragten IT-Entscheider sehen die Software als wesentlichen Treiber für Innovationen im Speicherbereich.
Wie sollen nun Unternehmen bei der Auswahl der passenden Storage-Lösung für Ihre Umgebung vorgehen? „Unternehmen sollten sich ein aktuelles Lagebild verschaffen und prüfen, inwieweit ihre bestehenden Speichertechnologien für die künftigen Anforderungen und Entwicklungen gewappnet sind“, empfiehlt Mark Schulte. „Gezielte Investitionen in für das Unternehmen geeignete Storage-Lösungen sollten über kurzfristigen Kosteneinsparungen stehen.“
Über die Ergebnisse der IDC-Studie „Storage in Deutschland 2013“ und aktuelle Trends auf dem Storage-Markt sprachen wir mit mehreren Anbietern.
digitalbusiness CLOUD: Speichertechnologien gelten heute als einer der wichtigsten Schlüsselfaktoren für ein effizientes Rechenzentrum. Warum werden gerade Storage-Komponenten immer bedeutsamer?
André M. Braun, Germany Sales Director Storage bei Dell:
In den Rechenzentren der Unternehmen gibt es genau zwei Elemente, die einen kritischen Pfad innerhalb des Betriebs darstellen: Netzwerk und zentralisierter Storage. In einem hoch automatisierten und zentralisierten Rechenzentrum sind alle Systeme an ein zentralisiertes Storage-System angeschlossen, daher liegen höchste Verfügbarkeitsansprüche für diesen zentralen Punkt vor. Infrastrukturen, die auf „On-Premise“-Private-Cloud-Strukturen basieren, sind in ihren Funktionalitäten nur dann betreibbar, wenn die Daten von sämtlichen Ressourcen gleichzeitig „gesehen“ werden können. Auch Verfahren wie homogene und zentrale Backups werden durch diese Art der Datenverwaltung immer einfacher. In unserer heutigen Zeit, in der Informationen zu einem Produktionsfaktor und einem der wichtigsten Wirtschaftsgüter geworden sind, müssen wir mit den Herausforderungen und Risiken entsprechend umgehen. Die einzige realistische Antwort liegt hier in der Zentralisierung der Datenhaltung in Form eines modernen Rechenzentrums.
Stefan Roth, Sales Competence Center Storage & Network Solutions bei Fujitsu Technology Solutions:
Nicht nur die Zunahme der Datenflut und -vielfalt weisen den Storage-Komponenten eine große Bedeutung zu, sondern auch die unterschiedlichsten Anforderungen aus dem Business und der Applikationen, sowie die Notwendigkeit, diese kosteneffizient abzubilden.
Hinzu kommt, dass mit immer mehr Daten umgegangen werden muss, ohne dass die Kosten deshalb explodieren. Deshalb ist es wichtig, eine flexible und skalierbare Storage-Infrastruktur zu haben, die sich mit den Server und Applikationsinfrastrukturen nahtlos integriert und sehr einfach betrieben werden kann. Auch neue Themen wie Big Data und In-Memory-Technologien wie SAP HANA spielen eine wichtige Rolle im Storagebereich beziehungsweise haben große Auswirkungen auf die Anforderungen.
Alexander Wallner, Area Vice President Central EMEA bei NetApp:
Ich denke, diese Entwicklung hat mehrere Ursachen. Zu allererst stellen zumindest vier der aktuellen Megatrends in der IT – Mobility, Cloud, Big Data und Social Media – spezielle Anforderungen an die IT-Infrastruktur und vor allem an den Storage. Beispielsweise virtuelle Desktops oder BYOD (Mobility), Software Defined Datacenter (Cloud) und Analytics-Lösungen wie Hadoop (Big Data) erfordern innovative Ansätze beim Thema Storage. Merkmale wie Performance, Skalierbarkeit, permanente Verfügbarkeit und gleichzeitige Effizienz/Wirtschaftlichkeit müssen unter einen Hut gebracht werden. Der zweite Punkt ist das immer schnellere Datenwachstum und die damit immer größer werdende Datenmenge, die in den Unternehmen verwaltet werden muss. Beide Kriterien sind meiner Meinung nach die Schlüsselfaktoren für die steigende Bedeutung von Storage.
Gerald Sternagl, EMEA Business Unit Manager Storage bei Red Hat:
Seit dem Ende des letzten Jahrzehnts zeichnen sich bei dem zu speichernden Datenvolumen in den Unternehmen zwei zentrale Trends ab: Erstens eine drastische Zunahme der Quantität. Durchschnittliche Steigerungsraten von 50 Prozent über den Verlauf der letzten fünf Jahre sind für die Datacenter großer Unternehmen durchaus an der Tagesordnung. Das Datenvolumen hat sich damit nahezu verzehnfacht. Zweitens ist es zu einer bemerkenswerten Verschiebung innerhalb des Datenvolumens gekommen. Vor einigen Jahren noch verteilten sich die Bestände gut zur Hälfte jeweils auf die strukturierten beziehungsweise unstrukturierten Bestände. Heute entfallen 90 Prozent auf unstrukturierte Daten wie Bilder, Dokumente und Videos und nur noch zehn Prozent auf strukturierte Datenbanken. Unternehmen können die Datenflut und die damit einhergehenden strukturellen Verschiebungen nur mit einer softwarebasierten Lösung bewältigen, bei der sich entweder alle Daten im eigenen Rechenzentrum oder in einer hybriden Cloud-Umgebung befinden.
digitalbusiness CLOUD: Welche Vorgehensweise empfehlen Sie Unternehmen, um die Speichertechnologien in dem vorhandenen eigenen Rechenzentrum zu optimieren?
André M. Braun, Dell: Es gibt hier keine allgemeingültige Antwort auf diese Frage. So verschieden wie die Anforderungen von Unternehmen sind, so verschieden muss auch die Vorgehensweise bei der Analyse dieser Anforderungen sein. Was allerdings immer am Anfang stehen wird, ist die Analyse beziehungsweise generelle Aufnahme des „Ist-Zustands“ bei den einzelnen Unternehmen. Dazu gehören Unterscheidungen der Typen an Informationen, wie beispielsweise Datenbanken oder einzelne Daten, genauso wie das Alter, die Häufigkeit des Zugriffs und die Anforderungen an die Geschwindigkeit der Bereitstellung.
Hinzu kommen gesetzliche Anforderungen an die Dauer und die Art der Aufbewahrung (Compliance), zudem muss sich das Unternehmen auch Gedanken zum Schutz der Daten machen. Hier greifen dann Themen wie Backup, Desaster-Schutz, GEO-Redundanz, RTO ( Recovery Time Objective ) oder RPO ( Recovery Point Objective) in das Konzept mit ein. Am besten lassen sich Unternehmen durch ein neutrales Assessment unterstützen, an dessen Ende eine saubere Analyse der wirklichen Notwendigkeiten steht, dies dann in Relation zu den Mitteln, die das Unternehmen für die Lösung zur Verfügung hat. Die letzten zehn Prozent Sicherheit einer Infrastruktur sind immer die teuersten, das gilt besonders für Storage-Landschaften. Dell bietet derzeit einen zweitägigen Workshop an, um für diese Fragestellungen eine Basis zu legen.
Stefan Roth, Fujitsu Technology Solutions: Intelligente Ablage von Daten und Informationen erfordern eine genaue Analyse der Datenstrukturen, die sich auch wieder schnell ändern kann. Daher ist es notwendig, eine möglichst flexible Storage-Infrastruktur mit der nötigen Flexibilität, Skalierbarkeit und einem einfachen Management zu etablieren. Am besten eignen sich Strukturen, die wie in einem Family-Konzept alle Notwendigkeiten über alle Größen und Tiers zu Data Management und Data Protection abdecken und ein einheitliches, flexibles und einfaches Management bieten. Auch ist es dabei wichtig, dass innerhalb dieser Infrastruktur Technologien wie Flash, Virtualisierung usw. einfach und kosteneffizient mit eingebaut werden können. Die Fujitsu-Storage-Produkte bieten genau diese Vorteile für die Kunden und darüber hinaus noch einige Funktionen (wie SLA-basierte Ablage im Online-Storage und Data Protection), die einzigartig auf dem Markt sind und somit die Effizienz beim Einsatz noch steigern.
Alexander Wallner, NetApp:Künftig wird für alle Unternehmen wichtig sein, zu entscheiden, welche Dienste im Rechenzentrum noch selbst erbracht und produziert werden sollen und welche Services man von außen zukaufen will. Sicherlich wird daraus sehr oft ein hybrides Modell entstehen, also eine Mischung aus Private und Public Cloud Services. Die Ausbaustufe des Private-Cloud-Modells wird sicherlich von Unternehmen zu Unternehmen unterschiedlich ausfallen, aber die wichtigsten Grundprinzipien (Konsolidierung, Virtualisierung und Automatisierung) wird man mit Sicherheit fast überall finden. Diese Grundprinzipien lassen sich auch auf den Storage-Bereich übertragen:
- Konsolidieren: Von dedizierten SAN, NAS, Backup oder Archiv-Storage-Systemen zu einer Unified-Storage-Architektur wechseln, die alle Workloads mit einer Scale-Out-Architektur effizient und sicher bedienen kann. Quality of Services und sichere Mandantenfähigkeit sind nur zwei Beispiele von „Must have“-Funktionalitäten, die eine derartige Storage-Infrastruktur erfüllen muss.
- Virtualisierung: Ein von der Hardware abstrahierter und komplett virtualisierter Storage ist die Grundvoraussetzung für die oben erwähnte Scale-Out-Architektur. Software Defined Storage (SDS) ist die Begrifflichkeit, die sich in diesem Zusammenhang immer mehr durchsetzt.
- Automatisierung: Dinge wie Service-Level-orientierte Storage-Provisionierung, das Anpassen von Service Levels im laufenden Betrieb oder etwa das Beheben von Performance Bottlenecks sollten voll automatisiert ablaufen.
Gerald Sternagl, Red Hat: Das Zeitalter proprietärer Technologien und Plattformen neigt sich seinem Ende zu. Diese Erkenntnis setzt sich in den Unternehmen allmählich durch. Klares Indiz dafür: Viele Unternehmen stoßen mit ihren langjährig genutzten proprietären Systemen und den damit entstandenen Insellösungen an Grenzen. Wenn es um die grundlegende Modernisierung und zukunftsorientierte Ausrichtung der Datacenter geht, bilden komplexe herstellerspezifische Infrastruktur-Silos eines der größten Hindernisse. Daher sollten Unternehmen jetzt die Weichen neu stellen. Ziele wie eine hohe Skalierbarkeit, Flexibilität und Kosteneffizienz lassen sich nur mit einer auf offenen Standards basierten und softwaredefinierten IT-Infrastruktur erreichen. Storage ist dabei – neben den Netzwerken und den Infrastrukturlösungen – einer der zentralen Ansatzpunkte. Im Unterschied zu vielen hardwarebasierten Insellösungen ist eine Software-basierte Infrastruktur sehr gut skalierbar, kosteneffizient und deutlich einfacher zu verwalten. Den benötigten Unterbau stellt ein verteiltes Dateisystem bereit, das auf Standard-x86-Servern als VM oder als Amazon Web-Service installiert wird. Auf diesem Wege wird eine kosteneffiziente, linear skalierbare und beliebig ausbaubare Speicherumgebung geschaffen.
digitalbusiness CLOUD: Derzeit gibt es auf dem Markt ganz unterschiedliche Lösungsansätze. Auf welche dieser Konzepte sollten Unternehmen Ihrer Meinung nach setzen?
André M. Braun, Dell: Ein Blick auf die echten Herausforderungen macht die Antwort hier leicht. Unsere größte Herausforderung besteht darin, dass wir nicht löschen können. Wir sind genetisch als Jäger und Sammler dazu verdammt, alles aufheben zu müssen. In Wirklichkeit fehlen uns aber Informationen über unsere Informationen. Was werden wir wirklich noch brauchen und was nicht mehr? Was wird wirklich noch benutzt und was nicht mehr? Weil wir diese Informationen nicht haben, werden wir auch weiter alles aufheben und da liegt des Pudels Kern. Wir brauchen eine Technologie, die die Daten am effektivsten handhabt. Als Unternehmen müssen sie also vor allem auf ein dynamisches und automatisches Tiering der Daten achten, damit die Daten immer nach der Art ihrer Nutzung dort landen, wo am wenigsten Kosten entstehen, aber ausreichend Geschwindigkeit für den Zugriff bereitgestellt wird. Sie müssen auf eine Kompression und Deduplikation achten, damit die Daten möglichst rationell gespeichert werden. Sie müssen auf eine homogene und extrem skalierbare Präsentation der Daten für die Abnehmer achten. Dies geschieht vorzugsweise derzeit über Filesysteme, die extreme Datenmengen und Geschwindigkeitsanforderungen bewältigen können. Und nicht zuletzt müssen Sie auf eine unglaubliche Robustheit achten, damit diese Daten auch in Notfällen oder Desastern noch verfügbar bleiben. Aber einen Punkt möchte ich noch besonders betonen: Ewige Daten brauchen eine Architektur und vor allem ein Lizenzmodell, das auch ewig ist. Denn die Aufbewahrung von immer mehr Daten darf nicht mit immer mehr Kosten einhergehen.
Stefan Roth, Fujitsu Technology Solutions: Unternehmen sollten auf folgende drei Punkte bei der Auswahl der Lösung achten:
- Kein heterogenes sondern ein einheitliches Konzept
- Integrierte Lösung zu DataManagement und zu DataProtection
- Technologien wie Flash, Storage Tiering, Virtualisierung in den Bereichen Backup, Restore und Archivierung inklusive DeDup gezielt einsetzen.
Die Fujitsu-Eternus-Lösungen bieten genau diese flexiblen und effizienten Infrastrukturen.
Alexander Wallner, NetApp: Hierzu weise ich auf meine Antwort zur zweiten Frage hin: Storage konsolidieren, virtualisieren und automatisieren auf Basis einer komplett virtualisierten und effizienten Unified-Scale-Out-Architektur.
Gerald Sternagl, Red Hat: Red Hat konzentriert sich mit seinem softwarebasierten Lösungsangebot auf die Speicherung unstrukturierter Daten wie Bilder, Dokumente, Videos, VM-Images oder auch rechnergenerierte Daten aus M2M-Applikationen. Typische Einsatzszenarien sind die Verwaltung von Rich-Media-Inhalten, die Nearline-Archivierung oder speicherintensive Applikationen beim High Performance Computing. Entscheidende Vorteile entstehen durch die Unterstützung von File und Object Storage. Die kombinierte Nutzung gespeicherter Informationen als Dateien oder als Objekte (Unified File und Object Storage) vereinfacht die Verwaltung unterschiedlichster Daten. Unternehmen erzielen damit eine höhere Storage- und Informationsflexibilität, um das enorme Wachstum der unstrukturierten Daten bewältigen und kostengünstiger als mit proprietären SAN- oder NAS-Lösungen auf Daten zugreifen zu können. Mit einer softwarebasierten Lösung werden Unternehmen weit flexibler, denn sie können bei Bedarf einen Teil der benötigten Speicherkapazitäten aus der Cloud beziehen.
Teilen Sie die Meldung „Storage-Markt in Deutschland: Starkes Datenwachstum fordert Unternehmen“ mit Ihren Kontakten:
Zugehörige Themen:
Hochverfügbarkeit