In-Memory-Datenanalysen in Zeiten von Big Data

Laut einer von Pierre Audoin Consultants (PAC) veröffentlichten repräsentativen Studie haben deutsche Unternehmen die Herausforderungen von Big Data erkannt und betrachten In-Memory-Datenanalysen als einen wichtigen, aber nicht als den einzigen Lösungsansatz. Rund 60 Prozent der Unternehmen planen Investitionen in Data Warehouse, Datenmanagement und  -integration sowie In-Memory-Datenanalyse. Den größten Mehrwert von In-Memory sehen sie in der Beschleunigung bestehender Datenanalysen.

Big Data und In-Memory Computing sind für deutsche Unternehmen längst keine Hype-Themen mehr. Sie haben erkannt, dass die steigende Datenflut neue Herausforderungen bei der Datenanalyse mit sich bringt und sie diesen adäquat begegnen müssen.

Dies ist eines der Ergebnisse der aktuellen Studie der Marktanalyse- und Beratungsgesellschaft Pierre Audoin Consultants (PAC). Für die Studie “In Memory-Datenanalysen in Zeiten von Big Data” wurden 102 IT-Verantwortliche in Firmen mit mindestens 500 Mitarbeitern aus unterschiedlichen Branchen in Deutschland befragt.

In-Memory-Datenanalysen als Ergänzungsbaustein

Mit dem rapide wachsenden Datenvolumen (Big Data) steigen auch die Anforderungen an Datenanalyse- und Reportingsysteme. So verwundert es nicht, dass auf In-Memory Computing basierende Analyseverfahren ein viel diskutiertes Thema in der IT-Branche sind. “Die Frage, ob In-Memory-Analysen in Zeiten von Big Data eine Rolle spielen, kann mit einem klaren Ja beantwortet werden“, resümiert Frank Niemann, Principal Consultant Software Markets bei PAC und Autor der Studie. Er ergänzt: „Allerdings sehen deutsche IT-Manager In-Memory-Verfahren als einen von mehren Wegen, den Herausforderungen von Big Data zu begegnen.“

So betrachtet die Mehrheit der deutschen Unternehmen In-Memory-Verfahren zunächst als Ergänzungsbaustein für zeitkritische Analysen. Immerhin bereits knapp 20 Prozent der Unternehmen sehen in ihnen aber eine wichtige Antwort auf die Herausforderungen durch Big Data. Sie erwarten, dass In-Memory-Systeme zentraler Bestandteil von Datenanalyseumgebungen werden.

"Unternehmen erkennen zunehmend die Chancen, die Big Data ihnen bietet. Datensammlungen sind erst dann sinnvoll, wenn sie zeitnah analysiert und komplexe Zusammenhänge aus ihnen herausgelesen werden", sagt auch Bodo Koerber, Director of Information Management, IBM Software Group, IBM Deutschland. "Aber es gibt kein one size fits all – die konkreten Anforderungen eines Unternehmens bestimmen, welcher Technologie-Mix ihm den höchsten Nutzen bringt. Sollen strukturierte Daten analysiert werden, kann In-Memory, etwa mit Cognos TM1, ein Baustein sein. Sind es unstrukturierte Daten – das ist die Mehrheit der neu hinzukommenden Datenmengen –, kommen ein Data Warehouse wie Netezza oder Datenmanagement und -integration, wie DB2 oder InfoSphere, ins Spiel. IBM erstellt für jeden Kunden eine individuelle Informationsagenda, die auf einem umfassenden Service- und Produktportfolio für Big Data jenseits von Schlagwörtern aufsetzt.“

Mehrwerte von In-Memory-Datenanalysen

Einen zentralen Vorteil von In-Memory-Analysesystemen sehen die Unternehmen in der Beschleunigung bestehender Datenanalysen. Sie benennen aber auch jene Mehrwerte, die direkt mit ihren wesentlichen Anforderungen an Datenanalyse und Reporting zusammenhängen: Bessere Unterstützung von Ad-hoc-Analysen bzw. schnellere Bereitstellung neuer Analysen sowie die effiziente Deckung des Analysebedarfs aus den Fachbereichen. Nicht zuletzt ist auch die insgesamt erhöhte Reaktionsfähigkeit des Unternehmens ein wichtiges Argument für In-Memory-Analysen.

Konkrete Projekterfahrungen bestätigen diese Argumente: "In einem dynamischen Geschäftsumfeld müssen auch Analytics & BI Services agil sein und ad hoc Informationsbedarfe abdecken. Im Falle von Big-Data ist In-Memory BI dafür ein kritischer Erfolgsfaktor und liefert einen strategischen Wettbewerbsvorteil, indem fundierte und schnellere Entscheidungsprozesse ermöglicht werden”, so der Senior Manager Business Intelligence eines Capgemini-Kunden (Sportartikelhersteller im Raum Nürnberg).

Für den FujitsuäKunden Mitsui & Co., Ltd. führt Toru Nakajima, Associate Officer and General Manager of Information Technology Promotion Division, weiter aus: "To promote the growth of Mitsui's businesses, it is essential to have an IT platform that flexibly adapts to change and supports rapid decision making. The objectives of SAP HANA align with these needs. We greatly value Fujitsu's early leadership in support of SAP HANA, as well as Fujitsu's capabilities in providing global support for our IT platforms, and we intend to continue to work with Fujitsu in this area in the future. With the global cooperation from the team at Fujitsu, we have already begun implementing this technology, and look forward to continuing to work with Fujitsu to achieve our mutual objectives".

Der CIO des Oracle Kunden Nilson Group, eines großen schwedischen Handelsunternehmens, ergänzt: “We needed a BI solution for the future as datasets are growing fast. In order to compete effectively in the retail industry, our business needs excellent performance for more advanced analysis and faster decisions. Exalytics is a future oriented solution that we can grow with, and handle analysis on big data and forecasts within seconds”.

Hohe Investitionsbereitschaft

Big Data ist Investitionstreiber: Gut 60 Prozent der deutschen Unternehmen planen Investitionen in mindestens einem der folgenden drei Bereiche: Data Warehouse, Datenmanagement und -integration sowie In-Memory-Datenanalyse, wobei bei letzterer der Bedarf noch gering ist.

Anwenderunternehmen, die in diesen Bereichen in Hard- und Software investieren, haben zugleich einen hohen Bedarf an Beratungs- und Integrationsdienstleistungen. Frank Niemann: „Viele der befragten Unternehmen legen dabei großen Wert auf Angebote aus einer Hand. Provider, die mit Komplettlösungen aus Hard- und Software sowie Dienstleistungen aufwarten können, haben hier besonders gute Chancen.“

Die aktuelle Studie liefert belastbare Zahlen zu Anforderungen an Datenanalyse- und Reportingsysteme und entsprechenden Investitionsplänen in deutschen Unternehmen. Ein besonderer Fokus lag in der Frage nach der Bedeutung von auf In-Memory Computing basierenden Datenanalyseverfahren in Zeiten von Big Data.

Die Ergebnisse der Untersuchung basieren auf einer repräsentativen computergestützten, telefonischen Umfrage unter 102 IT-Leitern und IT-Verantwortlichen in Deutschland. Es wurden nur Unternehmen befragt, die bereits Lösungen und Tools für Datenanalyse und Reporting einsetzen. Ergänzend führte PAC zahlreiche Expertengespräche mit IT-Managern, um die Erkenntnisse aus der Befragung weiter zu vertiefen.

Die Erstellung und Verbreitung der Studie wurde finanziell unterstützt von arvato Systems GmbH, Capgemini Deutschland GmbH, Fujitsu Technology Solutions GmbH & TDS Informationstechnologie AG, IBM Deutschland GmbH, Mieschke Hofmann und Partner - Gesellschaft für Management- und IT-Beratung mbH, ORACLE Deutschland B.V. & Co. KG.

Die Studie „In-Memory-Datenanalysen in Zeiten von Big Data“ steht unter www.pac-online.de zum kostenlosen Download zur Verfügung.

RSS Feed

Neuen Kommentar schreiben

Entdecken Sie die Printmagazine des WIN-Verlags