Speichertechnologie 09.09.2011, 12:07 Uhr

„Big Data“ erfordert großen Aufwand

Die Datenmenge aus mobilen Transaktionen, E-Commerce und Sensorik steigt exponentiell an. Folglich steigt der Bedarf an Speicherplatz ebenso wie der an Kapazität der Datenbanken. Neue Technologien erleichtern die Auswertung, doch Analysten mahnen zur Umstellung der Strategie in der Verarbeitung von „Big Data“.

Die Menge und Vielfalt von Daten, die Unternehmen verarbeiten müssen, nimmt exponentiell zu. Es handelt sich um drei Kategorien: strukturierte Daten aus relationalen Datenbanken, halbstrukturierte Daten in XML- und HTML-Internetformat sowie aus Office-Dokumenten; schließlich unstrukturierte Daten wie Logs und Blogs, Sensordaten, Bilder, Audio, Video usw.

Inzwischen gibt es eine Reihe von Lösungen am Markt, um der Datenflut zu begegnen. „Die Standardtechnologie der relationalen Datenbank ist nicht geeignet, um diese Daten in Massen zu verarbeiten und zu speichern“, konstatiert Wilfried Hoge, Leading Technical Sales Professional bei IBM Deutschland. „Was sich als Standard etabliert hat, ist das Apache-Hadoop-Framework, das große Datenbestände nach Spitzenwertmustern aufbaut.“ Hadoop sei aus der Google-Technologie MapReduce entstanden, die große Datenmengen berechnen kann.

Apache-Hadoop-Framework hat sich als Standard für „Big Data“ etabliert

„Unsere Studie hat ergeben, dass über 50 % der befragten Unternehmen Hadoop entweder bereits im Einsatz haben oder für große Datenprojekte evaluieren“, berichtet Analyst David Menninger von Ventana Research. „Hadoop wird als Ergänzung verwendet, wenn es um die Analyse von un- oder semi-strukturierten Daten oder um anspruchsvolle Analysen geht – beispielsweise beim Data Mining, wo relationale Datenbanken an ihre Grenzen stoßen.“ 69 % der Hadoop-Anwender würden Anwendungsprotokolle analysieren, 64 % bewerten vor allem Ereignisdaten.

IBM hat Apache Hadoop in sein Entwicklungswerkzeug BigInsights integriert. „Das liefert Security-, Workflow- und administrative Merkmale sowie eine Benutzeroberfläche“, berichtet Hoge. „Aber es ist ein Werkzeug und keine fertige Lösung für ein bestimmtes Problem.“ Deshalb will IBM BigInsights mit analytischen Fähigkeiten versehen. Um auf viele Datenquellen zugreifen zu können, empfiehlt Hoge Schnittstellen zu UIMA, der Unstructured Information Management Architecture.

Stellenangebote im Bereich IT/TK-Projektmanagement

IT/TK-Projektmanagement Jobs
Mercer Stendal GmbH-Firmenlogo
Betriebstechniker (m/w/d) Prozessleittechnik Mercer Stendal GmbH
Arneburg Zum Job 
Wirtgen GmbH-Firmenlogo
Project Manager Product Lifecycle Management (m/w/d) Wirtgen GmbH
Windhagen Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur (w/m/d) Informationssicherheit Die Autobahn GmbH des Bundes
Frankfurt Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
Evonik Operations GmbH-Firmenlogo
Ingenieur (m/w/d) Informatik / Elektrotechnik / Automatisierungstechnik / Chemische Produktion Evonik Operations GmbH
Fachhochschule Dortmund-Firmenlogo
Zukunftsmacher*in Fachhochschule Dortmund
Dortmund Zum Job 
Hochschule Reutlingen-Firmenlogo
Akademische:r Mitarbeiter:in (m/w/x) "SMARTE ASSISTENZSYSTEME" Hochschule Reutlingen
Reutlingen Zum Job 
Stadtwerke Verkehrsgesellschaft Frankfurt am Main mbH-Firmenlogo
Planungsingenieur:in / Projektleiter:in Fahrgastinformation (d/m/w) Stadtwerke Verkehrsgesellschaft Frankfurt am Main mbH
Frankfurt am Main Zum Job 
Wirtgen GmbH-Firmenlogo
Software-Testingenieur (m/w/d) Testautomatisierung -Steuerungssoftware für mobile Arbeitsmaschinen Wirtgen GmbH
Windhagen Zum Job 
WIRTGEN GROUP Branch of John Deere GmbH & Co. KG-Firmenlogo
Project Manager Surveying and Designfor Machine Control (m/w/d) WIRTGEN GROUP Branch of John Deere GmbH & Co. KG
Ludwigshafen am Rhein Zum Job 
Bundespolizei-Firmenlogo
Ingenieur/in Elektro-/Nachrichtentechnik o. ä. für Satellitenkommunikation (w/m/d) Projektgruppe EU Bundespolizei
Neustadt in Holstein Zum Job 
Bundespolizei-Firmenlogo
Ingenieur/in Elektro-/Nachrichtentechnik o. ä. für Satellitenkommunikation (w/m/d) Projektgruppe EU Bundespolizei
Sankt Augustin Zum Job 
IMS Messsysteme GmbH-Firmenlogo
Systemingenieur (m/w/i) für Oberflächeninspektion IMS Messsysteme GmbH
Heiligenhaus Zum Job 
Hochschule Hamm-Lippstadt-Firmenlogo
wissenschaftliche*r Mitarbeiter*in (m/w/d) für die Entwicklung einer Wissensdatenbank im Bereich der Sektorenkopplung Hochschule Hamm-Lippstadt
Hochschule Bielefeld-Firmenlogo
W2-Professur Software Engineering Hochschule Bielefeld
Gütersloh Zum Job 
Safran Data Systems GmbH-Firmenlogo
Embedded Software Engineer (m/w/d) Safran Data Systems GmbH
Bergisch Gladbach Zum Job 
Hochschule Bielefeld (HSBI)-Firmenlogo
W2-Professur Software Engineering Hochschule Bielefeld (HSBI)
Gütersloh Zum Job 
TU Bergakademie Freiberg-Firmenlogo
W2-Professur "Deep Learning" TU Bergakademie Freiberg
Freiberg Zum Job 
Fresenius Kabi Deutschland GmbH-Firmenlogo
Projekt IT-Ingenieur (m/w/d) Fresenius Kabi Deutschland GmbH
Friedberg Zum Job 
Regierungspräsidium Freiburg-Firmenlogo
BIM-Manager (w/m/d) Regierungspräsidium Freiburg
Freiburg im Breisgau Zum Job 

„Big Data“: Datenbankhersteller Teradata greift auf Hadoop-Framework und MapReduce-Technik zurück

Auch der Datenbankhersteller Teradata habe laut Chief Technology Officer Stephen Brobst das Hadoop-Framework und die MapReduce-Technik durch Schnittstellen in seine Datenbankarchitektur integriert. „Teradata behandelt Hadoop-Quellen wie normale Tabellen“, erklärt Brobst. Dadurch lassen sich auf Webseiten z. B. Blogs effizient auswerten.

Durch die Integration von MapReduce und Hadoop bieten IBM und Teradata ihren Unternehmenskunden Opensource-Module an, die mit einer entsprechenden Verwaltungs- und Sicherheitsschicht umgeben sind. In ähnlicher Weise offeriert der Business-Intelligence-Anbieter (BI) Actuate als Zusatznutzen ein Werkzeug für Berichtswesen und Datenanalyse. „Actuate bietet nun eine Schnittstelle zu Hadoop-Daten und öffnet Entwicklern von BI-Anwendungen neue Wege“, so Menninger.

Nach Ansicht von IDC-Analyst Rüdiger Spies ist ein Verschmelzen von Daten und Anwendungen ebenso zu beobachten wie der Einfluss von Daten, die von Firmenmitarbeitern stammen. Folglich gelte es nicht nur Speicher zu optimieren, sondern auch die Organisation und deren Regeln. Spies schlägt die Position eines Chief Data Officers vor, der sich nicht zuletzt um die Datenqualität im Hinblick auf Rechtskonformitäten kümmern muss. Daten müssten kontextsensitiv verarbeitet werden, also mithilfe von beschreibenden Daten. Das würde künftig auch die semantische Analyse erleichtern.

„Big Data“: Große Menge an Daten und Datentypen

Martin Beyer vom Beratungsunternehmen Gartner rät den Unternehmen, nicht nur die Datenmenge zu betrachten, sondern auch die Bandbreite von Datentypen und nicht zuletzt die Geschwindigkeit des Dateneingangs und der Datenverarbeitung. „Informationsmanager müssen die Nutzung der Daten im Unternehmen grundlegend neu überdenken“, mahnt Beyer.

Ein Beitrag von:

  • Michael Matzer

    Michael Matzer arbeitet als Journalist, Übersetzer, Rezensent und Buchautor. Big Data und Industry of Things zählen zu seinen Schwerpunkten.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.