Big Data soll vor allem die Produktivität verbessern
Das Thema Big Data wird meist unter dem Gesichtspunkt der verfügbaren Technologien behandelt. Über Anwendungen und Anwender hört man vergleichsweise wenig. Eine Umfrage des Marktforschungsunternehmens Experton zeigt: Viele Mittelständler und Großunternehmen wollen in Big Data investieren und erhoffen sich Wettbewerbsvorteile.
Das Datenwachstum stellt für Unternehmen eine große Herausforderung dar. Von 155 Firmen, die das Marktforschungs- und Beratungsunternehmen Experton Group zwischen Juni und September zum Thema Big Data und Datenanalyse befragte, rechnen 29 % für 2013 und 34 % für 2014 mit Datenzuwachs. Besonders heftig fällt die Datenflut bei Mittelständlern zwischen 500 (43 %) und 999 (54 %) Mitarbeitern aus.
Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) vermeldet aktuell, dass 2011 weltweit 1,8 Zettabyte an Daten produziert wurden (1 Zettabyte ist eine 1 mit 21 Nullen). Den Prognosen der Fraunhofer-Experten zufolge verdoppele sich das Datenvolumen alle zwei Jahre. In Deutschland gebe es hierbei noch erheblichen Nachholbedarf, denn das Thema Big Data sei derzeit stark US-dominiert.
Mehr als 50 % der befragten Unternehmen beschäftigt das Thema Big Data
Über die Hälfte der von Experton befragten Firmen hat sich bereits mit dem Thema Big Data beschäftigt. Dabei sind Unternehmen bis 500 Mitarbeiter deutlich im Rückstand – bei ihnen gilt dies für nur 26 %. Ganz anders dagegen Firmen mit mehr als 1000 Mitarbeitern: Bei ihnen gehört umgekehrt nur ein Viertel (noch) zu den Big-Data-Ignoranten.
In die Kategorie Big Data fallen laut Experton nur solche Applikationen oder Technologien, die mindestens zwei der folgenden vier Kriterien erfüllen: ungewöhnlich große Datenmengen, ungewöhnlich schnelle Analyse, besonders hohe Daten- oder Analysequalität oder der Einbezug ungewöhnlich vieler unterschiedlicher Datenquellen.
Mit geplanten oder den wenigen schon realisierten Big-Data-Installationen streben die Anwender vor allem mehr Produktivität, bessere Einbindung neuer, insbesondere unstrukturierter Datenquellen, höhere Datenqualität, schnellere Prozesse und die Umsetzung von Daten in relevante Entscheidungsvorlagen an. Dabei ist das erstgenannte Ziel dominant bei den kleineren Mittelständlern bis 500 Mitarbeiter, während die Verbesserung der Datenqualität bei Großunternehmen deutlich vorn rangiert.
Big Data ist besonders für das Risikomanagement relevant
Besonders relevant ist die neue Technologie, so die Befragten, für das Risikomanagement, Scoring und Controlling, für logistische und Vertriebsprozesse, die Preisgestaltung, Wettbewerbsanalyse und die Analyse von Informationen im Web. Die generierten Informationen sollen vor allem vom Topmanagement, der Finanz- und Controllingabteilung sowie vom Logistikbereich genutzt werden.
Viele Fragen der Studie bezogen sich nicht nur auf Big Data, sondern auch auf Datenanalyseverfahren im Allgemeinen. Die für diese Aufgabe verwendeten Tools befriedigen die Anwender nicht vollständig. Moniert wurden vor allem der Umgang mit unstrukturierten Daten, die Umsetzung der Technologien im Unternehmen, die Berichtsmerkmale, die Datenqualität und die Nutzerakzeptanz. „Dies ist eine deutliche Aufforderung an die Anbieter, hier etwas zu verbessern“, betont Analyst Holm Landrock, der die Untersuchung für Experton durchführte.
Derzeit verwenden die Befragten an Verfahren vor allem UnternehmensReporting, Ad-hoc-Auswertung und -Analyse (beides bei über 50 % in der Nutzung), Data Mining, Benachrichtigungsservices und Echtzeitanalysen. Starke Zuwächse werden in der nächsten Zeit wohl Bedienoberflächen, Echtzeitanalysen, Informationsportale und Webseitenanalysen erfahren.
Zur Erfüllung dieser Aufgaben werden heute zu 84 % relationale Datenbanken eingesetzt, in Zukunft wird deren Anteil auf 74 % zurückgehen. Objektorientierte Datenbanken (heute: 32 %, künftig: 44 %), spaltenorientierte Datenbanksysteme ohne Verarbeitung im Arbeitsspeicher (heute: 11 %, künftig: 30 %) und mit Verarbeitung im Arbeitsspeicher (heute 19 %, künftig: 33 %) werden sich dagegen ausbreiten. Der Anteil von Datenbanken auf Open-Source-Basis (47 %) wird sich dagegen kaum verändern.
Höhere Budgets für Datenanalyse und -management
Wer neue Projekte bei Datenanalyse und -management durchführt, will vor allem bisher manuelle Verfahren automatisieren (81 %), Qualitätsmanagement betreiben (68 %), das Datenwachstum in den Griff bekommen (63 %) oder die Effizienz insgesamt steigern (59 %). Das sind wichtige Ziele, doch stehen den betreffenden Projekten fehlendes internes Know-how (40 %) respektive fehlende externe Personalressourcen entgegen, um das nötige Wissen in die Firma zu holen (52 %). Die Hälfte der Befragten klagt über Budgetengpässe, 47 % monieren die komplexe Entwicklung. Analyst Landrock: „Es wird höchste Zeit, Big-Data-Analysten, zuständig für die grafische Umsetzung von Analyseergebnissen, auszubilden.“
Im Jahr 2013 plant die Hälfte der Befragten ein höheres Budget für Datenanalyse und -management ein, wobei die Großunternehmen mit einem Plus von 13,5 % am meisten Geld in das Thema investieren können. Geplant sind vor allem Investitionen in Datenbanken, spezielle Business-Intelligence-Lösungen und Speicherhardware.
Ein Beitrag von: