Business Analytics: Veraltete Software bremst neue Hardware aus
Die Hardwarehersteller beklagen schon seit Langem, dass ihre Weiterentwicklungen keine wesentlichen Beschleunigungen bei den Anwendungen bewirken, weil die dafür vorhandenen Programme die neuen Möglichkeiten nicht entsprechend ausnutzen. Doch Besserung ist in Sicht.
Der Bedarf an leistungsstarken Datenanalysewerkzeugen boomt. Ursache dafür ist die rasant ansteigende Datenflut – und zwar sowohl bei den strukturierten als auch bei den vielen neuen unstrukturierten Daten, wie sie bei den beliebten Social-Media-Kanälen Facebook, Twitter und Google+ anfallen. Stichwort: Big Data.
Die Marktforscher von IDC prognostizieren, dass dieser Markt in diesem Jahr um 8,9 % auf knapp 34 Mrd. $ anschwellen wird. Dem Bericht zufolge ist Oracle mit einem Anteil von 20 % Marktführer, gefolgt von SAP, IBM, SAS Institute und Microsoft.
Business Analytics: Klassiche Software steht Big Data machtlos gegenüber
Doch trotz dieser beeindruckenden Wachstumsraten steckt das Angebot für Business Analytics in einer Krise. „Die klassische Analyse-
software steht den neuen Herausforderungen von Big Data relativ machtlos gegenüber“, sagt IDC-Analyst Dan Vesset. Zwar werde die Hardware-Rechenleistung immer besser, doch die meisten althergebrachten Programme können die vielen neuen Hardwarefeatures wie Multikernverarbeitung und spaltenorientierte Datenbankorganisation im Hauptspeicher kaum nutzen, da sie auf einer streng sequenziellen Abarbeitung basieren.
Um das zu verändern, verfolgen die Anbieter derzeit zwei Strategien. Erstens, das Bündeln von Software mit Hardware in einer Appliance. EMC verfolgt diesen Weg mit Greenplum, auch IBM bietet mit der Netezza-Appliance eine solche Lösung an. Der zweite Weg ist das Umcodieren der Software, so dass die Programme alle modernen Hardwarefeatures voll ausnutzen. Das aber ist nicht nur ein sehr kostspieliger und zeitintensiver Weg – es ist auch ein sehr risikoreiches Vorgehen. „Bei der Parallelverarbeitung muss man immer bedenken, was kann man wirklich unabhängig voneinander abarbeiten, und wann muss ein Programmschritt auf das Ende eines anderen Prozesses warten – vor allem bei Zeitreihen ist das sehr kniffelig“, sagt SAS-Chef Jim Goodnight über eines der größten SAS-Projekte in jüngster Zeit, denn sein Unternehmen hat die Analytics-Software komplett umgeschrieben.
Hadoop wird immer beliebter
Neben diesen beiden Wegen, also anwendungsoptimierte Hardware oder umgeschriebene Software, bildet sich inzwischen auch ein Mittelweg heraus. So wird der Einsatz der Open-Source-Software Hadoop immer populärer. Hierbei handelt es sich um eine Datenverarbeitungsplattform, die von Apache vertrieben wird und die inzwischen von vielen großen Hardwareanbietern mit angeboten wird.
Oracle bietet Hadoop bereits seit Längerem an, IBM nutzt diese Plattform auch und Microsoft hat sogar jüngst die Entwicklung der eigenen Big-Data-Analytics-Plattform Dryad zugunsten von Hadoop eingestellt. Auch EMC, Teradata und Hewlett-Packard bieten ihre Hardware im Paket mit Hadoop an.
Dass so viele etablierte Anbieter auf die Hadoop-Software setzen, liegt an deren besonderer Architektur, die einerseits alle Möglichkeiten der Parallelverarbeitung voll ausschöpft, andererseits aber keine spezielle Hardware benötigt.
Ein Beitrag von: