Print Seite drucken
Aktuelle Themen

Big Data

Große Datenmengen effizient und intelligent nutzen

Big Data ist eines der Top-Themen in der IT-Welt und gleichzeitig eine der Heraus-
forderung der nächsten Jahre. Daten werden als Ressource für Unternehmen immer wichtiger, da die ungenutzten Potenziale einen Wettbewerbsvorteil versprechen. Ihre Aussagekraft steigt mit der zunehmenden Vielfalt und Verfügbarkeit. Um eine effiziente und intelligente Nutzung zu erreichen, muss die Informationsflut steuerbar sein. 

Big Data ist von den Fachkreisen auf dem Weg in die Unternehmer- und Verwaltungsrealität. Die Daten ökonomisch zu nutzen wird zunehmend zu einem wirtschaftlichen Erfolgsfaktor. Ziel ist es, z.B. aus Geschäftsdaten, sinnvolle Folgerungen zu schließen, um eine effizien-
tere Unternehmensführung zu erreichen. Die richtige Auswertung und Nutzung der Daten bietet zahlreiche Chancen. Praxisnahe Einsätze sind vielfältig, wie z.B. eine Steigerung von Cross-Selling-Möglichkeiten, exaktere Vorhersagen von Warenbestellungen und Lager-
haltung, Erkennen von Trends und genauere Risikoanalysen.

Big Data ist daher ein viel beschriebenes Thema mit einer schwachen Definition. So sind Antworten auf die Frage: „Was verstehen Sie unter Big Data?“ oft recht unterschiedlich.
Das reicht von „Das sind große Datenmengen“ oder „Daten aus sozialen Netzwerken“
bis zu „Das sind unstrukturierte Daten“. Die wesentlichen Kriterien von Big Data haben sich inzwischen herauskristallisiert und werden mit drei englischen Begriffen bezeichnet: Variety, Velocity und Volume.   

„Variety“ kennzeichnet die zunehmende Vielfalt der zu verarbeitenden Daten. Daten aus sozialen Netzwerken, können beispielsweise jegliche Form und Inhalt haben. „Velocity“ bezeichnet die wachsende Geschwindigkeit der Datenverarbeitung, -veränderung und auch -erzeugung. Eine Echtzeitverarbeitung wird angestrebt. „Volume“ ist das zu verarbeitende Datenvolumen. Heute sind bereits Datenbestände im klassischen Data Warehouse- bzw. BI-Umfeld im Petabyte-Bereich vorhanden und die tägliche Verarbeitung liegt bei mehreren hundert Gibabyte; Tendenz steigend. Nicht alle diese Kriterien müssen zwangsläufig erfüllt sein, um von Big Data sprechen zu können.

Big Data umfasst aber ebenso Konzepte, Methoden, Tools und Technologien zur Steuerung der Informationsflut. Eine Software zur Beherrschung der Datenmengen ist das Java-
basierte, freie Framework Apache Hadoop. Dieses hat den Ansatz große Datenbestände auf eine Vielzahl von Knotenpunkten aufzuteilen, wodurch ein paralleles und somit schnelleres Verarbeiten und Auslesen der Daten möglich wird. Die verarbeitenden Programme werden auf dem jeweiligen Rechnerknoten ausgeführt, auf dem sich die dafür benötigten Daten befinden. Somit entfällt ein Transport von großen Datenmengen, wodurch die Verarbeitungs-
geschwindigkeit enorm erhöht wird. Fallen einzelne Knotenpunkte aus, entsteht durch die redundante Datenspeicherung kein Datenverlust. Des Weiteren stellt Apache Hadoop eine kostengünstige Lösung dar, weil es auf günstiger Hardware lauffähig und zudem variabel gestaltbar ist. Durch Add-Ons kann die Software individualisiert, erweitert und optimiert werden. Diese Eigenschaften von Hadoop in Kombination mit unserem Know-how ermöglichen einen leichten Einstieg in die Big Data-Technologie.

Praxiserfahrung in der Konzeption, Implementierung und anschließendem Support von Big Data-Projekten sowie fundiertes Wissen, das mit Kenntnissen von DWH- / BI-Technologien und der Entwicklung von Java-Tools einher geht, macht Syncwork zu einem optimalen Partner. Eine ausgeprägte Kompetenz im Qualitäts- und Testmanagement fördert zusätzlich eine erfolgreiche Umsetzung von Big Data-Projekten.

Leistungsthema

Ansprechpartner

Andreas Wagner
Bereichsleiter Systems Development

Fon: +49 (0)30 854081-59

Lietzenburger Straße 69
10719 Berlin