Was versteht man unter Big Data?

Der DMI Blog sieht es als seine Aufgabe, das Verständnis für Digital Out of Home zu erhöhen. In einer Serie bitten wir deshalb Experten, die wichtigsten Begriffe der Branche zu erklären. 

Sagen Sie mal Herr Blumtritt:
Was versteht man eigentlich unter BIG DATA?

Big Data ist nichts weniger, als die dritte große Welle von Innovationen, nach dem World Wide Web Mitte der 90er und Social Media Mitte der 2000er. Big Data ist ein Paradigmenwechsel, wie wir Informationstechnologie einsetzen. Es lohnt sich also, sich anzusehen, was hinter dem Buzzword steckt.

Data Science, die Wissenschaft von Big Data, hat sich in den letzten Jahren als eigenständige Disziplin etabliert. Data Science betrachtet Daten an sich als interessant und wertvoll, also nicht als Mittel, sondern als eigenständiges Feld, das sich erforschen und wirtschaftlich verwerten lässt. Darin entspricht sie der Informatik, die den Computer ins Zentrum stellt und damit ebenfalls neben die Elektrotechnik oder Nachrichtentechnik getreten ist.

Keine Stichproben mehr, sondern Voll-Erhebungen

Während bis vor kurzem die meisten Daten durch Maschinen oder physikalische Systeme erzeugt wurden (Messwerte in der Industrie oder aus wissenschaftlichen Experimenten), entstehen heute die interessantesten Daten aus dem Verhalten von Menschen – „Data is made of people“ ist der erste Aspekt des Paradigmenwechsels. Dabei sind es keine Stichproben mehr, die wie früher von Marktforschungsinstituten erhoben werden, sondern Voll-Erhebungen – alle Nutzer meiner Website, alle Besucher meines Onlineshops, alle Mobilfunkkunden und so weiter. Mit mehr als zwei Milliarden Menschen, die über Smartphones das Internet nutzen, wird Mobile Technology zur wichtigste Datenquelle über Menschen.

Zum Zweiten bedeutet Big Data ein anderes Verständnis von „Wahrheit“. Statt Hypothesen aufzustellen und dann zu testen (und anschließend für wahr zu halten), geht man jetzt davon aus, dass Zusammenhänge, die sich in den Daten zeigen, bestenfalls für eine gewisse Zeit stabil bleiben und sich jederzeit wieder ändern können. Statt zum Beispiel eine Werbekampagne zu entwickeln und dann laufen zu lassen, geht man mit Big Data dazu über, die Werbemotive ständig zu verändern, in zufälligen Mutationen, wie in der biologischen Evolution, neue Varianten auf einem Teil der Nutzer gegen die bewährte Fassung laufen zu lassen. Agile Statistics und a/b-Testing sind die Methoden dazu. Die statistischen Verfahren, die zum Einsatz kommen, verzichten oft auf inhaltliche Interpretation. Data Science arbeitet quantitativ; selbst Textanalysen oder Bilderkennung funktionieren oft völlig ohne linguistische oder semantische Vorgaben.

Standard-Hardware statt teurer Systeme

Zum Dritten verlässt Big Data teure, spezialisierte Systeme. Bevorzugt wird billige Standard-Hardware. Hadoop läuft darauf als Betriebssystem – quasi das „Windows“ für Big Data. Nach Möglichkeit werden alle Rohdaten behalten, anders als beim Datamining, wo erst auf Konsistenz geprüft wird und dann Daten nur aggregiert in Tabellenform erhalten bleiben. Auf diese Weise bleibt die gesamte Information erhalten, auch für zukünftige Verwendungszwecke.

Alle drei Punkte bedeuten schon einzeln genommen eine neue Sicht auf Information. Big Data fasst diese Veränderungen zusammen. Daher ist Big Data mehr als nur ein Schlagwort, auch wenn das Wort wie ein billiger Claim eines Computerherstellers klingt.

Jörg Blumtritt ist CEO von Datarella, Blogger und Data Scientist

By | 2017-07-13T12:39:55+00:00 Juli 13th, 2017|Categories: Wissen|Tags: , , , , |0 Comments

About the Author:

Helmut van Rinsum
Helmut van Rinsum begleitet als Fachjournalist seit vielen Jahren die Medienbranche. Er arbeitet zudem als Kommunikationsberater und ist Teilhaber der Agentur brandiz.

Leave A Comment