BigData – Big Deal


Big Data im Handel

Öfter mal was Neues:

Big Data

Nachdem der Hype um den Begriff Cloud Service ein wenig abebbt, wird es Zeit für etwas Neues.

Big Data ist in aller Munde. Aber so neu ist das, was dahintersteckt, eigentlich gar nicht. Es ist eigentlich die konsequente Weiterentwicklung von Methoden und Ansätzen der Business Intelligence (BI).


In der BI geht es vornehmlich um Konzernkennziffern, um mit statistischen Methoden „Was wäre wenn“-Variationen von Umsatz- und Erlöskennziffern durchzuspielen. Hier gilt es, multidimensionale Datenmodelle zu entwickeln, die alle Kenngrößen eines Unternehmens abbilden und eine Bewertungsbasis für Entscheider sind.

Es werden möglichst viele Faktoren und Kennziffern im Unternehmen zusammengetragen um dann variierbare Stellschrauben zu entwickeln. Auf diese Art lassen sich recht genau Vorhersagen machen, wie sich eine Preis oder Mengenvariation bei einem Produkt im Gewinn niederschlägt.

Bislang fehlte in diesen Sandkastenspielen am Rechner aber eins: Die direkte und unmittelbare Rückkoppelung des Konsumenten außerhalb des Unternehmens. Diese lässt sich nur durch Marktforschung und ein recht zeitaufwändige Realisierung gewinnen.

Aber kann man nicht die Methoden der BI auch auf andere Daten anwenden?

Natürlich kann man mit Daten aus externen Quellen (z.B. sozialen Netzwerken), auch derartige Analysen anstellen und daraus die fehlenden Rückkoppelungen zu entwickeln. Also nimmt man die aus anderen Quellen gewinnbaren Daten und packt sie einfach mit in den Pool des Datawarehouse.

Big Data ist ja eigentlich erst einmal die  Anhäufung aller im Unternehmen und extern anfallenden Daten.

Eines muss man sich aber klar machen: Es handelt sich im Unterschied zu Zahlen der BI um nicht oder nur indirekt nutzbare Daten. So werden in diesem neuen Bereich auch Daten auftauchen, die nicht ohne eine konkrete Umformung in Zahlen nutzbar sind. Es handelt sich bei Big Data ja durchaus nur um Logdateien aus Webpräsenzen. Oder um Kommentare in sozialen Netzwerken. Hierin befinden sich eben keine direkt abgreifbaren Daten, sondern Texte, die erst umgeformt und aufbereitet werden müssen.

Neben solchen Daten bieten sich noch viele andere Quellen an. Bewegungsdaten von Kunden in einem Supermarkt. Einfach zu gewinnen aus RFID-Sendern in Einkaufswagen. So lassen sich einfach Umstrukturierungen in der Sortimentsplatzierung nachvollziehen und so optimieren, dass Kunden mehr kaufen.

In Verbindung mit Aktionswerbung und dem „Verstecken“ des beworbenen Artikels in der Verkaufsfläche lässt sich so zum Beispiel sehr schön ableiten, ob eine bestimmte Werbung greift. Die Bewegungsprofile zeigen dann, ob Kunden direkt den Artikel ansteuern oder eher beiläufig zugreifen.

Eine weitere Quelle ist die Auswertung von Bilddaten. Mit geeigneter Software lässt sich auswerten, wie lange die Verweildauer bei einem Artikel ist. Oder ob ein Kunde regelmäßig in einen Laden zurückkehrt. Die Krönung hierbei ist eigentlich die automatisierte Auswertung von Personen und deren Kleidung oder Mitbringsel. So lässt sich die Rentnerin braunen Mantel mit dem weißen Rollator durchaus für automatische Sensorik erfassbar machen.

Vieles ist in diesem Bereich mittlerweile machbar. Also wird es auch gemacht. Denn die Auswertung von Big Data Sammlungen stellt für Unternehmen auch einen Big Deal dar. Es ergeben sich viele neue Möglichkeiten, die gewonnenen Daten so zu nutzen, dass ein Unternehmen einen Mehrwert generieren kann.

Ein Problem von Big Data steckt im Namen.

Es handelt sich um viele Daten. Sogar sehr viele Daten, die nicht einmal in direkt auswertbarer Form vorliegen. Daten mit Interpretationsspielräumen. Und es handelt sich um Daten, die erst in Verbindung mit anderen Daten einen Sinn ergeben.

Diese Fakten machen es notwendig, große Datenmengen in kurzer Zeit und möglichst parallel vorhalten und verarbeiten zu können.

Dies lässt sich heutzutage aber durch angepasste Server- und Datenbankstrukturen realisieren. Viele Entwicklungen der jüngeren Zeit zeigen hier Lösungsmöglichkeiten auf.

Es gibt allerdings noch ein Problem.

Die Forderung nach Geschwindigkeit bis hin zur Echtzeitverarbeitung macht es unmöglich die ein- und ausgehenden Daten noch auf Plausibilität zu prüfen. Wo früher mit statistischen Methoden Ausreißer gefunden wurden und dann vor der Verarbeitung korrigiert wurden, ist heute die Prozesskette auf solche Maßnahmen nicht mehr optimiert.

Damit wird das System anfällig für Fehler und Fehlinterpretationen. Dieser Gefahr muss man sich als Betreiber einer Datenmodellierung im Bereich Big Data stets bewusst sein. Es müssen also vor einer durch das System ausgelösten automatischen Reaktion Freigaben eingebaut werden. Es kommt sonst möglicherweise durch Fehlinterpretation einer Messgröße zu unerfreulichen Randeffekten.

Und nicht nur zufällige Fehler spielen eine Rolle. Schon heute haben sich Menschen darauf spezialisiert, solche automatisch gewonnenen Zahlen zu manipulieren.

Im Bereich sozialer Netzwerke gibt es seit einiger Zeit Dienstleister, die versuchen, den Einfluss einer „öffentlichen“ Person oder Webseite zu messen und zu „scoren“. Hierbei werden verschiedene Quellen angezapft und bewertet. Wer nun durch intensive Tests in der Lage ist, die Funktionsweise der Filter und Bewertungsschemata zu verstehen, ist in der Lage diese Werte zu beeinflussen.

Kleine, aber gezielt eingesetzte „Netzwerk-Drohnen“ machen es möglich, Interaktion vorzutäuschen, wo gar keine ist. Der Lohn der Mühe: Scoringwerte steigen. So etwas kann man sich schon heute zu nutze machen.

Aus dem Suchmaschinenoptimierer der Vergangenheit wird jetzt der „Social Impact Hacker“.

Und denn muss die automatisierte Auswertung von Big Data erst einmal entdecken. Sonst wird aus dem „BigDeal“ ein „HugeFlop“.


Datenschutz - Impressum

IT-Beratung - IT-Betrieb - Technologieberatung - IT-Risikobewertung - Vorträge und Weiterbildung zu IT-Themen