Small Data statt Big Data

Von Falk Ebert, Digital Strategy Consultant, Scholz & Friends Hamburg GmbH

 

Wie und warum sich Planner in den Werbeagenturen jetzt die Hände schmutzig machen müssen.

Nach der zweifelsfrei griffigsten Definition bezeichnet Big Data den Umgang mit Datenmengen, die in keine Excel-Tabelle mehr passen. Und hier zeichnet sich bereits das erste Problem für einen potenziellen Einsatz in Werbeagenturen ab: eine Daten-Skepsis, die schon bei Excel-Tabellen anfängt. Hier müssen wir Planner vorausgehen!

 

Auch die Fachpresse hat bislang wenig dazu beigetragen, die Kluft zwischen dem Erkennen des Hypes und dem Einsatz im Agentur-Alltag zu verringern. Während Magazine aus den Bereichen Technik, CRM oder Performance noch Praxisnähe demonstrieren können, dreht sich die Werbewelt beim Thema Big Data journalistisch im Kreis. Immer neue Verbildlichungen der täglich generierten Datenmengen bringen uns ebenso wenig weiter wie die Anekdote des fast mythenhaften Targeting-Coups von Target.

 

Teilweise fehlt auch das Verständnis, wie „big“ große Datenmengen überhaupt sein müssen, um als solche bezeichnet werden zu können. Wer bei Big Data nur an Routineaufgaben wie Tracking der eigenen Website denkt, verkennt die Dimensionen, die das eigentliche Novum darstellen. Die unausgesprochene Wahrheit: Echtes Big Data erfordert Spezialisten verschiedenster Expertise, die man in Agenturen bislang nicht findet.

 

Für den Status quo im Planning liegt die größere Chance heute ohnehin noch im Analysieren von kleineren, leichter abbildbaren Datenmengen. Nennen wir sie „Small Data“: begrenzte, strukturierte Datensätze mit klarer Semantik. Sie können ein mächtiges Tool sein, füllen sie doch die Lücke zwischen der Vogelperspektive der klassischen Marktforschung und dem Detailfoto von Vox Pops und Fokusgruppen. Solange wir Strategen die Analyse solcher Daten noch nicht in unseren Arbeitsalltag integriert haben, brauchen wir de facto noch nicht an Big Data denken.

 

Im Folgenden soll der dazu notwendige Dreischritt aus Datenerhebung, Datenanalyse und dem Nutzbarmachen der gewonnenen Erkenntnisse dargestellt werden.

 

1. Datenerhebung

Wer Daten sucht, die einer Marke in der Praxis weiterhelfen, sollte zunächst nahe am Unternehmen selbst suchen. Denn wir Menschen publizieren immer mehr und hinterlassen auch im Privaten immer besser maschinenlesbare Spuren. Doch wer twittert ohne Anlass über das Mineralwasser, das er eben getrunken hat? Nicht nur im Bereich FMCG haben wenige Marken den Code geknackt, der sie zum Gesprächsthema macht. Und nicht jede Produktverwendung hat kommunikatives Potenzial. Deshalb sind neben einem Web-Monitoring auch die eigene Facebook-Seite, E-Mails im Kundenservice oder ähnliche Datenquellen ein guter Ausgangspunkt.

 

Auch die Möglichkeit, aktiv Feedback einzuholen, funktioniert. Ein guter Tausch mit der Zielgruppe: Insights und Aufmerksamkeit gegen Produktproben oder Exklusiv-Behandlung. Das geht erstaunlich gut, wenn die Marke bereits Reichweite in verschiedenen Kanälen aufgebaut hat. Von der Produkttester-Aktion, die mit einer viral konzipierten Facebook-App gekoppelt ist, bis zur klassischen Befragung von Newsletter-Empfängern geht hier viel.

 

Aktuell die zentrale Herausforderung beim Erheben, Zusammenführen und Aufbereiten von Small Data: Ohne Code kommt man sehr schnell an Grenzen. Da die wenigsten Werber Programmiersprachen in der Schule oder an der Uni lernen mussten, ist Eigeninitiative gefragt. Oder ein guter Draht zu einem Entwickler-Kollegen, der nur ein paar Büros weiter sitzt. Idealerweise beides. Was man mit ein paar Zeilen einfachem Code beispielsweise aus Facebook holen kann, geht weit über das hinaus, was die Analyse-Tools mit schönem User Interface auf dem Markt bieten. Nur, wer die Rohdaten hat, kann sich später wirklich auf Entdeckungsreise begeben. Und spätestens, wenn es um die auch bei Big Data zentrale Facette Velocity (Geschwindigkeit) geht, wird Programmierarbeit unerlässlich.

 

2. Datenanalyse

Wie beim großen Bruder Big Data gilt auch beim Data Mining für Small Data, dass es keine besten oder gar einheitlichen Methoden und Tools gibt. In einer von Divergenz gezeichneten Digital-Welt muss sich jeder sein Toolkit für den Anwendungsfall selbst zusammenstellen.

 

Oberflächliche Online-Spielereien wie Wordle sind da ein netter Einstieg, aber eben auch nur das. Tools gibt es genug: Für zeitbezogene Daten könnte etwa TimeFlow helfen, für das visuelle Entdecken von Verbindungen das unter Open Source stehende Gephi. SPSS für statistische Zusammenhänge dürften viele noch aus dem Studium kennen. Microsoft Access ist ein guter Einstieg für Datenbank-Neulinge. Auch das eingangs erwähnte Excel kann mehr, als der Durchschnittsnutzer von ihm erwartet. Für das Filtern von Elementen mit vielen Ausprägungen sind die Pivot-Tabellen Gold wert.

 

OpenRefine ist eines der praktikabelsten Tools. Dass es von einer Firma mit Daten-Analyse in der Firmen-DNA kommt, verwundert nicht: Die früher unter dem Namen Google Refine bekannte Desktop-Anwendung hilft beim Aufbereiten und Untersuchen von Daten in verschiedensten Formaten. Zahlreiche Filter und Transformationen machen das Eintauchen in die Daten ebenso einfach wie das Auftauchen und Erkennen von größeren Zusammenhängen. Auch hier gilt wieder: Mit ein paar Zeilen Code kommt man weiter als ohne.

 

Die Technik ist zumindest keine Hürde mehr. Während bei Big Data erst spezielle Software wie beispielsweise das Framework Apache Hadoop die Verarbeitung der Datenberge ermöglicht, kommt schon ein normales MacBook mit strukturierten Datensätzen mit Zehntausenden von Einträgen problemlos zurecht. Während die technische Seite die Arbeit mit Small Data heute also wenig bremst, braucht es dennoch Erfahrung auf der menschlichen Seite. Nur wer die Mischung aus dem Bearbeiten von konkreten Zielen, dem Definieren von validen KPIs und dem aufmerksamen Stöbern in den Daten beherrscht, wird wirklich wertvolle Erkenntnisse generieren können. Wer in der Vogelperspektive sucht, ohne den Kontext des Einzelfalls zu vergessen, wird garantiert fündig. Als Warnung sei einzig das 50 Jahre alte Bonmot angebracht: „Not everything that can be counted counts, and not everything that counts can be counted.“

 

3. Erkenntnisse nutzen

Angenommen, wir wissen jetzt, wann unsere Zielgruppe sich online begeistert über Marken äußert, was unsere Konsumenten an unserem Produkt stört, wie die Produktverwendung für sie zum Kommunikationsanlass wird oder wie sich die Stimmung auf unserem Corporate Blog in den letzten drei Jahren verändert hat. Was nun?

 

Generell können die gewonnenen Insights als Inspiration für alle Markenaktivitäten dienen – vom Tweet bis zur integrierten Kampagne. Natürlich nicht alleine und natürlich nicht ohne den Filter des gesunden Menschenverstandes und der übergeordneten markenstrategischen Überlegungen.

 

In der Praxis lässt sich beobachten, dass auf Basis von Verbreitungs-Daten entwickelter Content besser viral funktioniert als die nach Bauchgefühl entwickelten Inhalte. Eine Erkenntnis, auf deren Basis derzeit völlig neue Publikationsformate wie BuzzFeed entstehen. Aus dem Wissen um die Aktivität der Kunden in den sozialen Netzwerken können spezifische Handlungsempfehlungen für die Contentstrategie und das Community Management abgeleitet werden – ganz ohne übergeneralisierte Korrelations-Studien aus bunten Infografiken, wie man sie im Web zur Genüge findet.

 

Wer zusätzlich noch die oben angesprochene Geschwindigkeit in den Prozessen mitbringt, kann sein Content Marketing um Aspekte des Real-Time Marketings erweitern, auch wenn dieser Satz zwei zugegebenermaßen deutlich überreizte Buzzwords enthält. Die Observation von Viralität in freier Wildbahn ist die wichtigste Vorbereitung auf viralen Kampagnen-Content, der das dazugehörige Adjektiv auch verdient.

 

Oft ist es aber schon hilfreich, nur zu prüfen, ob bestimmte Thesen und Annahmen im Vorfeld durch die Daten gestützt werden können. Wenn das zur Verfügung stehende Material das Gegenteil des ursprünglich Gedachten suggeriert, sollte man seine Prämissen überdenken, bevor man es als gedankliches Fundament einer Kommunikationsstrategie einsetzt.

 

Je nach Datenlage können die Ergebnisse nicht nur zu einem neuen, sondern sogar besseren Verständnis der Zielgruppe führen. Denn egal wie viele faszinierende Geschichten man von der Innensicht des Unternehmens auch zu hören bekommt: The plural of anecdote is not data.

 

Ein Ausblick

Dass Big Data ein beherrschendes Thema für viele Unternehmen wird, bestreitet heute keiner mehr. Welche Rolle in Zukunft dabei dem Planning der Werbeagenturen zwischen Unternehmensberatungen, Mediaagenturen, der internen Business Intelligence und Spezialdienstleistern zufällt oder zufallen muss, kann zum jetzigen Zeitpunkt wohl noch keiner sagen.

 

Fakt ist aber, dass zumindest Small Data schon heute ein essenzieller Skill eines jeden Planners sein sollte. Denn der Umgang mit kleineren Datenmengen ist nicht nur hilfreich, sondern kann auch unheimlich Spaß machen. Auch, wenn man sich dafür ein wenig mit Excel-Tabellen oder – noch ungewohnter – mit Programmiersprachen auseinandersetzen muss.

 

Foto: „farbspektrum 03“ | complize | photocase.de

comments powered by Disqus