Der neue Individualismus… in der Statistik

Individualisierung eine neue Statistik

 

Vor ein paar Wochen saß ich in einem Meeting mit Investmentbankern, Kammern und Verbänden; wir diskutierten über die Digitalisierung in der Ernährungswirtschaft. Ein Professor einer norddeutschen Hochschule berichtete aus einem Projekt mit der Industrie, bei dem durch Sensoren auf jeder Flasche festgestellt werden soll, ob das enthaltene Produkt beim Transport oder im Supermarktregal schlecht geworden ist. Vorläufiges Ergebnis: mit nur ein, zwei Variablen, die günstig gemessen werden können, gelingt das.


Auf Nimmerwiesersehen, Mindesthaltbarkeitsdatum?

Da fiel es mir wie Schuppen von den Augen: ist eine solche Technik marktreif, gehört das Mindesthaltbarkeitsdatum der Vergangenheit an – und vermutlich ebenso die Debatten ums Containern. Ich stellte genau diese Frage in die Runde… ob er bzw. die Industrie darauf hinaus wolle und wie die Chancen im Markt seien. Er zögerte kurz, weil er meinte, das aktuelle Projekt fokussiere sich erst einmal auf ein bescheideneres Ziel: die Optimierung der Lieferketten. Doch schließlich bejahte er: technisch sei das prinzipiell möglich, nur heute noch zu teuer – doch der Preis der Sensorik sinke praktisch monatlich.


Das schleichende Ende der Stichprobe

Das Ende der StichprobeIm Moment fügen sich für mich im Umgang mit Big Data viele Puzzlestücke zusammen und formen ein Bild: die heiligen Kühe der Statistik sterben aus. Die längste Zeit galt die größte Sorge der Marktforscher, Pharmakologen, Biologen und Ingenieure zwei Fragen – „ist unsere Stichprobe aussagekräftig“ und „wie stark ist die Streuung um den Mittelwert“ (also: wie unterschiedlich sind die Individuen / Einzelfälle). In den letzten Jahrzehnten gesellte sich die Gretchenfrage hinzu: „Aus welchen Mustern können wir Trends ableiten.“

Das sind heute immer häufiger keine entscheidenden Probleme mehr. Durch immer billigere Messtechnik und Datenverarbeitung werden zunehmend Stichproben erhoben, die so groß sind, dass sie sich kaum noch von der Grundgesamtheit trennen lassen. Oder man erhebt gleich die gesamte Grundgesamtheit. Klingt das für Sie zu forsch? Das ist es längst nicht mehr: ein gutes, integriertes Medienmonitoring erfasst (praktisch) jede einzelne öffentliche Äußerung zu einem Thema, egal ob in der ZEIT, der tagesschau, auf t-online oder bei Twitter – und eben nicht mehr ein Panel von „Meinungsbildnern“ und „Experten“. Firmen wie S’Oliver oder Gerry Weber statten jedes einzelne ihrer Kleidungsstücke mit RFID-Chips aus und sind daher in Echtzeit über Verkaufsquoten, Diebstahl, etc. im Bilde. Die Pharma-Giganten Novartis und Otsaka nutzen in manchen Pharmazeutika bereits sendende Chips, die Patient und Arzt per Smartphone mitteilen, ob das Mittel rechtzeitig und in ausreichender Menge eingenommen wurde.


Laservisier statt Schrotflinte: eine neue Statistik

Lassen wir das Thema Datenschutz heute einmal beiseite und blicken wir mit rein statistischem Interesse auf diese Entwicklung: Wird jedes Individuum bzw. jede einzelne Einheit erfasst, haben wir keine Verzerrungen durch Stichproben mehr. Zudem müssen wir keine Streuung mehr hochrechnen oder Annahmen zur Verteilung treffen – wir können Streuung und Verteilung in Echtzeit messen. Und mehr noch: die Streuung spielt nur noch eine Rolle bei der Produktentwicklung oder Segmentierung von Märkten… immer weniger bei der Ansprache / Behandlung des Individuums – denn wir wissen genau, wo sich der Einzelne auf der Glockenkurve aufhält.

Auch Prognosen laufen zunehmend anders ab: durch flächendeckende Messungen und laufende Datenverarbeitung erhalten wir immer mehr Daten – ob über Menschen, Produkte oder Umwelt – in Echtzeit und können sie praktisch sofort auswerten. Die Frage, woraus wir Trends ableiten dürfen und wie stabil diese sind, lässt sich damit immer häufiger mit den Mitteln der Schulmathematik beantworten: der 1. und 2. Ableitung – wir messen live noch kleinste Änderungen, die erst noch am Rande stattfinden, doch haben selbst für diese meist genug Daten, um eine Funktion zu erkennen, d.h. ein mathematisch beschreibbares Muster. Wenn wir von dieser Entwicklung laufend die Geschwindigkeit und Beschleunigung feststellen, haben wir unsere – permanent aktualisierte – Trend-Vorhersage schon beinahe fertig.


Occams Rasiermesser ist stumpf geworden

Mit dem, was die Meisten an der Universität über Statistik gelernt haben – und mit den Verfahren, mit denen die meisten Institute noch heute ihre Daten erheben und bearbeiten – hat das immer weniger zu tun. Die neue Statistik arbeitet mit viel größeren Datenmengen und braucht weniger Winkelzüge – sie ist damit zugleich einfacher und komplexer… und zunehmend eine Disziplin für Computer, bei der Menschen nur noch die möglichen Schlüsse auf ihre Plausibilität hin überprüfen.

In dieser Welt taugt eines der schärfsten Schwerter klassischer Wissenschaft nur noch bedingt: Occams Rasiermesser – also die Forderung, mit möglichst wenig Variablen und Hypothesen auszukommen und die einfachste Erklärung anzunehmen. In der Welt von Big Data kann es für die computergestützte Analyse vorhandener (oder beinahe kostenlos verfügbarer) Daten kaum genug Variablen geben und noch die fragwürdigste Hypothese lässt sich automatisch überprüfen… teils sind Hypothesen sogar überhaupt erst das Ergebnis, nicht der Ausgangspunkt, der computerisierten Erstanalyse. Lediglich der Mensch, der am Ende unter vielen möglichen Mustern und Erklärungen die wertvollsten aussortieren soll, wird nach wie vor die einfachste bevorzugen.


Big Brother? Emanzipation!

Big Data als EmanzipationIn der Öffentlichkeit wird diese Entwicklung in erster Linie mit Sorge betrachtet – von mahnender Skepsis bis offener Paranoia. Das ist insofern verständlich, als bei einer neuen Technologie zunächst abzuklopfen ist, was schlimmsten Falls passieren kann, um eben diesen Fall zu verhindern.

Es darf aber nicht den Blick darauf verstellen, dass sich hinter diesen Änderungen in der Datenerhebung und -verarbeitung ein tieferes Muster verbirgt, das sich auch positiv deuten lässt:
Wie viel Unrecht passiert jeden Tag dadurch, dass wir Menschen als Klischees behandeln, wie viele Ressourcen werden vergeudet durch zu allgemeine Leitwerte wie das Mindesthaltbarkeitsdatum? Stichproben diskriminieren zum einen gerade kleinere Minderheiten, die sich in ihren schlichtweg nicht niederschlagen. Zum anderen lügt jeder Mittelwert – kaum ein Mensch und kaum ein natürliches Produkt entsprechen ihm genau. Im Markt ist das lediglich ärgerlich; in Politik und Gesellschaft kann es schnell bedenklich werden; in Medizin und Technik lebensgefährlich.

Schauen wir auf Big Data mal durch eine andere Brille – und wir sehen die Emanzipation des Individuums. Kein Mittelwert, keine Zielgruppe – sondern das passende Produkt für diesen konkreten Menschen…auch die passende Therapie. Wir sehen ebenfalls Potenzial für erheblich mehr Nachhaltigkeit, ökologisch wie ökonomisch: ob ein Joghurt noch verkauft werden darf, ob ein Auto aus dem Verkehr gezogen werden muss – wir wissen es, anstatt raten und uns nach gröbsten Leitwerten richten zu müssen, und vermeiden so viel Abfall und unnötig hohe Preise.


Naivität? Technik-Euphorie? Ich meine: lediglich eine notwendige Entgegnung auf die einseitige, Angst-getriebene Debatte, die inzwischen dazu neigt, „Daten“ per se als suspekt zu betrachten.

Was meinen Sie? Ich freue mich auf die Diskussion!

 

Related posts
Schreibe ein Kommentar

Ihre Mailadresse wird nicht publiziert. Pflichtfelder sind mit * markiert.

Du kannst diese HTML Tags und Attribute verwenden: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Formular leerenAbschicken

Kostenlose Big Data Tools für Marktforscher

big data marktforschung

Wenige Unternehmer wissen, wie transparent ihr Markt, ihre Wettbewerber und ihr eigenes Unternehmen im Netz sind. Wer diese Daten clever nutzt, gewinnt Wettbewerbsvorteile. Ich stelle Ihnen vier kostenlose Tools vor, die Ihre Marktforschung voranbringen!

Erfahren Sie mehr! >>

12.11. (Darmstadt): Data Science meets Bots

Web Excellence Forum

Welcher CEO ist im Aufwind, was Reputation und Wirkung betrifft? Welcher muss sich Sorgen machen? Und wieso wissen Bots die Antwort? Im Web Excellence Forum präsentieren der Vorsitzende Michael Heine und ich den Reputations-Benchmark für DAX-CEOs, interpretiert von Bots. Ihr Unternehmen ist noch nicht Mitglied? Nutzen Sie die Chance einer kostenlosen Schnupper-Teilnahme!

Informationen und Anmeldung >>

Planung ist tot – und Resilienz Trumpf

Artikel Unsicherheit und Resilienz

Sie fragen sich, ob Sicherheit und Planbarkeit zurückkommen? Lesen Sie hier, weshalb wir darauf nicht hoffen können und uns intensiv mit einem Konzept beschäftigen müssen, das entscheidend für den Unternehmenserfolg wird: Resilienz.

Zum Artikel >>