Der neue Individualismus… in der Statistik

Individualisierung eine neue Statistik

 

Vor ein paar Wochen saß ich in einem Meeting mit Investmentbankern, Kammern und Verbänden; wir diskutierten über die Digitalisierung in der Ernährungswirtschaft. Ein Professor einer norddeutschen Hochschule berichtete aus einem Projekt mit der Industrie, bei dem durch Sensoren auf jeder Flasche festgestellt werden soll, ob das enthaltene Produkt beim Transport oder im Supermarktregal schlecht geworden ist. Vorläufiges Ergebnis: mit nur ein, zwei Variablen, die günstig gemessen werden können, gelingt das.


Auf Nimmerwiesersehen, Mindesthaltbarkeitsdatum?

Da fiel es mir wie Schuppen von den Augen: ist eine solche Technik marktreif, gehört das Mindesthaltbarkeitsdatum der Vergangenheit an – und vermutlich ebenso die Debatten ums Containern. Ich stellte genau diese Frage in die Runde… ob er bzw. die Industrie darauf hinaus wolle und wie die Chancen im Markt seien. Er zögerte kurz, weil er meinte, das aktuelle Projekt fokussiere sich erst einmal auf ein bescheideneres Ziel: die Optimierung der Lieferketten. Doch schließlich bejahte er: technisch sei das prinzipiell möglich, nur heute noch zu teuer – doch der Preis der Sensorik sinke praktisch monatlich.


Das schleichende Ende der Stichprobe

Das Ende der StichprobeIm Moment fügen sich für mich im Umgang mit Big Data viele Puzzlestücke zusammen und formen ein Bild: die heiligen Kühe der Statistik sterben aus. Die längste Zeit galt die größte Sorge der Marktforscher, Pharmakologen, Biologen und Ingenieure zwei Fragen – „ist unsere Stichprobe aussagekräftig“ und „wie stark ist die Streuung um den Mittelwert“ (also: wie unterschiedlich sind die Individuen / Einzelfälle). In den letzten Jahrzehnten gesellte sich die Gretchenfrage hinzu: „Aus welchen Mustern können wir Trends ableiten.“

Das sind heute immer häufiger keine entscheidenden Probleme mehr. Durch immer billigere Messtechnik und Datenverarbeitung werden zunehmend Stichproben erhoben, die so groß sind, dass sie sich kaum noch von der Grundgesamtheit trennen lassen. Oder man erhebt gleich die gesamte Grundgesamtheit. Klingt das für Sie zu forsch? Das ist es längst nicht mehr: ein gutes, integriertes Medienmonitoring erfasst (praktisch) jede einzelne öffentliche Äußerung zu einem Thema, egal ob in der ZEIT, der tagesschau, auf t-online oder bei Twitter – und eben nicht mehr ein Panel von „Meinungsbildnern“ und „Experten“. Firmen wie S’Oliver oder Gerry Weber statten jedes einzelne ihrer Kleidungsstücke mit RFID-Chips aus und sind daher in Echtzeit über Verkaufsquoten, Diebstahl, etc. im Bilde. Die Pharma-Giganten Novartis und Otsaka nutzen in manchen Pharmazeutika bereits sendende Chips, die Patient und Arzt per Smartphone mitteilen, ob das Mittel rechtzeitig und in ausreichender Menge eingenommen wurde.


Laservisier statt Schrotflinte: eine neue Statistik

Lassen wir das Thema Datenschutz heute einmal beiseite und blicken wir mit rein statistischem Interesse auf diese Entwicklung: Wird jedes Individuum bzw. jede einzelne Einheit erfasst, haben wir keine Verzerrungen durch Stichproben mehr. Zudem müssen wir keine Streuung mehr hochrechnen oder Annahmen zur Verteilung treffen – wir können Streuung und Verteilung in Echtzeit messen. Und mehr noch: die Streuung spielt nur noch eine Rolle bei der Produktentwicklung oder Segmentierung von Märkten… immer weniger bei der Ansprache / Behandlung des Individuums – denn wir wissen genau, wo sich der Einzelne auf der Glockenkurve aufhält.

Auch Prognosen laufen zunehmend anders ab: durch flächendeckende Messungen und laufende Datenverarbeitung erhalten wir immer mehr Daten – ob über Menschen, Produkte oder Umwelt – in Echtzeit und können sie praktisch sofort auswerten. Die Frage, woraus wir Trends ableiten dürfen und wie stabil diese sind, lässt sich damit immer häufiger mit den Mitteln der Schulmathematik beantworten: der 1. und 2. Ableitung – wir messen live noch kleinste Änderungen, die erst noch am Rande stattfinden, doch haben selbst für diese meist genug Daten, um eine Funktion zu erkennen, d.h. ein mathematisch beschreibbares Muster. Wenn wir von dieser Entwicklung laufend die Geschwindigkeit und Beschleunigung feststellen, haben wir unsere – permanent aktualisierte – Trend-Vorhersage schon beinahe fertig.


Occams Rasiermesser ist stumpf geworden

Mit dem, was die Meisten an der Universität über Statistik gelernt haben – und mit den Verfahren, mit denen die meisten Institute noch heute ihre Daten erheben und bearbeiten – hat das immer weniger zu tun. Die neue Statistik arbeitet mit viel größeren Datenmengen und braucht weniger Winkelzüge – sie ist damit zugleich einfacher und komplexer… und zunehmend eine Disziplin für Computer, bei der Menschen nur noch die möglichen Schlüsse auf ihre Plausibilität hin überprüfen.

In dieser Welt taugt eines der schärfsten Schwerter klassischer Wissenschaft nur noch bedingt: Occams Rasiermesser – also die Forderung, mit möglichst wenig Variablen und Hypothesen auszukommen und die einfachste Erklärung anzunehmen. In der Welt von Big Data kann es für die computergestützte Analyse vorhandener (oder beinahe kostenlos verfügbarer) Daten kaum genug Variablen geben und noch die fragwürdigste Hypothese lässt sich automatisch überprüfen… teils sind Hypothesen sogar überhaupt erst das Ergebnis, nicht der Ausgangspunkt, der computerisierten Erstanalyse. Lediglich der Mensch, der am Ende unter vielen möglichen Mustern und Erklärungen die wertvollsten aussortieren soll, wird nach wie vor die einfachste bevorzugen.


Big Brother? Emanzipation!

Big Data als EmanzipationIn der Öffentlichkeit wird diese Entwicklung in erster Linie mit Sorge betrachtet – von mahnender Skepsis bis offener Paranoia. Das ist insofern verständlich, als bei einer neuen Technologie zunächst abzuklopfen ist, was schlimmsten Falls passieren kann, um eben diesen Fall zu verhindern.

Es darf aber nicht den Blick darauf verstellen, dass sich hinter diesen Änderungen in der Datenerhebung und -verarbeitung ein tieferes Muster verbirgt, das sich auch positiv deuten lässt:
Wie viel Unrecht passiert jeden Tag dadurch, dass wir Menschen als Klischees behandeln, wie viele Ressourcen werden vergeudet durch zu allgemeine Leitwerte wie das Mindesthaltbarkeitsdatum? Stichproben diskriminieren zum einen gerade kleinere Minderheiten, die sich in ihren schlichtweg nicht niederschlagen. Zum anderen lügt jeder Mittelwert – kaum ein Mensch und kaum ein natürliches Produkt entsprechen ihm genau. Im Markt ist das lediglich ärgerlich; in Politik und Gesellschaft kann es schnell bedenklich werden; in Medizin und Technik lebensgefährlich.

Schauen wir auf Big Data mal durch eine andere Brille – und wir sehen die Emanzipation des Individuums. Kein Mittelwert, keine Zielgruppe – sondern das passende Produkt für diesen konkreten Menschen…auch die passende Therapie. Wir sehen ebenfalls Potenzial für erheblich mehr Nachhaltigkeit, ökologisch wie ökonomisch: ob ein Joghurt noch verkauft werden darf, ob ein Auto aus dem Verkehr gezogen werden muss – wir wissen es, anstatt raten und uns nach gröbsten Leitwerten richten zu müssen, und vermeiden so viel Abfall und unnötig hohe Preise.


Naivität? Technik-Euphorie? Ich meine: lediglich eine notwendige Entgegnung auf die einseitige, Angst-getriebene Debatte, die inzwischen dazu neigt, „Daten“ per se als suspekt zu betrachten.

Was meinen Sie? Ich freue mich auf die Diskussion!

 

Related posts
3 Kommentare
  1. Bernd

    Aldous Huxley, Welt-wohin? Deutsche Erstausgabe von 1932 — immer noch aktuell

    Bei all dem aufgeführten Gedanken darf man keinesfalls den Datenschutz vernachlässigen. Alles was man für Gutes nutzen kann, kann man auch für Schlechtes nutzen. Auf die Frage an eine Ärtzen, die an der Manipultion von DNA arbeitet, um Krankenheiten zu besiegen, ob dieses nicht auch dafür dienen kann, menschliche Klone und Roboter zu erstellen, kam klar und deutlich… JA!

    Was will ich damit sagen: Wir kommen aus der BIG-DATA Nummer nicht mehr raus. Wer im Wettrennen um die „richtige“ Analyse vorne liegt, macht auch hier die Punkte. Doch was genau hindert die Auswerter daran, nicht nur rückwärts zu analysieren, sondern auch vorwärts zu manipulieren. Wer schütz eben die Menschen davor, die nicht den Weitblick des BIG-DATA-Einflusses haben und damit wie blöckende Lämmer dem Manipulator folgen?

    Wer heute nicht auf Analysen der Gesamtdatenwelt setzt, wird nahezu ins Mittelalter zurück vesetzt. Wie der Klerus, der lesen und schreiben konnte und das Volk der Analphabeten. Eine umumgängliche und spannende, aber bei weitem nicht nur gute Entwicklung.

  2. Wie bei jeder neuen Technologie gibt es auch hier ein Wettrennen zwischen – pathetisch ausgedrückt – der hellen und der dunklen Seite der Macht. Da muss man nur Cambridge Analytica erwähnen oder das Bürger-Rating-System der Chinesischen Regierung. Doch auch mit klassischen Umfragen und Massenmedien ließ sich trefflich manipulieren – Göbbels hatte einst sein Protegé Elisabeth Nölle-Neumann zu Gallup in die USA geschickt, um diese Kunst zu entwickeln. Dennoch wollte niemand nach dem Krieg auf Meinungsumfragen oder auf Medien in staatlicher Hand verzichten (im Gegenteil – Frau Nölle-Neumanns IfD Allensbach wurde eine führende Institution und Nölle-Neumann selbst Spin Doctor von Helmut Kohl, und die „tagesschau“ setzte Jahrzehnte die Agenda der jungen Bundesrepublik).
    Insofern… in der Tat, wir „kommen da nicht mehr raus“ – doch das zu beklagen führt nicht nur nirgendwo hin (aufgrund eben dieser Finalität), sondern auch am entscheidenden Punkt vorbei: wenn sinistre Akteure das Potenzial neuer Technologien sehen und nutzen (und das tun sie no matter what), wir aber die Chancen für echten Fortschritt in Markt und Gesellschaft aus Skepsis und Zögerlichkeit nicht ergreifen, wird die angesprochene Asymmetrie immer größer – die „Hexenkunst“ der „Wölfe“ versus der Analphabetismus der „Lämmer“.
    Denn man kann diese Geschichte auch anders erzählen: eine Gesellschaft, in der Menschen nicht mehr auf einen Durchschnitt reduziert werden und die (soziale) Realität nicht mehr in ein starres Modell gezwängt, sondern in ihrer lebendigen Dynamik anerkannt und abgebildet wird, eine solche Gesellschaft findet nicht nur Möglichkeiten für adäquatere, fairere, gerechtere Lösungen, sondern sollte eben auch für Faschismus und Manipulation weniger anfällig sein, weil nicht mehr so leicht alle über einen Kamm geschert oder Gruppen geschlossen gegeneinander aufgewiegelt werden können… mit zunehmender Fragmentierung und Komplexität steigt der Preis der Kontrolle/Manipulation enorm.
    Insbesondere muss man klar trennen zwischen verschiedenen Formen von Big Data – auch hier ist es nicht seriös und zielführend, alle in einen Topf zu werden:
    individuelle Daten zu Gegenständen (Wer könnte etwas gegen ein individuelles Qualitäts-Tracking von Milch haben, so dass nicht mehr wegen des MHD zahllose brauchbare Nahrungsmittel entsorgt werden müssen? Wer wollte Predictive Maintenance für Verkehrsflugzeuge verdammen, die hunderte, ja tausende Leben retten kann?)
    vs.
    homomorphe d.h. anonymisierte Daten zu Personen (von der Trendanalyse auf Basis von Suchmaschinen-Anfragen bis zur immer differenzierteren Identifikation der Wünsche und Erwartungen von Kunden, Mitarbeitern, Bürgern – hier liegt enormes Potenzial für besser funktionierende Märkte und Demokratie)
    vs.
    isomorphe, d.h. individuell zuordenbare Daten zu Personen (da wird es kritisch – das Potenzial von Co-Kreation bis individueller Krebs-Therapie ist offenkundig, ebenso aber das für Manipulation, Erpressung etc. …dennoch darf man den Datenschutz hier nicht so global übertreiben, dass die positiven Anwendungen gar nicht mehr möglich sind! Das Ziel muss eine gewisse Datenautonomie bzw. Datensouveränität des Einzelnen sein, nicht ein Datenembargo!).

Schreibe ein Kommentar

Ihre Mailadresse wird nicht publiziert. Pflichtfelder sind mit * markiert.

Du kannst diese HTML Tags und Attribute verwenden: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Formular leerenAbschicken

Kostenlose Big Data Tools für Marktforscher

big data marktforschung

Wenige Unternehmer wissen, wie transparent ihr Markt, ihre Wettbewerber und ihr eigenes Unternehmen im Netz sind. Wer diese Daten clever nutzt, gewinnt Wettbewerbsvorteile. Ich stelle Ihnen vier kostenlose Tools vor, die Ihre Marktforschung voranbringen!

Erfahren Sie mehr! >>

12.11. (Darmstadt): Data Science meets Bots

Web Excellence Forum

Welcher CEO ist im Aufwind, was Reputation und Wirkung betrifft? Welcher muss sich Sorgen machen? Und wieso wissen Bots die Antwort? Im Web Excellence Forum präsentieren der Vorsitzende Michael Heine und ich den Reputations-Benchmark für DAX-CEOs, interpretiert von Bots. Ihr Unternehmen ist noch nicht Mitglied? Nutzen Sie die Chance einer kostenlosen Schnupper-Teilnahme!

Informationen und Anmeldung >>

Planung ist tot – und Resilienz Trumpf

Artikel Unsicherheit und Resilienz

Sie fragen sich, ob Sicherheit und Planbarkeit zurückkommen? Lesen Sie hier, weshalb wir darauf nicht hoffen können und uns intensiv mit einem Konzept beschäftigen müssen, das entscheidend für den Unternehmenserfolg wird: Resilienz.

Zum Artikel >>