Welche Funktion hat die Bigdata-Illusion?

von Kusanowsky

Gunnar Sohn hat einen Artikel über diesen Bigdata-Unsinn geschrieben. Fast allem, was er schreibt, kann man kaum widersprechen, mit Ausnahme der Tatsache, dass es sich bei den Versprechungen und Visionen des Bigdata-Geschäfts nicht um Unsinn handelt, sondern um das, was Gunnar Sohn zutreffend beschreibt. Es handelt sich um Illusionen, die so alt sind wie Entwicklung quantifizierender Methoden der Wissenschaft seit dem 17. Jahrhundert. Und genauso alt sind übrigens die Versuche, diese Illusionen aufzudecken. Beides, die Vorstellung einer Welt ohne Zufall und ihre Widerlegung, hat bis heute nichts von seiner Anziehungskraft eingebüßt. Das Geschäft der Behauptung und Gegenbehauptung geht weiter als wäre in den letzten 300 Jahren gar nicht viel passiert. Diese Formulierung legt nahe, die Sache skeptischer zu betrachten.

Die Skepsis richtet sich dabei auf die Überlegung, dass, mag es sich bei diesen Visionen und Versprechungen auch um Illusionen handeln, sie dennoch kommuniziert werden, auch dann, wenn sie mit verständigen Argumenten widerlegt werden können, weshalb man die gleiche Skepsis auch gegen die Widerlegung richten könnte.
Will man sich nun nicht in dem Problem verfangen und danach fragen, welche Seite von beiden die richtige ist, bleibt die Frage übrig, warum dennoch und immer noch beides kommuniziert wird, da man sich kaum vorstellen kann, dass in letzten 300 Jahren irgendetwas Entscheidendes in dieser Sache übersehen worden ist. Warum setzt sich die Kommunikation fort?

Die Frage ist kompliziert und nicht so einfach zu beantworten. Mindestens würde ich diese Frage in zwei Gruppen von Überlegungen gliedern. Die erste Gruppe beinhaltet Überlegungen zu der Frage, wie und warum, unter welchen Bedingungen die Kommunikation darüber möglich wurde; und die zweite würde sich mit der Frage befassen, warum dies immer noch geschieht, ohne, dass die Kommunikation langweilig wird, obgleich alles schon gesagt wurde.

Beide Gruppen von Überlegungen würde ich von der These einklammern, dass es sich bei der Entwicklung quantifizierender Methoden der Auswertung von Dokumenten, die ihrerseits nur als Massenprodukt auffällig werden, um besondere Übungsgegenstände handelt, die dazu beitrugen, die moderne Welterfahrung ausdrücken zu können. Es handelt sich um Spielbälle, die eine Welt verstehbar und erfahrbar machen; eine Welt, die diese Spielbälle in Umlauf und sich damit zur Sprache bringt. So wäre Statistik der Versuch, über Emergenzphänomene zu sprechen, ohne dafür zugleich eine erklärende Theorie mitliefern zu müssen. Es handelt sich darum, so könnte man sagen, Theoriefindungsversuche auf dem Umweg der Theorievermeidung zu ermöglichen.

Diese Theorievermeidungsversuche der Statistik kann man an bekannten Argumentationsroutinen und entsprechenden Irritationen erkennen, die immer wieder durchlaufen werden:

  • die Behauptung reiner Fakten
  • die Unterscheidung von Beschreibung und Interpretation
  • die Behauptung von Objektivität, Wertneutralität, Beobachtungsunabhängigkeit
  • Subjektivität, Nichtwissen und Zufall als Störfaktoren
  • Ansprüche der Statistik auf Indiffferenz gegenüber Wahrheit (Statistik sei „Hilfswissenschaft“, keine Wissenschaft)
  • die Irritationen über Kausalität und Korrelation
  • Festellung von Gesetzmäßigkeiten, Unterscheidung von Regel und Ausnahme
  • Das Problem der Rechtmäßigkeit von Generealisierungen
  • Unterscheidung von Zufall und Notwendigkeit

Den spezifischen Sinn von Statistik würde ich entsprechend darin sehen, Methoden der Theorievermeidung zu liefern, um Rechtfertigungen trotz des wahrscheinlichen Scheiterns von Wahrheitsansprüchen zu liefern; Rechtfertigungen, die immer rekursiv auf die Ergebnisse statistischer Zähl- und Auswertungsverfahren rekurrieren und dabei die Theorievermeidung als Strategie benutzen, um die Theoriefindung – die ja sehr schwer ist – zu provozieren.
Salopp formuliert: Statistik produziert aufgrund nicht zu vermeidender, weil theorieabstinenter Formenfindung, irgendwann einen unüberschauren Zahlensalat, der in bestimmten Zusammenhängen, deren Zustandekommen freilich eher unwahrscheinlich und darum marginal ist, dazu ermutigt, die Theorievermeidung der Statistik zu vermeiden.

Aber warum werden gegenwärtig mit diesem Bigdata-Geschäft diese Theorievermeidungsversuche immer noch durchgehalten? Ich vermute, dass dies geschieht aufgrund eines Gedächtnsiverlustes durch eine semantische Provokation: der Ausdruck „quantifizierende Methoden“, der lange bekannt ist und sehr viele Suchergebnisse zutage fördert, ist von der Semantik sehr verschiedener Fachwissenschaften besetzt, deren Sprache kaum einer benutzen kann, weil die Zeit nicht ausreicht, um sie zu lernen. Folglich lässt sich ein Gedächtnisverlust, also die plötzliche Löschung einer wenig erfreulichen Trefferliste dadurch erzeugen, dass ein neues Suchwort emergiert, am besten eines, das die benutzte Sprache noch gar nicht kennt – „Big-Data“! Das ermöglicht, dass nun gerade, weil dieses Suchwort neu ist, kaum einer etwas dazu gesagt hat, weshalb nun ganz viel gesagt werden kann, ohne bemerken zu müssen, dass das alles schon gesagt würde.

In dieser „post-privacy“-Angelegenheit handelt es sich um eine ähnliche Strategie. Diese Anglizismen haben die Funktion einer sozialen Amnesie um das Gespräch darüber, weil genau über dieses Stichwort noch wenig gesagt, noch einmal zu ermutigen. Und es mag sein, dass gerade diese Amnesie auf eine wichtige Änderung der Fortsetzungsbedingungen der Kommunikation verweist, die nun durch das Internet erzeugt werden.

So hat dieser „Big-Data-Unsinn“ die Funktion, diese neuen Bedingungen beobachtbar zu machen. Es findet gleichsam ein gesellschaftlicher Forschungsprozess statt, der auf dem Umweg bekannt-unbekannter Themen die Befassung mit unbekannt-unbekannten Bedingungen der Kommunikation befördert. Es geht um die gesellschaftliche Suche nach neuen Ubungsgegenständen oder Spielbällen der Kommunikation unter neuen und unbekannten Bedingungen.

Advertisements