„Ist doch egal, warum – Hauptsache, es funktioniert!“
„Ist doch egal, warum – Hauptsache, es funktioniert!“„Ist doch egal, warum – Hauptsache, es funktioniert!“
Dies ist das Zitat eines Teenagers aus einer Diskussion über die Perfektion algorithmischer Entscheidungen eines so genannten selbst fahrenden Autos.
Dazu ein „Blitzlicht“: einige spontane Assoziationen, die auch für Führung und Zusammenarbeit von und in Unternehmen/ Organisationen bedeutsam sind.
Die lebendige Diskussion mit dem wachen und temperamentvollen Heranwachsenden zeigt eine Haltung, die verbreitet ist – keinesfalls nur bei Jüngeren, sondern auch und gerade bei Anhängern von Big Data und des Abgesangs von Theorie und damit dem Fragen nach dem Warum, Woher, kurz: nach Erklärung und Verstehen (Nachvollziehen).
Die aus der Fangemeinde der Digitaltechnologie populäre Überzeugung, Theorie, Kausalerklärungen, Herleitungen nicht mehr zu benötigen, weil datenbasiert Muster erkannt werden können und es ausreiche, auf dieser phänomenalen, empirischen, positivistischen Ebene zu arbeiten, rechtfertigt sich durch empirische Datenvolumina, die die menschliche Verarbeitungskapazität übersteigen und in zahlreichen Fällen dafür sorgen, „dass es funktioniert“. Und das tut es ja auch in durchaus bemerkenswertem Ausmaß.
Allerdings verkennen die Anhänger dieser positivistischen Haltung unter anderem dies: dass inzwischen insbesondere Forscher im Bereich neuronaler Netzwerke/ Künstliche Intelligenz, Vernetzung von Maschinen (IoT) sowie von Mensch und Maschine, kurz: Forscher, die mit selbst lernenden Systemen arbeiten, zugeben, nicht zu verstehen, wie diese zu ihren Ergebnissen gelangen. Die Systeme werden als „Black Boxes“ bezeichnet.
Wer nicht nachvollziehen kann, wie, durch welche Operationen (und inhaltliche, semantische, normative Inputs) ein System zu seinen Resultaten (inklusiv Handlungen, Handlungsempfehlungen) gelangt, ist auch nicht in der Lage:
- Fehler (insbesondere jene, die zunächst latent bleiben, sich via Skalierung verstärken und irgendwann und irgendwo manifest werden, zeitlich, örtlich und wirkungsdynamisch überraschend auftauchen) zu erkennen und ihren Werdegang zu rekonstruieren
- systematisch-zielorientiert zu intervenieren
- systematisch weiter zu entwickeln.
Pointiert formuliert, passiert gerade dies: Wir wissen zwar nicht, wie genau das System arbeitet, aber solange es so funktioniert, wie wir es wollen, machen wir so weiter (und nähren dadurch u.U. Fehler, die nur noch nicht bemerkt wurden, aber bei Analyse/Verstehen aufgedeckt werden könnten). Inkludiert ist: Solange das System so arbeitet, wie wir es für richtig halten, arbeitet es korrekt. Per Kurzschluss: Der Computer hat recht. Der Teenager rief in seiner Begeisterung zum selbst fahrenden Auto aus: „Der Computer entscheidet immer besser als der Mensch!“
Wir vertrauen in etwas, das wir nicht verstehen. Das ist eine durchaus religiös zu nennende Haltung; denn es ist Glaube, nicht Wissen und Verstehen.
Je weiter diese Haltung um sich greift, desto weniger werden jene Fähigkeiten des Menschen trainiert, die logische und kausale Kategorien, die Induktion, Deduktion und andere diskursive, intellektuelle Kategorien bedienen und ausüben können, geschweige denn, komplexe Logik wie das Denken in Wechselwirkungen, in unterschiedlichen Wirkungsgraden von Variablen etc.. (Hier ist die Literatur von Dietrich Dörner noch immer sehr instruktiv.)
Diese unintellektuelle Haltung, die sich auf das verlässt, was offenkundig passiert und daran anknüpft, ist das Gegenteil einer Haltung, die Verstehen und auf Verstehen aufbauen will. Ohne sie allerdings wäre die kulturelle Evolution, zu der selbstredend auch Technologie und Technik gehören, nicht möglich gewesen. Und nur mit ihr ist es möglich, das Zepter in der Hand zu halten: systematisch zu entscheiden, was aus welchen Gründen und aufgrund welcher Indizien und Überlegungen (!) was (weiter) entwickelt, verändert, entschieden werden soll.
Exakt dies aber benötigen (auch) Unternehmen: Menschen, deren Ehrgeiz es ist, „Dinge“ (Zusammenhänge, Prozesse, das Entstehen von Resultaten, Entstehungszusammenhänge, Entscheidungsgründe, Verwendungs-, Wirkungs(ko)relationen) zu verstehen, um die Wahrscheinlichkeit zu erhöhen, dass alle Beteiligten wissen, was sie warum wozu, aufgrund von was mit welchem Ziel tun bzw. unterlassen (sollen, wollen, werden).
Einfacher gesagt, geht es um die Erhaltung dessen, was den Menschen gegenüber der intelligentesten Maschine (noch) auszeichnet: Die Fertigkeit, bewusst und intendiert zu agieren, auf Verstehen aufbauend zu handeln (dazu gehört auch das viel gerühmte kreative, innovative Denken und Handeln).
Auf diese Fertigkeit können Organisationen/ Unternehmen so lange nicht verzichten, wie Menschen noch benötigt werden - „oberhalb“ exekutiver Tätigkeiten maschineller Befehle.
Aus diesem Grund sollten (auch) Unternehmen im Rahmen ihrer Curricula der Fort-, Weiter-, Ausbildung sowie im alltäglichen Arbeiten Sorge tragen dafür, dass die Akteure immer wieder aufgefordert und gefördert werden, verstehensorientiert zu handeln. Sämtliche Konzepte rund um agiles, demokratisiertes, verantwortungsvolles Führen und Kooperieren benötigen diese Haltung und entsprechende Praktiken.
Ist doch egal, warum – Hauptsache es funktioniert! sollte bestenfalls improvisatorisch verstanden werden und einer anderen Haltung Platz machen: Ist doch nötig, zu wissen, warum – Hauptsache wir verstehen, wieso es funktioniert!