von Stephan Wohanka
Eine Tageszeitung schreibt: „Teurer als geplant, weniger Nutzen als gedacht, später fertig als gehofft: Bei Großprojekten wie dem Flughafen in Berlin oder dem Bahnhof in Stuttgart geht fast immer etwas schief. Das Versagen hat System“.
„System haben“ ist doppeldeutig – hier meint es wohl, dass ein „objektives“, im System begründetes Versagen vorliegt. Aber auch dabei agieren natürlich Menschen; die Frage ist also: Sind da die Falschen am Werk? Machten andere es besser? Bei aller individuell unterschiedlicher Fähigkeit – ich denke: Nein! Das Versagen ist grundsätzlich kein individueller Mangel der Verantwortlichen, ohne zu verkennen, dass eklatante Unfähigkeit und auch Tricksereien sowie Betrug – namentlich bei den Baukosten – auch eine Rolle spielen; ich komme darauf zurück. Der Sachverhalt, um den es sich dreht, geht jedoch weit über das „Bauliche“ hinaus.
Dieses und anderes Misslingen ist auf die unerhörte Komplexität der vor den Verantwortlichen stehenden Aufgaben zurückzuführen – beziehungsweise auf die Notwendigkeit, diese Komplexität zu reduzieren. Zwei Symptome dieses Problems sind hinreichend bekannt: erstens der permanente, diese Menschen nie verlassende Zeit-, Problem-, Entscheidungs- und Verantwortungsdruck; zweitens die zunehmende Differenziertheit, Dynamik, Vernetztheit und Unüberschaubarkeit der tagtäglich von ihnen zu lösenden Aufgaben.
Überlastung durch eine nicht mehr kontrollierbare Flut von Informationen und daraus resultierende Schwierigkeiten beim Erkennen der Wirklichkeit sind geradezu kennzeichnend für unsere Zeit der Überinformation und Überkomplexität. Andererseits ist auch wahr, dass man zu fast jeder Einzelfrage und jedem Detailproblem politischer oder unternehmerischer Entscheidungen – ob zum Steuersatz, zur Umweltverträglichkeitsprüfung, zur Finanzierung von Investitionen, zu Berechnungen technischer Fragestellungen und anderem mehr – in der entsprechenden wissenschaftlichen Literatur oder bei Experten Antworten findet. Für nahezu jedes Problem gibt es mehr oder weniger praktische Vorschriften, sozusagen „Sollsätze“ („Wenn das und das gegeben ist, dann solltest du das und das tun.“). Das Problem ist nur, wie deren Gesamtheit Tag für Tag durch die Entscheidungsträger angewandt werden soll, in welchen konkreten Formen also die Komplexität der täglichen Praxis effektiv bewältigt werden kann. Hier kommen vor allem Erfahrung und Intuition ins Spiel. Beide waren und sind gewichtige Entscheidungsgrundlagen. Aber die Frage drängt sich auf – ist speziell Erfahrung, oft mit Wissen gleichgesetzt, heute noch ausreichend und vor allem zukünftig tragfähig? Denn wie sagt doch Hans Jonas in seinem Buch „Prinzip Verantwortung: Versuch einer Ethik für eine technologische Zivilisation“: „[…] die kumulative Selbstfortpflanzung technologischer Veränderung der Welt überholt fortwährend die Bedingungen jedes ihrer beitragenden Akte und verläuft durch lauter präzedenzlose Situationen, für die die Lehren der Erfahrung ohnmächtig sind“.
Das Ganze klingt sehr „philosophisch“ – ist das auch praktisch belegbar? Der Wissenschaftstheoretiker Dietrich Dörner hat aus gutem Grund ein Buch „Logik des Misslingens“ genannt. Darin stellt er Experimente vor, in denen Probanden mehr oder weniger komplexe Entwicklungen steuern sollen. Alle scheitern, so wie die Akteure der Reaktorkatastrophe von Tschernobyl. Auch da war laut Börner unter anderem „eine Tendenz zur Übersteuerung“ beim „menschlichen Umgang mit dynamischen Systemen charakteristisch“.
Fasst man die üblichen Reaktionen in derartigen Entscheidungssituationen zusammen, so zeigen sich folgende hauptsächlichen Verhaltensweisen im Umgang mit komplexer Realität:
Reparaturdienstverhalten: Das System wird auf – aus Sicht des „Betreuers“ – reparaturbedürftige Missstände geprüft; diese werden abgestellt, bis der nächste Missstand erneutes Eingreifen erfordert. Eine grundlegende Strategie fehlt.
Fehlender Überblick: Trotz einer – manchmal – umfangreichen Datensammlung respektive -dichte bleibt der Gesamtüberblick aus; man nimmt nur Ausschnitte wahr. Es fehlt ein Ordnungsprinzip für die Daten oder es kann aufgrund der hohen Kompliziertheit des Systems gar nicht mehr gefunden werden.
Einseitige Schwerpunktbildung: Man versteift sich auf einen durchaus wichtigen Schwerpunkt, lässt dadurch aber andere zu kurz kommen und bemerkt daher entsprechende Verschiebungen nicht oder zu spät.
Unterschätzung von Nebenwirkungen: Hängt eng mit dem vorhergehenden Punkt zusammen – wiederum bedingt durch Einseitigkeit der Wahrnehmung.
Übersteuerung: (Zu) zögerliches und (zu) kräftiges Vorgehen wechseln sich ab, da immer vom jeweiligen Zustand und weniger vom Prozess ausgegangen wird.
Diktatorisches Verhalten: Äußert sich in der Meinung, das System durchschaut zu haben und es komplett und „richtig“ regeln zu können. Das ist jedoch bezüglich komplexer Systeme das gefährlichste Verhaltensmuster!
Derartige Fehlverhaltensmuster sind inhärenter Bestandteil sowohl des Alltagslebens als auch des politischen und wirtschaftlichen Handelns: Widersprechen neue Tatsachen oft mühevoll und langwierig erworbenen Erklärungen, so werden diese nicht korrigiert, sondern weiter „verfeinert“. Karl W. Kapp sagt in „Soziale Kosten der Marktwirtschaft“ dazu: „Anstelle einer Prüfung unserer Erkenntnisse durch den Versuch ihrer Widerlegung neigen wir dazu, sie gegen widersprechende Beweise zu verteidigen. Sozialwissenschaftler (und nicht nur diese – Anm. St. W.) haben die Tendenz, unhaltbare Positionen durch Verfeinerung ihrer Definitionen oder den Einbezug zusätzlicher Hypothesen zu retten.“ Die ursprünglichen (einfachen) Erklärungen werden so zunehmend zu unüberschaubaren gedanklichen Konstrukten, zu Pseudoerklärungen, deren Glaubwürdigkeitsgrad mit ihrer Absurdität sogar zu steigen pflegt. Kommt es zu Fehlern, Pannen et cetera, zu Tatsachen also, die eigentlich Veränderungen erforderten, wird in der Regel aber gerade gegenteilig reagiert – nämlich mit mehr Desselben, das heißt Fortschreibung des Bekannten nach dem Motto: Das haben wir schon immer so gemacht … nur wird dabei vergessen, dass die Problemlagen zu anderen Zeiten durchaus andere waren.
Die menschliche Praxis, ihre Wirkungen stellen sich ganz offensichtlich nicht als linear-kausale Ketten dar – was den eben beschriebenen Verhaltensmustern entspräche –, sondern bilden permanent rekursive, also rückbezügliche Kausalnetze. Die Folge ist, dass ab einem gewissen Kompliziertheitsgrad von sozialen und auch technischen Systemen die rekursive Komplexität oder wiederdurchlaufende Problemgeschlossenheit einfach zu groß ist, um sie trotz besten Wissens und auch Wollens sowie mit Hilfe von „Maschinen“noch erfassen zu können.
Die häufig zu beobachtende Differenz zwischen hohem persönlichem Engagement und dem Scheitern von Politikern, Bauherren, Ingenieuren und anderen ist also ursächlich durch diesen rekursiven Zusammenhang bedingt, der jedwedem menschlichen Handeln eigen ist; wir haben es grundsätzlich mit einer reflexiven Problemgeschlossenheit zu tun. Die jeweilige Reaktion wird permanent zum neuen Reiz, Impuls – die Wirkung wird zur Ursache, Lösungen führen zu neuen Problemen. Dieses Geflecht ist zugleich das Biotop derer, die manipulieren, tricksen und täuschen! In diesem Dickicht gedeihen Dilettantismus, Mittelmäßigkeit und Rechthaberei, was die Dinge zusätzlich erschwert!
So kann es eigentlich nicht verwundern, dass die eingangs genannten Bauvorhaben – und die Kette ließe sich über die Elbphilharmonie in Hamburg hinaus noch um einiges verlängern – aus dem Ruder gelaufen sind. Derartige Projekte gehören zur Kategorie „komplexe Systeme“ und bilden so für die Verantwortlichen letztlich zwar keine unlösbaren Aufgaben, aber jedenfalls solche, die sich in „herkömmlicher“ und „bewährter“ Art und Weise nicht lösen lassen! Und so lange das nicht verstanden wird und adäquate Veränderungen in Planung, Leitung und Projektsteuerung vorgenommen werden, die mit den oben aufgeführten tradierten, aber „falschen“ Verhaltensmustern aufräumen, wird es, wie es in dem bereits zitierten Zeitungstext auch heißt, so bleiben, dass egal sei, wen man fragt: „Niemand kann exakt kalkulieren, wie teuer ein Großprojekt wird, sagt der Bau-Fachmann. Fast immer geht etwas schief und verzögert sich, sagt der Bahnkenner.“
Stephan Wohanka ist Wirtschaftswissenschaftler und lebt in Berlin.
Schlagwörter: Berlin, Flughafen, Komplexität, Stephan Wohanka, Verhaltensmuster, Versagen