Clemens Gause

Strategie


Das Thema Strategie treibt mich schon seit Jahren um. Zunächst in zahlreichen Beratungsprojekten und schließlich wissenschaftlich habe ich mir immer wieder die Frage nach dem Wesen, aber auch nach dem Nutzen und der Durchhaltbarkeit oder dem Wechsel von Strategien gestellt. Im Rahmen der Definition eines umfassenden Strategiebegriffs besteht das Ausgangsproblem, dass je nach wissenschaftlicher Disziplin oder Lebenswelt unterschiedlichste Sichtweisen und Definitionen darüber existieren, was Strategie ist oder was sie sein soll. Sie wohnt jedem System inne.

Eine Strategie in diesem Sinn setzt somit kein Bewusstsein, sondern eine Anlage voraus, die sich nach außen in die Umwelt eines Systems expressiert und materialisiert. Strategie wird einerseits durch Abgrenzung von der Umwelt, Information, Raum und Zeit und andererseits durch Wechselwirkung mit der Umwelt gebildet.

Jede Strategie zollt dieser Wechselwirkung Tribut. Die Wechselwirkung bildet den Motor des Wandels, der sich in seinen Mustern auf unterschiedlichste Weise ausprägt. Angesichts dieses Mechanismus bleibt zu hoffen, dass die Zukunft stets Möglichkeiten offen hält.

Katastrophen wie das Unglück in Fukushima führen in aller Regel dazu die Dinge zu überdenken, beispielsweise Sicherheits- und Schutzkonzepte einer kritischen Überprüfung zu unterziehen und Konsequenzen und Lehren aus dem Geschehenen für die eigene Wahrnehmung und Sicherheitsvorsorge zu ziehen. Dieses Vorgehen ist nachvollziehbar und richtig, aber leider nur soweit wie es denn tatsächlich möglich ist. Katastrophen sind schließlich gerade deswegen Katastrophen, weil sie unerwartet, schnell und massiv schädigend wirken und weil eben gerade gegen sie „kein Kräutlein gewachsen" ist. Diese Feststellung bildet zugegebener Maßen eine sich im Kreis drehende „Binsenweisheit". Sie eröffnet aber einen Ausweg dergestalt, indem sie auf ein ganz wesentliches Problem hinweist: Der Eintritt des multiplen und kaskadierenden Schadensereignisses (Erdbeben, Flutwelle, Reaktorunglücke, Ausfall der Versorgungsinfrastruktur) war in seiner konkreten Ausprägung unerwartet und traf Japan hart, da sich die Möglichkeit des Auftretens abseits jeglicher Wahrnehmung befand. Der notwendige Strategieprozess zur Verbesserung von Sicherheit und Schutz gestaltet sich also in erster Linie als ein Wahrnehmungsproblem unter den Beteiligten. Wie aber auf etwas vorbereiten von dem man nicht ahnt, dass es überhaupt auftreten und einen akut in der Existenz bedrohen kann? Vergleiche mit Strukturen und Prozessen in der Natur helfen weiter.

Ein ganz wichtiges Grundprinzip biologischer Systeme bilden Redundanzen. Als redundant wird jede Informationsmenge bezeichnet, die zur Übertragung der eigentlichen Information nicht unbedingt notwendig und daher überflüssig (in der Regel doppelt) ist. Eine Nachricht, die Redundanzen enthält, vergrößert schlicht die Informationsmenge. Dieser Nachteil redundanter Informationen wird jedoch häufig durch den Vorteil der wesentlich sicheren Nachrichtenübertragung aufgehoben, denn selbst wenn einige Teile der Nachricht wegfallen, bleibt der qualitative Informationsgehalt bestehen und wird übertragen.

Redundanzen sind in der Natur allgegenwärtig. Diese Strategie wird allgemein als eine robuste, evolutiv wirksame Strategie von biologischen Systemen identifiziert mit der relativen Ungewissheit künftiger Umweltbedingungen umzugehen. Ein Prozess oder eine Struktur werden zudem als relativ robust angesehen, wenn sie nicht nur unempfindlich gegenüber Störungen, sondern überdies häufig auch redundant in einem System abgebildet sind. Gleiches wird mit Bezug auf biologische Netzwerke (neuronale Netzwerke) für die Verteilung von Information in einem Netzwerk vorgebracht.

Dabei sind die beiden Begriffe Robustheit und Redundanz stets sauber auseinander zu halten. Ein über viele Redundanzen verfügender Organismus muss daher nicht notwendig robust sein. Die Begründung liefert das Beispiel des Unterschieds zwischen genetischer Robustheit und Redundanz. Lange herrschte in der Biologie die Überzeugung, dass Gene, die in der DNS (Desoxyribonukleinsäure) an verschiedenen Stellen mehrfach auftreten, also redundant sind, eine größere Robustheit gegenüber Mutationen haben. Das ist jedoch, wie man in zahlreichen Untersuchungen feststellte, nicht zwingend der Fall. Hintergrund bildet folgende, recht simple Überlegung: Selbst in der Grundstruktur der DNS ist das strategische Paradox zu bedenken, dass robuste Strukturen und Prozesse, gerade durch ihr Vorhandensein, also ihr vorhandenes Muster, überhaupt erst gegenüber Mutationen angreifbar werden. Eben ganz einfach deswegen, weil sie vorhanden sind. Frühere Annahmen trugen nun die Vermutung, dass die Wiederholung von genetischen Merkmalen zur Folge hat, dass diese gegenüber Angriffen auf den genetischen Code besonders robust sind. Wird eine Gensequenz zerstört, existieren noch weitere identische Sequenzen auf der DNS, die unversehrt sind und abgelesen werden können. Im Grunde ein fantastisches mehrfach abgesichertes System.

Ein entscheidender Umstand, der Ablesevorgang durch die RNS (Ribonukleinsäure), wurde jedoch übersehen. Dieser stellt die sequentielle Redundanz in diesen Fällen in Frage. Den Auslösepunkt dafür bildet der mitunter nicht fehlerfreie Kopier- und Ablesevorgang. Daraus folgt, dass Gene, die redundant sind, nicht notwendigerweise robuster gegen Mutationen sind, denn sobald sie abgelesen werden, können sich Ablesefehler, also Mutationen, ausprägen. Ob und wie stark diese Mutationen dann allerdings zu Tage treten ist eine andere Frage. Für die Betrachtung unter dem Gesichtspunkt der Öffentlichen Sicherheit ist nur eines entscheidend, nämlich der strategische Angriffspunkt. Es lässt sich daraus folgernd sogar vertreten, dass eine Redundanz gleicher Art das Potential für eine Anfälligkeit unter Umständen sogar erhöht. Redundanz allein schützt jedenfalls vor Ausfall und Schaden nicht. Systeme sind vielmehr dann relativ robust, wenn stützende Funktionen nicht nach denselben Prinzipien arbeiten und/oder stofflich anders aufgebaut sind, so dass, wenn das erste Subsystem angegriffen wird, Schaden nimmt und scheitert, das zweite anders aufgebaute, also die Redundanz, durch den Fehler oder die Störung unempfindlich ist oder ihn abfängt. In diesem Fall kann die schädigende Kraft ihr Wirkung nicht ansetzen und das Subsystem infolge seiner Andersartigkeit widerstehen. Sofern eine solche „Fall-Back-Fähigkeit", „zweite Verteidigungslinie" oder wie immer man so etwas bezeichnen möchte, fehlt, sollte das System die Abweichung zumindest sensorisch erfassen und auf gleicher Ebene über Korrekturmaßnahmen verfügen.

Im Ergebnis ist also zwischen echter und unechter Redundanz zu unterscheiden. Ein Fall unechter Redundanz ist gegeben, wenn ein System lediglich gedoppelt, also kopiert wird, die echte Redundanz hingegen liegt vor, wenn ein System durch ein anderes System mit differierender Substanz, Struktur und/oder Prozess (zum Beispiel in einem Computersystem eine funktional anders aufgebaute Hard- oder Software), aber gleichem Funktionsergebnis (zum Beispiel Rechenergebnis) ersetzbar ist. Der Aus- und Rückfall muss also auf eine andere Art und Weise abgefangen werden.

Der „Verlass" auf eine unechte Redundanz ist unter Umständen sogar hochgefährlich. Ist ein System anfällig gegen einen bestimmten Fehler, kann dieser sich kaskadenartig durch alle unechten Redundanzen fortsetzen. Es ist von einem „Lock-in" auszugehen, der das System und alle anderen unecht redundanten Systeme aufgrund ihrer Gleichartigkeit regelrecht hinwegfegt. Unechte Redundanzen können ein trügerisches Gefühl ausreichender Vorsorge und Sicherheit vorgaukeln. Gerade sie sind geeignet starke Kulminationspunkte zu setzen, ab dem ein System sehr schnell kippen und innerhalb kürzester Zeit vollkommen wirkungslos werden kann.

Zu beachten gilt aber, dass jede Redundanz ihre eigenen Schwächen und Angriffspunkte hat, denn gerade der Mix unterschiedlicher Funktionalität, verschiedener Stofflichkeit bei gleichem Produktionsergebnis, macht ein System relativ robust. Auch durch eine echte Redundanz kann die Verletzbarkeit daher nur bedingt eingedämmt werden. Nur in diesen Grenzen kann ein System als zumindest vergleichsweise oder relativ robust charakterisiert werden. Zudem verliert es im Rückfall stets Fähigkeiten, jedoch muss dies nicht notwendigerweise mit einem vollständigen Informations- oder Fähigkeitsverlust einhergehen, sofern die Redundanz die Fähigkeiten zumindest teilweise aufrechterhalten oder mit etwas Zeitverzug partiell wieder zusammensetzen oder rekonstruieren kann. Die Redundanz bildet damit im Ergebnis die unmittelbare Vorbedingung für die Erzeugung von Robustheit und der Fähigkeit zur Resillienz, also der Erholung und Wiederherstellung von Systemen. Sie bildet einen, wenn nicht sogar den wesentlichsten Grundbaustein zur Selbsthilfefähigkeit, so wie sie in biologischen Systemen beispielsweise im Immunsystem angelegt ist.

Einen solchen wichtigen evolutiv optimierten Mechanismus, der auch als umgekehrte echte Redundanz bezeichnet wird, ist im Immunsystem bei vielen Rezeptoren an der Zelloberfläche gegeben. Unterschiedliche akzessorische Rezeptoren in der Zellmembran können dabei ein und dasselbe akzessorische Signal auslösen („many to one communication"). Das bedeutet, dass eine noch so effiziente Blockade eines einzigen Rezeptors nicht ausreicht, um einen Effekt vollständig zu unterbinden. Das Signal kann immer noch, zumindest teilweise, über einen anderen Rezeptor vermittelt werden. Dieses Phänomen der umgekehrten echten Redundanz führt bei der Bekämpfung von Autoimmunkrankheiten, also der Unterbindung unerwünschter Immunreaktionen zu erheblichen Schwierigkeiten, weil das Immunsystem aufgrund dieser Fähigkeit eine enorme Leistungs- und Bypassfähigkeit an Kommunikationswegen präsentiert. Daher müssen Signalübertragungsvorgänge zwischen dem Rezeptor in der Zellmembran und dem Zellkern unterbrochen werden, in dem letztendlich die Aktivierungsreaktionen stattfinden. Dies stellt die Medikation der Betroffenen vor kaum lösbare Probleme. Dieser Systemaufbau und diese Systemlogik haben sich in vielen natürlichen Systemen manifestiert und behaupten sich in der Natur relativ stabil über eine Mischung aus echten und unechten Redundanzen. Bezieht man solche Naturbeobachtungen auf das Feld der Öffentlichen Sicherheit und beispielsweise unmittelbar auf die Konzeption der Ausfallsicherheit von Kommunikationssystemen, so kann die Beobachtung solcher Prozesse und Mechanismen Ideen liefern. Beispielsweise kann sie neue Anhaltspunkte für robuste Warnsysteme geben, bei denen trotz eines Ausfalls wie etwa einer Verteilerstelle, eines Servers oder Ähnlichem, die Nachrichten über andere technische Routen und Wege dennoch ihre Empfänger finden. Davon abgesehen können solche Vergleiche auch als eine Orientierung dienen, um die Robustheit eigener Sicherheitsarchitekturen und -netze auf Schwachstellen hin zu überprüfen und diese bereits im Planungsprozess gegen unterschiedlich wirkende Störfaktoren mehrfach echt redundant anzulegen. Unter Umständen können dadurch auch bisher nicht vollständig wahrgenommene und erfasste Pfadabhängigkeiten aufgedeckt, das Ausfallrisiko durch die Anlage technisch anders abhängiger Strukturen breiter gestreut und damit minimiert werden. Es kann sich also lohnen „Mutter Natur" zur Sicherheit über die Schulter zu schauen.

 

top