Volkswagen abgestürzt – ein Beispiel für Systemversagen, Kontrollverlust und mehr

PaD 37 /2023 – Hier auch als PDF verfügbar: Pad 37 2023 Volkswagen abgestürzt

Was auch immer gestern bei Volkswagen dazu geführt haben mag, dass deutschlandweit die Montage- und Komponentenwerke stillstanden, und offenbar auch die Kommunikation mit den Händlern unterbrochen war: Das Risiko ist grundsätzlich bekannt. Mann kann die Eintrittswahrscheinlichkeit reduzieren, aber es kann mit vertretbarem Aufwand nicht ausgeschlossen werden.

Die Abwägung zwischen dem Nutzen Y eines Systems, das mit einem Aufwand X erstellt und betrieben wird und eine theoretische Ausfallwahrscheinlichkeit von einem Fall innerhalb von 10 Jahren aufweist, und einem System gleichen Nutzens, das mit einem Aufwand von 2X erstellt und betrieben wird und eine theoretische Ausfallwahrscheinlichkeit von einem Fall innerhalb von 20 Jahren aufweist, wird immer von der Relation zwischen X und erwartetem Nutzen Y bestimmt werden.

Spätestens wenn in diesem Systemvergleich gilt:  X > Y/2, wird die höhere Ausfallwahrscheinlichkeit in Kauf genommen, weil der mögliche Nutzen des Systems sonst bereits durch den Aufwand für dieses System aufgezehrt sein wird, während dem immer noch nicht ausgeschlossenen Restrisiko keinerlei Nutzen mehr gegenüber steht.

Um das an einem einfachen Beispiel zu verdeutlichen:

Ein Unternehmen produziert in hohen Stückzahlen und weitgehend automatisiert elektronische Geräte. Am Ende des Produktionsprozesses ist ein System der Qualitätskontrolle einzurichten. Die Produktion ist so getaktet, dass für die Maßnahmen der Qualitätskontrolle exakt 30 Sekunden zur Verfügung stehen. Ein vollständiger Test aller Funktionen, beginnend mit dem Anschluss des Gerätes an die Testeinrichtung, der automatisierten Durchführung der Funktionskontrolle und dem Ausdruck des Testergebnisses beansprucht jedoch volle fünf Minuten, also 300 Sekunden.

Die einfachste Lösung bestünde nun darin, den Output der Produktion am Ende über 10 gleichartige Arbeitsplätze der Qualitätskontrolle zu führen, so dass der Produktionstakt von 30 Sekunden nicht gestört  wird. Eine andere Lösung könnte so aussehen, dass nur jedes zehnte Gerät überhaupt die Qualitätskontrolle durchläuft, was mit einem Messplatz realisiert werden kann. Der Unterschied: Entweder es werden Kosten von 2 Millionen Euro oder eben nur Kosten von 200.000 Euro jährlich für die Qualitätskontrolle in Ansatz gebracht.

Bei vollständiger Qualitätskontrolle können die Kosten für die Bearbeitung von Garantiefällen nahezu auf null gesenkt werden, bei stichprobenweiser Qualitätskontrolle ist zumindest sichergestellt, dass ein systematisch auftretender Produktionsfehler erkannt  wird, während zufällig sporadisch auftretende Fehler eher nur zufällig erkannt werden.

Wenn also ausgeschlossen werden kann, dass ganze Chargen der Produkte fehlerhaft ausgeliefert werden, das Risiko einer Lawine von Garantieansprüchen also verhindert werden kann, ist nun nur noch die Frage zu beantworten, ob die Kosten für Garantieleistungen aus zufälllig sporadisch auftretenden Fehlern höher ausfallen können als jene 1,8 Millionen Euro, die sich durch die Stichprobenprüfung einsparen lassen.

Gute Entscheidung. Stichproben. Spart mindestens 1 Million jährlich.

Pech gehabt.

Nach sechs Monaten häufen sich die Garantiefälle. Noch denkt man sich nichts dabei. Kann  bei Stichproben schon mal vorkommen. Als die Garantieleistungen nach dem ersten Jahre Kosten von rund 5 Millionen Euro verursacht haben, verlangt der Controller nach einer Erklärung. Es stellt sich heraus: Der eine, einzige Messplatz der Qualitätskontrolle ist defekt, bestimmte Fehler werden nicht erkannt.

Hätte sich das mit mehr Messplätzen vermeiden lassen?

Vielleicht.

Am Grundproblem ändert sich nichts. Kontrolle kostet. Kontrolle der Kontrolle kostet mehr, und Kontrolle der Kontrolle der Kontrolle führt unweigerlich an quantitative Grenzen.

Dieses Problem ist nicht auf die Wirtschaft begrenzt. Wir finden es ebenso als Phänomen des Überwachungsstaates.

Es wurde nicht an die große Glocke gehängt. Doch das Personen-Identifikations-System Peris, mit dem das Bundesland Sachsen seit 2019 Kraftfahrzeuge und Fußgänger in Echtzeit identifiziert, wird zum Jahresende abgeschaltet. Aus Kostengründen.

Golem, das Fachmagazin für IT-Profis, veröffentlichte am 28. März einen Artikel von Sebastian Grüner, aus dem ich hier nur einen kurzen Absatz zitiere:

„Die Nutzung von Gesichtserkennung insbesondere durch Strafverfolgungsbehörden steht wegen der damit verbundenen Implikationen immer wieder in der Kritik. So kommt es beim Einsatz der Technik häufig zu falschen Beschuldigungen. IBM hat unter anderem deshalb seine Arbeiten an solchen Systemen eingestellt, Microsoft will diese nur nach einer gesetzlichen Regelung einsetzen und Amazon sprach ein Moratorium zur Nutzung durch Strafverfolgungsbehörden aus.“

Auch hier zeichnet sich bereits ein grundsätzliches Systemversagen ab, was durch die Abschaltung von Peris in Sachsen nur bestätigt wird.

Es ist genau an dieser Stelle richtig, auf die wegweisende Erkenntnis des Revolutionsführers Wladimir Iljitsch Lenin zu sprechen zu kommen, dem die Aussage zugeschrieben wird:

„Vertrauen ist gut, Kontrolle ist besser.“

Möglicherweise, und ich ziehe das ernsthaft in Erwägung, ist das gesamte Versagen des Kommunismus auf diese Geisteshaltung zurückzuführen. Eine Geisteshaltung, die überall, wo sie sich durchsetzt, zwangsläufig – früher oder später – zum Systemabsturz führen muss. Denn sie führt in letzter Konsequenz dazu, dass der Kontrollaufwand so lange zwangsläufig wachsen muss, bis der Nutzen des kontrollierten Systems vollständig aufgezehrt ist.

Bedenklich, dass derzeit in Deutschland versucht wird, einen Ausweg aus diesem Dilemma zu finden, indem der Aufwand der Kontrolle dadurch minimiert werden soll, dass die Bürger mit der Einrichtung von Denunziationsportalen, so genannten „Meldestellen“, zur vermeintlich Kosten und Aufwand reduzierenden Selbstkontrolle bewegt werden sollen. Ein katastrophaler Irrweg, weil – wie bei der fehlerhaften Gesichtserkennung – der Aufwand, berechtigte Meldungen von unberechtigten zu unterscheiden, schneller wachsen wird als der Nutzen aus diesem unbedacht ausgeworfenen Schleppnetz.

Während meiner Berufstätigkeit hatte ich Gelegenheit, ein sehr großes Entwicklungsprojekt – Hard + Software – aus nächster Nähe zu begleiten. Es bestand die Absicht, über eine eigene „Sicherheitssoftware“ sämtliche Funktionen von Hard- und Software permanent in Echtzeit zu kontrollieren und ggfs. softwareseitig „Reparaturmaßnahmen“ nach einem eskalierenden Konzept auszulösen, das auf Baugruppenebene beginnen und im schlimmsten Fall das gesamte System herunterfahren und neu starten sollte. Das Ergebnis: Das Gesamtsystem lief ohne diese Sicherheitssoftware einigermaßen störungsfrei, mit Sicherheitssoftware war es kaum am Leben zu halten. Man ist auch hier nicht umhingekommen, erhebliche Abstriche an der angestrebten Perfektion vorzunehmen, um zu einem Optimum zwischen Kontrollnutzen und Kontrollschaden zu gelangen.

Zurück zu Volkswagen.

Der Schadensumfang legt eine zentralistische Netzwerkarchitektur nahe, deren externe Knoten in einem so hohen Maße von Echtzeitinformationen aus dem Zentrum des Netzes abhängig sind, dass ein eigenständiges Aufrechthalten selbst der Grundfunktionen bei Ausfall zentraler Funktionen nicht mehr möglich ist.

Weiterhin liegt die Vermutung nahe, dass die Komplexität dieser zentralen Funktionen so hoch ist, dass die redundante Vorhaltung auf separater Hardware mit permanent gespiegelter Information des aktiven Systems entweder aus Kostengründen oder wegen der Komplexität der technischen Realisierung nicht vorgesehen wurde.

Natürlich hat die Zentralisierung den Vorteil, dass Hard- und Software an der Peripherie vergleichsweise „dumm“ gehalten werden können, was – wie bei jeder Client-Sever-Lösung – erhebliche Einsparpotentiale und einen erheblichen Sicherheitsgewinn verspricht, weil eben alles „gleichgeschaltet“ ist und an der Peripherie kaum noch Fehler gemacht werden können. Die Zentrale kontrolliert eben einfach alles.

Ich komme auf ein weiteres Beispiel aus meinem Berufsleben zu sprechen. Es galt, die neu gestaltete Benutzeroberfläche eines Vertragsverwaltungssystem zu testen. Die Terminals der Sachbearbeiter waren strunzdumm. Das Programm, auf das nach der Freigabe für den Produktiveinsatz alle zugreifen würden, lag auf einem Großrechner. Üblicherweise muss sich der Test von Software heute darauf beschränken, festzustellen, ob sich die Software in allen festgelegten Funktionen exakt so verhält, wie sie es soll. Also bei zulässigen Eingaben die richtigen Ergebnisse liefern und unzulässige Eingaben abweisen. Verlässt man beim Test diesen Bereich der erwarteten Funktionen, sollte sich das System als stabil ignorant erweisen, also einfach nichts tun oder in den vorherigen Zustand zurückfallen. Ich habe also ein paar der unter Programmierern beliebten Tastenkombinationen (Shorcuts) ausprobiert – und prompt blieb der Bildschirm schwarz. Allerdings nicht nur meiner, sondern ein paar hundert weitere und dies für knapp eine Stunde, dann war der Großrechner, den ich abgeschossen hatte, wieder hochgelaufen, und über die Logfiles hatte man sogar mich als Urheber identifiziert. Shit happens.

Bei Volkswagen hat der Hochlauf des Gesamtsystems deutlich länger gedauert, was zweifellos damit zusammenhängt, dass inzwischen doch etliche Jährchen vergangen sind, in denen die Komplexität der IT-Systeme und das darin verwaltete Datenvolumen überall auf der Welt exponentiell zugenommen hat. Was die Mühen, erst den Fehler zu identifizieren und dann das System so wieder herzustellen, wie es kurz vor dem Auftreten des Fehlers bestanden hat, ohne dabei Daten zu verlieren oder zu verfälschen, ebenfalls erheblich wachsen lässt, auch wenn die technischen Möglichkeiten zur Analyse des Systemverhalten inzwischen ebenfalls erheblich verbessert wurden.

Es besteht allerdings noch eine Problematik, nämlich die, dass man zwar herausfinden kann, wo an welcher Stelle des Systems die Quelle des Fehlverhaltens zu verorten ist, dass damit aber nicht zwingend auch der Fehler selbst erkannt wird, und – sollte er erkannt worden sein – dass es ausgesprochen problematisch sein kann, ihn durch eine Programmänderung eliminieren zu wollen. Man muss davon ausgehen, dass die Funktion, aus der sich im unwahrscheinlichen Ausnahmefall der Absturz ergeben hat, unter den Bedingungen des Normalbetriebs, im so genannten „Gutfall“, wichtig, ja unverzichtbar ist. Statt nun im Zweifelsfall Mannjahre von Programmierkapazität damit zu beschäftigen, ein möglicherweise uraltes Programm, dessen Entwickler inzwischen ihren Ruhestand genießen, vollständig zu durchforsten und zu überarbeiten, um den Fehler im nächsten unwahrscheinlichen Ausnahmefall zu vermeiden, wird man es meist darauf ankommen und das Programm unverändert weiterlaufen lassen, in der Annahme, dass der nächste unwahrscheinliche Ausnahmefall während der Restnutzungszeit dieser Software nicht mehr auftreten wird.

Das, was „altkluge“ Politiker mit ihrem blassen Schimmer des an der Oberfläche von Smartphones herumwischenden Laien heute als „Digitalisierung“ rühmen, ähnelt von Jahr zu Jahr immer mehr dem Turmbau zu Babel. Errichtet auf einst für stark und mächtig erachteten Fundamenten, die Stück für Stück mit immer neuen Lasten beaufschlagt werden, von Bauarbeitern, die sich in unterschiedlichsten Programmiersprachen auf unterschiedlichsten Plattformen schon kaum noch untereinander verständigen können und die Dokumente der Altvorderen, die an den Fundamenten arbeiteten, nicht mehr zu lesen im Stande sind, ist ein in den Himmel ragendes Ungetüm entstanden, das sich dem Verständnis der Masse längst entzogen hat und auch von seinen Architekten nicht mehr vollständig beherrscht werden kann. War es anfangs noch möglich, ein komplettes Stockwerk zu überschauen, können die Räume und Wege in den höheren Stockwerken nur noch isoliert beherrscht werden und das Vertrauen in die Statik des Bauwerks auf dem in schwindelnden Höhen weitergebaut wird, scheint unermesslich. In Wahrheit jedoch wird die tragende Struktur gar nicht mehr in Frage gestellt. Es ist ja bisher immer alles gutgegangen.

In praktisch jeder Manifestation physikalischer und geistiger Zusammenballung führen quantitative Veränderungen zwangsläufig zu sprunghaften Veränderungen der Qualität. Schon Paracelsus wusste: „Alle Dinge sind Gift, und nichts ist ohne Gift; allein die Dosis machts, dass ein Ding kein Gift sei.“

Das beginnt beim Pflanzendünger, bei dem ein Zuviel den Boden unfruchtbar machen kann, es hat bei der Aufrüstung der Atommächte dazu geführt, dass der Einsatz der Waffe den eigenen Untergang herbeiführen kann, es ist die Funktion ausufernden schuldenfinanzierten Konsums, dass Kredite nicht mehr verlängert und ausgeweitet, sondern schlagartig fällig gestellt werden, während ein Bogen, der  (zu oft) überspannt wird, irgendwann brechen wird.

Die größte Zusammenballung wertvoller Daten, in Verbindung mit zentral bereitgestellten Anwendungen, die sich derzeit entwickelt und aufbläht, wie eine Cumulonimbus-Wolke beim heraufziehenden Gewitter, wird in verräterischer Analogie sogar „Cloud“, also „Wolke“ genannt.

Der Zugriff vom gewohnten, eigenen Bildschirm aus, vermittelt dabei ein Gefühl der Sicherheit und Zuverlässigkeit, dass durch die Werbung für die Cloud-Dienste noch massiv verstärkt wird. Die Tatsache, dass das „Gold“ des Unternehmens irgendwo auf der Welt in gigantischen Datenbanken liegt, auf die der Zugriff durch nichts anderes als das Versprechen der Betreiber, nur Berechtigte heranzulassen, gesichert erscheint, schreckt selbst unter jenen, die niemals auch nur für eine Minute ihren Pkw an einer belebten Straße offen stehen lassen würden, kaum noch jemanden.

Microsoft versucht seit einiger Zeit mittels eines ziemlich fiesen Tricks, jene Daten, die ich auf meiner eigenen Festplatte speichern will, in die Cloud zu ziehen. Es kostet inzwischen Mühe, ein in Word erstelltes Dokument tatsächlich auf dem eigenen Computer zu speichern, weil Microsoft den Weg auf die eigene Festplatte nämlich nur noch als eigens zu wählende Abzweigung anbietet, während einfach nur „Speichern“ bedeutet, dass die Daten weg, also zwar noch vorhanden, aber eben nicht mehr bei mir und nicht mehr ausschließlich in meinem Zugriff befindlich sind.

Warum macht Microsoft das? Warum stellt man mir und Millionen anderer Nutzer praktisch unbegrenzte Speicherkapazitäten zur Verfügung? Keine noch so europäische Datenschutzverordnung wird Microsoft daran hindern, den Diensten der USA Zugriff auf diese Daten zu gewähren. Kein noch so heiliger Schwur, dies niemals zuzulassen, kann verhindern dass es dennoch geschehen wird.

Es wird meiner Überzeugung nach nicht mehr lange dauern, bis die MS-Programme überhaupt nur noch in der Cloud verfügbar sind. Alles, was sich heute spielerisch mit der KI ausprobieren lässt, findet bereits in der Cloud statt. Das Programm, das ich für Bild und Audio und Videobearbeitung verwende, befindet sich in der Cloud, Einkommensteuer-Hilfsprogramme liegen in der Cloud. DeepL, das mächtige Übersetzungsprogramm, steckt in der Cloud. Streamingdienste für Musik und Videos stecken ebenso in der Cloud wie der E-Book-Verleih. Suchmaschinen, die den Zugang zu dem Wissen der Welt eröffnen und mehr und mehr auch verwehren, sind Teil der Cloud, wie letztlich auch die für den Autofahrer längst unverzichtbaren Navigationsdaten aus dem GPS-Himmel der Satellitennavigation  stammen.

Klaus Schwab hat ja in Teilbereichen bereits recht. Was besitzen wir denn bereits nicht mehr und sind glücklich dabei?

Wer hat den noch eine aktuelle Straßenkarte im Auto?

Wer kauft sich denn noch regelmäßig die Ergänzungsbände zum schrankfüllenden Universallexikon?

Wer kauft noch Tonträger, wer legt sich noch seine Lieblingsfilme selbst in den DVD- oder BlueRay-Player ein? W

er müht sich noch mit Wörterbüchern ab, wenn die eigenen Fremdsprachenkenntnisse nicht ausreichen, um alle Vokabeln und Redewendungen korrekt zu übersetzen?

Wir sind dabei, die Kontrolle über unser Wissen abzugeben und dabei essentielle Fähigkeiten unwiderbringlich zu verlieren, auch weil wir darauf verzichten, ein analoges Backup vorzuhalten. Wozu denn auch? Es geht doch viel besser so!

Ja, das hat man sich in Wolfsburg sicherlich auch gedacht, als man Daten und Funktionen von der Peripherie in die Zentrale geholt hat. Dabei war VW noch in der überaus glücklichen Lage, die Kontrolle nicht aufgegeben, sondern nur im eigenen Imperium, wenn Sie so wollen: „In der Volkswagen-Cloud“, konzentriert zu haben.

Es gibt mehrere Szenarien, die uns dazu bewegen sollten, den Gefahren der „Vercloudung“ ins Auge zu sehen und wenigstens minimalste Vorsorge zu treffen.

  1. Der großflächige, länger anhaltende Stromausfall
  2. Der großflächige, länger anhaltende Netzausfall
  3. Die absichtliche Abschaltung cloudbasierter Dienste

Den Stromausfall provozieren wir Deutschen mit unserer Dekarbonisierungspolitik geradezu. Er betrifft alle Lebensbereiche und verwandelt Land und Leute binnen weniger Tage in ein steinzeitliches Szenario. Der größere Netzausfall ist, auch wenn die Struktur des Internets auf massive Redundanz aufgebaut ist und Totalausfälle vermeiden soll, nicht unmöglich. Bagger und Hacker können da schier Unvorstellbares bewirken, wenn sie nur an den richtigen Stellen ansetzen, und die sind zu finden, so wie auch die Kabelschächte der Bahn zu finden sind, die mit relativ bescheidenen Mitteln (Feuer, Bolzenschneider) in letzter Zeit immer wieder angegriffen werden.

Die größte Gefahr sehe ich allerdings in der absichtlichen Abschaltung cloudbasierter Dienste. Sagen Sie nicht: Das tut doch keiner!

Denken Sie einen Augenblick an die Pipelines in der Ostsee. Die sind nun auch schon seit einem Jahr weg. Physikalisch. Dass sie vorher schon ideologisch vernichtet worden waren, ist kein Trost, sondern eher eine Bestätigung der drohenden Gefahr.

Die Nord-Stream-Geschichte lehrt uns aber noch etwas:

Die Gefahr, die grundsätzlich aus jeder Abhängigkeit erwächst, besteht nicht in der Abhängigkeit alleine, sondern im darüber hinausgehenden Kontrollverlust. Die Abhängigkeit muss nicht von dem ausgenutzt werden, von dem man abhängig ist. Das ist der eigentliche Kontrollverlust.

Wer Deutschland, oder gleich die ganze EU ausschalten will, muss nur den Zugang zu den eigenen und zu den bisher frei nutzbaren fremden Daten und Funktionen unterbrechen. Es ist nicht so, dass nur ein diktatorisches Regime seine Untertanen vom Internet abschneiden, oder nur bestimmte Quellen zugänglich halten kann. Das funktioniert von der anderen Seite der Schnittstelle her ebenso.

Tausende Unternehmen auf einen Schlag von ihren Daten in der Cloud zu trennen, das trifft ja nicht nur diese selbst. Es trifft alle, die mit diesen als Lieferanten und Abnehmer verbunden sind. Das Problem dabei ist, dass es keine Möglichkeit mehr gibt, den  Fehler selbst einzukreisen und zu beheben. Millionen von Autofahrern mit einem gefälschten GPS-Signal in die Irre zu schicken, führt zu einem unentwirrbaren Chaos auf den Straßen. Natürlich könnten Amazon und PayPal ebenfalls abgeschaltet werden. Wäre der deutsche Einzelhandel wohl in der Lage, das damit wegfallende Angebot zu ersetzen? Eher nicht.

Ist das Dilemma, sich zwischen Vertrauen und Kontrolle entscheiden zu müssen, denn gar nicht auflösbar? Ist es egal, wie man sich entscheidet, weil man am Ende immer der Dumme ist?

Ich würde vorschlagen, den Ausweg in Richtung Vertrauen zu suchen.

Warum?

Kontrolle verursacht immer Kosten.

Vertrauen entwickelt sich von selbst und kostet nur dann, wenn es nicht gerechtfertigt war.

Vertrauen kennzeichnet ein gleichberechtigtes, freies und auf Fairness ausgerichtetes Verhältnis im beiderseitigen Interesse.

Kontrolle steht für Rangunterschiede, Unfreiheit/Weisungsgebundenheit und Misstrauen in einem Verhältnis mit unterschiedlichen Interessen.

Kontrolle zerstört Vertrauen.

Der Ansatz sollte also sein, in jeder geschäftlichen, aber auch in jeder privaten Beziehung zuerst einmal herauszufinden, ob die Kriterien für Vertrauen überhaupt gegeben sind, bzw. welche Fakten und Erfahrungen dagegen sprechen. Das beginnt mit dem Abklopfen  der Interessenlage. Wie weit reicht das beiderseitige Interesse, und wo beginnen die individuellen, egoistischen Interessen? Behalten beide Seiten als gleichberechtigte Partner ihre Freiheit, oder wird sich eine Seite der anderen unterordnen müssen? Sind Lasten und Nutzen entsprechend der Leistung fair  verteilt?

Je mehr dieser Kriterien erfüllt sind, desto geringer kann der Kontrollaufwand gehalten werden. Solche Beziehungen sollten gesucht, gepflegt und ausgebaut werden, während unter dem Aspekt des Vertrauens weniger optimal erscheinende Beziehungen nach Möglichkeit reduziert oder ganz abgebrochen werden sollten.

Natürlich gibt es aber auch beim Vertrauen ein Restrisiko. Das besteht vor allem darin, dass sich Menschen und ihre Interessen verändern können. Diesem Restrisiko prophylaktisch mit Kontrollen begegnen zu wollen, ist kontraproduktiv, weil Kontrollen das Vertrauen zerstören.

Die bessere Verhaltensweise besteht darin, den möglichen Schaden durch missbrauchtes Vertrauen nach Art und Umfang abzuschätzen und für den Fall des Eintretens Rücklagen aufzubauen, die ausreichen sollten, existenzgefährdende Probleme abzuwenden, bzw. zu überstehen. Im Idealfall kostet das weniger als der ansonsten anlasslos verursachte Kontrollaufwand.

Wer sich selbst nicht in der Situation sieht, über Vertrauen oder Kontrolle entscheiden zu können, sondern sich nur noch als Objekt der Kontrolle anderer wahrnimmt, der sollte nach Wegen suchen, sich unter möglichst geringem eigenen Schaden aus diesem Verhältnis zu lösen. Das gilt für Ehepartner, das gilt für abhängig Beschäftigte in jeder möglichen Position, das gilt für Unternehmen in Bezug auf dominierende Lieferanten oder dominierende Abnehmer. Es gilt für Mitglieder von Vereinen oder politischen Parteien. Der Nutzen wird in allen Fällen vom Partner bestimmt und die eigene Situation ist eine Situation der Unfreiheit.

Als Bürger eines Staates, der die regulierenden und alle Lebensäußerungen kontrollierenden Eingriffe des Staates als zu weit gehend empfindet, hat man diese Möglichkeit nur eingeschränkt. Dennoch wird sie Jahr für Jahr von vielen Zehntausend Deutschen wahrgenommen, die das Land als Auswanderer  verlassen.

Jenen, die gleich empfinden, sich aber nicht für die Auswanderung entscheiden können, gilt ein abschließender, tröstlicher Satz:

Es ist nicht der Staat, es ist nicht die grundsätzliche staatliche Ordnung, die das Gefühl von Unfreiheit entstehen lassen – es sind nur die Personen, die innerhalb der staatlichen Struktur als handelnde Instanzen auftreten. Auch hier gilt es zu fragen: Ist ein gleichgerichtetes, beiderseitiges Interessen erkennbar? Wie weit werde ich durch diese Personen in meiner Freiheit eingeschränkt, inwieweit werde ich als gleichberechtigter Partner oder gar  als Teil des Souveräns wahrgenommen? Sind Lasten und Nutzen entsprechend der Leistung fair verteilt? Kann ich dieser Regierung also vertrauen?

Falls das nicht der Fall ist, besteht immerhin die Möglichkeit, in den Reihen der Opposition nach vertrauenswürdigeren Personen, bzw. dem kleineren Übel zu suchen und sich diesen zuzuwenden.