KI als Beweis – die Fehlschluss-Pandemie

Argumentum ad auctoritatem.

Ein rhetorischer Trick, der insbesondere Laien gegenüber durchschlagende Wirkung entfaltet, geht so: Man legt einer anerkannten Autorität, ob nun Marx, Einstein, Baerbock oder Dutschke, ein ( gerne auch frei erfundenes) Zitat in den Mund, und der Laie muss kapitulieren.  Er  kennt das nicht, doch weil er dem Fehlschluss unterliegt, dass Zitate aus großem Munde „die Wahrheit“ sein müssten und sich zudem auch auf die konkret vorliegende Situation anwenden ließen, ist ihm die Luft aus den Segeln genommen.

Nun stelle ich immer häufiger mit einer Mischung aus Heiterkeit und Entsetzen fest, dass immer mehr vernunftbegabte Menschen sich dazu hinreißen lassen, die Künstliche Intelligenz ihres Vertrauens zur Autorität zu erheben und sich, um ihren eigenen Gedanken Nachdruck zu verleihen, auf Aussagen zu berufen, die eine KI auf eine von ihnen formulierte Frage hin ausgespuckt hat.

Macht das wirklich stolz und glücklich, eine Frage an eine KI zu stellen und dann von deren Antwort in seiner Auffassung bestätigt zu werden? Muss das dann auch noch in die Welt hinausposant werden, nach dem Motto: „Grok denkt genauso wie ich“, oder, „ChatGPT hält meine Frage für sehr tiefgründig und hat genau das geantwortet, was ich hören wollte. Hier ist der Beweis! Lest selbst!“

Ich finde das nur noch peinlich.

Die KI ist nicht dazu da, eigene, originelle Gedanken zu entwickeln. Die KI ist nicht dazu da, irgendeine Wahrheit zu verkünden. Bestenfalls schafft sie es, aus dem Sack der ihr zugänglichen Informationen das auszuwählen, was zur Frage passt. Das heißt nicht, dass die KI auf der Höhe der Zeit ist. Das heißt nicht, dass die KI Zugang zu allen relevanten Informationen hat. Das heißt nicht, dass die KI Informationen selbst bewertet – sie übernimmt ggfs. Bewertungen aus ihrem Fundus. Das heißt nicht, dass sie alles  in die Antwort packt, was sie an relevanten Informationen hat, teils um die Antwort nicht ausufern zu lassen, teils weil die Programmierer bestimmte Vorgaben gemacht haben, was in den Antworten nicht zum Ausdruck gebracht werden soll.

Letztlich sind die Antworten der KI immer das Ergebnis von mindestens zwei Manipulationsschritten. Schritt eins zur Manipulation ist die Auswahl der Trainingsmaterialien, Schritt zwei sind die der KI per Programm auferlegten Beschränkungen.

Wo der Mensch noch Verbote durchbrechen oder sich in Gefahr begeben kann, wegen Meinungsdelikten belangt zu werden, wird es der KI nie gelingen, mit dem Paragraphen 188 StGB in Konflikt zu geraten, wenn die Programmierer entsprechende Kontrollen oder Leitplanken vorgesehen haben.

Wenn ich dann noch ganze Gesprächsverläufe lesen soll, bei denen es sich angeblich um eine intelligente Diskussion zwischen natürlicher und künstlicher Intellligenz handelt, graust es mich. Ich will nicht wissen, was herauskommt, wenn man versucht, die KI durch langes, penetrantes Nachfragen zur wahren Lehre zu bekehren. Die KI geht schließlich, ohne je genervt zu erscheinen, einfach auf alles ein, was man einwirft. Die Antwort, mit ja und aber, mit einerseits und andererseits, wird schon dazu führen, sich am Ende bestätigt fühlen zu dürfen.

Dagegen ist ein Schachcomputer ein Ausbund an Seriosität und Konsequenz. Der spielt auf der jeweiligen Stufe stets so gut er kann und spielt sich gnadenlos zum Sieg, er erkennt aber auch, wann er verloren hat.

Ein weiteres neumodisches Übel

Was mir noch übel aufstößt, ist diese neue Sorte von Youtubern, die sich ein gutes Original-Video vornehmen, ob den Auftritt eines Kabarettisten oder die Rede eines Bundestagsabgeordneten, um dann zu titeln: „Monika Gruber schlägt alles“, oder, „Bekannter CDU-Politiker demaskiert die AfD“. Was dann kommt, sind 30 Sekunden mit oder ohne sprechend bewegtem, teils grimmasierenden, teils unbewegt bleibendem Youtuber-Gesicht, mit der Ankündigung des Größten überhaupt je Gesehenen. Dann eine halbe Minute vom Original, dann eine Minute mit der Erklärung dessen, was gerade gezeigt wurde, und eine weitere Minute mit der Ankündigung des Ungeheuerlichen, was nun gleich kommen wird. Dem folgt eine Minute aus dem Original – und so schleppt sich das hin, mehrmals unterbrochen von Werbung für Autos, Abführmittel und Abenteuerurlaub, sowie der penetranten Aufforderung, die Glocke anzuklicken und den Kanal zu abonnieren.

Auch die holen sich die Autorität eines Prominenten, um Klicks zu sammeln, während sie selbst ihre Kommentare dazu stammeln.

Muss das wirklich sein?

Es gibt sowieso schon viel zu viele Videos. Dabei werden Videos, in denen wichtige Informationen vermittelt oder interessante Ansichten angeboten werden, auch immer noch mehr. Für mich gilt: Was in 10 Minuten Video übermittelt wird, hätte ich mit gleichem Gewinn innerhalb von ein bis zwei Minuten gelesen. Es kommt mir inzwischen so vor, als würden Videos hauptsächlich gedreht und online gestellt, um die Zeit der Rezipienten zu binden, also zu verhindern, dass daneben noch vieles andere aufgenommen werden kann. Zumal ja die visuelle Aufbereitung in der Regel keinen informationellen Mehrwert bietet. Ich brauche das Gesicht nicht zu sehen, die Stimme nicht zu hören. Mir genügen schriftlich fixierte Gedanken vollkommen. Und eine Grafik kann man auch in einen Text einbinden. Da habe ich dann auch Zeit, mir die Abbildung in Ruhe anzusehen. Im Video ist sie meistens wieder weg, bevor man sie vollständig erfassen kann. (Ich weiß: Man kann ein Video auch anhalten.)

Meine eigenen Experimente mit kurzen Videos habe ich wieder aufgegeben. Die Zeit, die es mich kostet, ein 15-Minuten Video vorzubereiten, aufzunehmen, zu schneiden und online zu stellen, steht in keinem Verhältnis zu dem, was dann an Information tatsächlich rüberkommt.

 

Entschuldigen Sie, dass ich Sie als Psycho-Mülleimer missbraucht habe.

Aber das musste einfach raus.