Die künstliche Intelligenz, erläutert am Beispiel des Ameisenlöwen

PaD 16 /2023 – Hier auch als PDF verfügbar: Pad 16 2023 KI und Ameisenlöwe

Der Ameisenlöwe lebt unsichtbar unter dem Trichter, den er selbst in sandiger Erde anlegt. Wer noch nie von seiner Existenz gehört hat, möge sich bei NABU in seine Lebensweise einführen lassen.

Ich genieße den Vorzug, seit ich in Elsendorf lebe, auf immer dem gleichen, winzigen Flecken des Grundstücks alle Jahre dreißig bis vierzig Ameisenlöwentrichter beobachten zu können.  

Der Ameisenlöwe hat sich den Ort, an dem er lebt, nicht selbst ausgesucht. Er wurde – als Ei – von seiner „Mutter“ an einem Sommerabend, zwischen Einbruch der Dunkelheit und Mitternacht dort in die Erde gelegt. Nach dem Schlüpfen lebt er zwei Jahre als Larve und vollzieht dabei zwei Häutungen, wobei er eine Körperlänge von bis zu 17 Millimeter erreichen kann.

Das libellenartige, räuberische Insekt, das diese Eier ablegt, lebt nach dem Schlüpfen aus dem Puppenkokon, den sich die Larve gesponnen hat, ungefähr zwei Monate. Es ist nachtaktiv und verbirgt sich tagsüber an Grashalmen, mit denen seine langgestreckte Figur optisch zu verschmelzen scheint. Nachts jagt es, wie Libellen, nach Insekten, überwältigt auch kleinere Schmetterlinge und wartet quasi darauf, dass paarungsbereite Männchen spezielle Duftstoffe ausstoßen von denen sich die Weibchen anlocken lassen, um sich in einem Paarungsflug – unter Bildung des ebenfalls von den Libellen bekannten Paarungsrades – befruchten zu lassen.

Das ist in komprimierter Form der komplette Lebenszyklus von Ameisenjungfer und Ameisenlöwe.

Wollte man das komplette System in einem Software-Modell nachbilden, also ohne eine physikalische Entsprechung als Hardware zur Verfügung zu stellen, bestünde dies aus zwei isolierten Modulen, je eines für das Ei-plus-Larvenstadium und für das Puppen-plus-Insektenstadium.

Jedem dieser Module ist eine Erfahrungsdatenbank, ein Satz von Sensoren und ein Satz motorischer Fähigkeiten Form komplexer, standardisierter, vorprogrammierter Bewegungsabläufen, zuzuordnen.

Die intelligente Reaktion des Software-Modells soll nun darin bestehen, die von der Sensorik gelieferten Informationen durch Abgleich mit der Erfahrungsdatenbank in situationsgerecht sinnvolle und zweckmäßige Bewegungsabläufe umzusetzen und dies am Bildschirm in Echtzeit-Simulation zu visualisieren.

Welche Sensorik braucht die Larve?

  1. 3-D Lagekontrollsystem für die Position des eigenen Körpers im Raum
  2. Vibrations- bzw. Geräuschdetektion mit Richtungs-, Entfernungs- und Intensitäts-Feststellung
  3. Drucksensoren am Körper
  4. Drucksensoren an den Kieferzangen
  5. Hämoglobinsensoren an den Kieferzangen
  6. Strömungssensoren an den Tracheen
  7. Temperatursensoren
  8. Blutzuckersensoren
  9. Helligkeitssensoren

Im Ruhezustand sollten die von den Sensoren gelieferten Wert so aussehen:

  1. Lauerlage, Kieferzangen über dem Trichtergrund, Hinterleib tiefer, Beine vorne und unten, Rücken hinten und oben
  2. Keine Vibrationsquellen erkannt
  3. Körper vollständig von Sand bedeckt
  4. Kieferzangen drucklos
  5. Hämoglobinsensoren inaktiv
  6. Atemluft strömt ungehindert
  7. Temperatur im angenehmen Bereich
  8. Zuckersättigung hoch bis ausreichend
  9. Helligkeitssensoren konstante Lichtstärke

Der Abgleich mit der Datenbank ergibt für diese Konstellation: Keine Aktion erforderlich.

 

Der Ameisenlöwe hat seine Datenbank, die ihm sagt, was zu tun ist, ererbt von seinen Vätern und Müttern. Es ist die bestmögliche Erinnerung an das Verhalten aller seiner Vorfahren, weil nur diejenigen, die stets alles richtig gemacht haben, auch überlebt haben und sich fortpflanzen konnten.

Fehleinschätzungen, auch Kopierfehler bei der Übertragung von Datenbankinhalten auf die nächste Generation, werden unbarmherzig aus dem kollektiven Erfahrungsschatz getilgt, wenn der Fehler sich als tödlich oder fortpflanzungsschädlich erwiesen hat.

Der Ameisenlöwe baut immer auf dem aktuellsten Stand der Überlebensstrategien seiner Art auf, die aus dem vollständigen Satz sinnvoller Reaktionen auf alle bisher vorgekommenen Konstellationen von Sensorik-Meldungen hervorgegangen sind. Die Erfahrungsdatenbank des Ameisenlöwen bildet folglich alle für ihn relevanten Aspekte seiner Umwelt vollständig ab. 

Solange keine grundsätzlichen Veränderungen seiner Umwelt eintreten, kommt er damit optimal zurecht.

Er erkennt das Nahen der hungrigen Amsel an den kurzen Vibrationswellen, die ihre trippelnden Füße nahe des Trichters auslösen, und spätestens wenn ihr Schatten seinen Helligkeitssensor irritiert, tritt er die Flucht an, indem er sich schleunigst tiefer eingräbt und der Amsel dabei vielleicht auch noch eine Schaufel Sand ins Gesicht wirft.

Es ist ein von keinem Nachdenken gebremstes, unverzüglich wirksames Reiz-Reaktions-Schema, dass dem Ameisenlöwen die besten Überlebenschancen in dieser Situation verschafft.

Das kann mit Hilfe künstlicher Intelligenz nachgebaut werden. Man muss dazu auch nicht Millionen von Ameisenlöwen in allen denkbaren Situationen beobachten, um die KI lernen zu lassen. Es würde im Zweifelsfall sogar einer genügen, den man mit unterschiedlichsten Ereignissen konfrontiert, weil sich letztlich alle Exemplare des gleichen genetischen Erbes bedienen und vollkommen gleichartig reagieren. Für die Ameisenjungfer, die Endstufe der Metamorphose müsste ein etwas komplexeres Modell geschaffen werden, das aber ebenso auf gesicherten ererbten Informationen und Programmen beruht, also ebenfalls ein einfaches Reiz-Reaktions-Schema darstellt.

 

Damit sind aber auch die Grenzen der KI aufgezeigt.

Wiederkehrende Muster zu erkennen, als erste Lernstufe der KI, und dafür wiederverwendbare Aktionen zu entwickeln, als zweite Lernstufe, ist einfach, so lange die zu berücksichtigenden Parameter überschaubar bleiben.

Die diagnostische Auswertung von Bildern aus dem Körperinneren, egal mit welcher Methode sie gewonnen wurden, gehört zu den typischen einfachen Aufgaben für die KI. Es geht letztlich nur darum Helligkeitsunterschiede und Strukturen zu erkennen und mit den erlernten Bildern abzugleichen. Daher kann  gerade in den Graubereichen eine Verbesserung der Trefferquote gegenüber dem einzelnen Arzt erreicht werden, dessen Vorerfahrung sich auf ein sehr viel kleineres Set von ihm bekannten „Beispielbildern“ abstützen muss.

Die Erzeugung von Bildern auf verbale Anforderungen hin ist ebenfalls keine Hexerei. Die Werkzeugkästen für die grafische Gestaltung, von der fein ziselierten Bleistiftzeichnung bis zum fetten Impasto in Öl oder Akryl sind seit langen Jahren in den Grafikanwendungen vorhanden. Nur der Pinsel musste noch von Hand per Maus geführt werden. Aber auch Konturen-Erkennung und Freistellungswerkzeuge, Beleuchtungseffekte usw. sind längst in Gebrauch.

Nun hat man die KI mit Bildern von tausenden von Künstlern, aber auch mit Fotografien und Skizzen gefüttert und diese „verschlagwortet“. Die KI findet so von den Stichworten wieder zum Bildmaterial und darüber hinaus zu den stilistischen Besonderheiten der bekannten Künstler.

Aus den Bildanforderungen: „Ein Leuchtturm auf der Zugspitze im Stil von Salvadore Dali“ werden die Grundmuster der Elemente (Gebirge; Leuchtturm) in zufallsabhängige räumliche Beziehung zueinander gesetzt und dann tatsächlich mit dem Stil und den Farben Dalis kombiniert und zur Anzeige gebracht. Vielleicht findet sich klein im Hintergrund auch noch eine brennende Giraffe …

Dieses Ergebnis erinnert allerdings eher nicht an Dali.

Die KI konnte das gleiche Bild aber recht gut im Stil von Gauguin erzeugen.

Wenn es schief geht, steht der Leuchtturm dann auch nicht im Gebirge, sondern vorne auf einer Lokomotive, ist halt auch eine Zugspitze …

Das ist viel weniger schwierig als es anmuten mag. Die Schwierigkeit liegt nur darin, die Software zu immer höherer Präzision und Detailgenauigkeit zu entwickeln, was nicht nur Rechenzeit kostet, sondern auch eine extreme Ausweitung der gespeicherten „Muster“ und des Sprachverständnisses erforderlich macht.

 

Auch autonome Waffensysteme, gleichgültig ob land-, see- oder luftgestützt, unterscheiden sich vom Grundprinzip her vom Softwaremodell des Ameisenlöwen nicht. Sie sind, nachdem der Kampfauftrag erteilt wurde, reine Reiz-Reaktions-Maschinen, die auf das vorgegebene Ziel hinarbeiten.

Von der menschlichen Intelligenz unterscheiden sie sich vor allem dadurch, dass ihnen Angst und Panik ebenso fremd sind, wie wildes Draufgängertum, dass sie auch gegenüber dem bestens gedrillten Soldaten sehr viel kürzere Reaktionszeiten aufweisen und stark erweiterte Multitasking-Fähigkeiten. Last, but not least aber auch dadurch, dass die Auswahl an Handlungsalternativen, wo solche vorgesehen sind, festgelegt und begrenzt ist. Der manchmal alles entscheidende Geistesblitz bleibt bei der Maschine ebenso aus wie die Schreckstarre.

Im autonomen Waffensystem steckt allerding auch noch ein Paradoxon, dass erst dann erkennbar wird, wenn die Mehrzahl der Kombattanten auf dem Schlachtfeld solche autonomen Systeme sein werden, die sich gnadenlos so lange gegenseitige auslöschen, bis nur noch ein Kampfroboter übrig ist.

Das bedeutet nämlich, dass die Menschen, die meinten, ihren Krieg an Maschinen outsourcen zu können, sich die Schädel doch wieder gegenseitig mit der Keule einschlagen müssen, um ans Ziel zu gelangen, was auch immer das Ziel sein mag.

 

Aber zurück zum Thema.

Aller KI, nicht nur der Diagnose-Software, der Bilder-Kreations-Software und der Software der autonomen Waffensysteme haftet glücklicherweise ein gemeinsamer Makel an:

Sie alle sind sich dessen, was sie sind und was sie tun nicht bewusst. Alles ist nur ein blindes Spiel fluktuierender elektromagnetischer Impulse in hochkomplexen Schaltkreisen. Sinnvoll zu entschlüsseln nur durch den Menschen, der diese Systeme und die Ein- Ausgabegeräte geschaffen hat, die seine Schnittstelle zum System bilden.

Wenn ich an meinem PC zur Entspannung das Schachprogramm aufrufe, bin ich derjenige, der sich freut, wenn mir ein guter Zug gelungen ist, und der sich ärgert, wenn ich dem Programm in die Falle gelaufen bin. Mein PC weiß davon nichts, er weiß nicht einmal, dass ich nachsehen kann, ob er wegen der ihm abgeforderten Rechenleistung ins Schwitzen gerät, also ob die Temperatur auf dem Mainboard nach mehr Kühlung verlangt. Er empfindet dabei nichts. Die Sensoren steuern den Ventilator, und wenn das nicht ausreicht, kann es sein, dass sich die ganze Kiste vorsichtshalber ausschaltet, aber nichts in diesem PC weiß davon etwas.

Ein erheblicher Teil der Angst vor der KI mag daher stammen, dass wir von Anfang an unsere Rechner wie persönliche Gegenüber angenommen und ihnen – mehr schlechte als gute – menschliche Eigenschaften und dabei einen subtil ausgedrückten Willen angedichtet haben.

Das verschleiert aber nur das eigentliche Problem, das tatsächlich zu größter Vorsicht gemahnt.

  1. Fehlerfreie Software gibt es nicht. Die gröbsten Programmierfehler können zwar beim Testen gefunden werden, doch es ist kaum mehr möglich, ein komplexes Programmpaket jemals in allen erdenklichen Konstellationen auszutesten.
  2. Hardware kann unter Umständen bei der Auslieferung fehlerfrei sein, obwohl unwahrscheinlich ist, dass alle Hardware zu 100% fehlerfrei ist. Hardware unterliegt zudem einem Alterungsprozess. Teils können Ausfälle automatisch erkannt und geheilt werden, zum Beispiel, indem defekte Speicherbereiche markiert und von der Nutzung ausgeschlossen werden, aber es kann eben nicht jeder denkbare Defekt erkannt werden, solange er nicht offensichtliche Ausfallerscheinungen auslöst. Hier ein drastisches Beispiel.
  3. Hardware und Software können manipuliert werden. Eine gegen Angriffe vollkommen sichere IT-Umgebung lässt sich zwar theoretisch herstellen, indem man sie strikt von der Außenwelt isoliert, praktisch sind IT-Systeme ohne Anschluss an externe Datennetze aber kaum mehr sinnvoll zu betreiben.
  4. Die Auswahl der Trainings-Materialien der KI unterliegt menschlichem Einfluss. Dies kann sowohl gezielt eingesetzt werden als auch unabsichtlich geschehen, mit dem Effekt, dass selbst korrekt programmierte Algorithmen unerkannt (!) zu fehlerhaften Ergebnissen gelangen.

Daraus folgt:

Alle KI Systeme können außer Kontrolle geraten und ohne jegliches eigene Schmerzempfinden und Schuldbewusstsein innerhalb des Systems, in dem sie eingesetzt werden, Schäden jeder möglichen Größenordnung verursachen.

Sicherheitsrelevante KI-Systeme, wozu die Systeme, welche Bilder im Stile Dalis erzeugen, nicht zählen, müssen durch geeignete, möglichst analoge Kontrollsysteme überwacht werden, um zuverlässig zu verhindern, dass sie die zulässige Bandbreite ihrer Aktionen überschreiten. Als letzte Entscheidungsinstanz muss der Mensch eintreten können.

Bei der Diagnose-Software, die aus digitalen Bildern einen Nierenkrebs diagnostiziert, muss der Chirurg, bevor er zum Skalpell greift, die Bilder und den zugehörigen Patienten selbst begutachten. Das hört sich einfach an, ist es im Grunde auch, doch die Gewöhnung an fehlerfreie Diagnosen könnte hier zur Unaufmerksamkeit verleiten.

Betrachten wir ein anderes Szenario:

Unser aller europäisches Strom-Verbundnetz.

Von Portugal bis nach Polen und in die Türkei besteht ein großes, zusammenhängendes Stromnetz, das vor dem Siegeszug der Erneuerbaren Energien auf der Erzeugerseite aus einer bekannten Anzahl leistungsfähiger Kraftwerke gespeist wurde, während eine unüberschaubare Anzahl von  Abnehmern die Last erzeugten, deren Bereitstellung durch das Drosseln oder Hochfahren von Kraftwerken mit relativ einfachen Mitteln und Prozeduren sichergestellt werden konnte.

Das ist inzwischen sehr viel anders. Hier der Link zu einer eher noch beschwichtigenden Seite, die in die Geheimnisse des „Redispatch“ einführt, also alle Maßnahmen aufzeigt, die ergriffen werden müssen, wenn das Netz aus unterschiedlichen  Gründen zu kollabieren droht.

https://www.energie-experten.org/erneuerbare-energien/oekostrom/stromnetz/redispatch

Mit der Einführung so genannter „intelligenter“ Stromzähler (SmartMeter) eröffnet sich ein Fenster für eine weitaus genauere, bis auf einzelne Verbraucher wirksame Steuerung der Stromflüsse mit erheblich verkürzten Reaktionszeiten.

Die stark anschwellenden Datenmengen, die dann verfügbar sein werden, können von den Menschen in den Schaltwarten nicht mehr erfasst und interpretiert werden. Es braucht starke Rechner und mächtige Programme, deren Zusammenspiel sicherlich ebenfalls als künstliche Intelligenz bezeichnet werden wird, um aus dem Datenwust die relevanten Muster herauszufiltern und die optimalen Schaltvorgänge auszulösen.

Im Gut-Fall wird uns diese künstliche Intelligenz vor dem großen Black-Out schützen, indem sie begrenzte Stromabschaltungen veranlasst.

Der Mensch kann dem nicht mehr folgen. Er kann nur die Folgen an den Messinstrumenten ablesen, gleichzeitig wird seine Fähigkeit, selbst steuernd einzugreifen, massiv beschränkt. Er weiß ja nicht, was die KI in dem Augenblick tut, indem er selbst einen Schalter umlegt. Das kann zum gewünschten Ergebnis führen, es kann eine problematische Situation aber auch eskalieren lassen. Natürlich kann man dafür Lösungen finden. Man kann der KI einen beabsichtigten personellen Eingriff ankündigen, bevor er ausgeführt wird, man kann aber auch der KI gestatten, in kritischen Situationen – und sei es nur für Millisekunden – personelle Eingriffe zu unterbinden. Alles machbar, erhöht nur die Komplexität.

Da es sich beim Stromnetz um ein höchst sicherheitsrelevantes System handelt, wird man versuchen müssen, permanent die Funktionsfähigkeit aller Hardware-Komponenten zu überprüfen und diese in weiten Teilen redundant vorzuhalten, um die Systemstabilität auch bei Ausfällen von Einzelkomponenten wahren zu können. Alles machbar, erhöht nur die Komplexität.

… und dann kommt es auf die Strategie an, mit Störungen umzugehen. Der Fehler muss ja nicht auf der Baugruppe liegen, die ausgefallen ist. Es kann ebenso sein, dass der Input, welcher der Baugruppe an ihren Steckplatz im Rack geliefert wird, einen Fehler aus einem ganz anderen Teil des Systems dort hat wirksam werden lassen, der mit einer gewissen statistischen Wahrscheinlichkeit auch die redundante Baugruppe zerschießen kann, die kurz vorher die Funktion übernommen hat. Folglich muss die Gesamtarchitektur darauf ausgerichtet werden, „kranke“ Teile des Systems zu isolieren und möglichst zu heilen.  Alles machbar, erhöht nur die Komplexität – und damit wiederum die Zahl der potentiellen Fehlerquellen.

Die Experten beginnen inzwischen mit Erzählungen darüber, dass eine Waschmaschine, die an das SmartMeter angeschlossen ist und von dort aus- und eingeschaltet werden kann, schon ausreichen würde, um einem Hacker die Chance zu eröffnen, um sich in die IT des Stromnetzes einzuschleichen. Eine Vorstellung, bei der einem schon mulmig werden kann, zumal es quasi ein Naturgesetz ist, dass das, was möglich ist, auch geschehen wird.

Fragt man sich dann, wer diese hochkomplexe Technik braucht, dann findet sich als Antwort einzig „die Energiewende“. Es geht nur darum, den Mangel im Netz optimal zu verteilen, die Schwankungen in der Stromerzeugung zu kompensieren und darum, den Strom in ein neues Tarifkonzept zu pressen, das ungefähr so aussehen könnte:

Tarif Verfügbarkeit
tgl. von – bis
Max. Amp.
(technisch abgeregelt)
Preis kWh Extra-Strom
(außerhalb der Tarifzeit)
Basis 05:00 – 06:30
11:30 –  12:30
23:00 –03:00
 

3,0

 

0,49 Euro

2,55 €/kWh
Extended 05:00 –  09:00
11:00 –  15:00
19:00 –  03:00
6,0 0,89 Euro 2,55 €/kWh
De Luxe 00:00 –  24:00 16,0 2,55 Euro

 

Denn nur damit lässt sich die angebotsorientierte Strom-Mangelwirtschaft bei 100% Ökostrom und 70% Wärmepumpenheizung und 60% E-Mobilität – wenn überhaupt – noch  aufrecht erhalten.

Sie können sich schon jetzt bei den Grünen bedanken, oder damit warten, bis Ihnen das Wasser bis zum Hals steht.

 

Es gilt noch das Thema „Arbeitsplatzverluste durch KI“ anzusprechen.

Es soll ja bereits Unternehmen geben, die bei Neueinstellungen die Vorauswahl unter den Bewerbern der KI überlassen. Das ist zwar ziemlich unpersönlich, dürfte sich aber kaum negativer auswirken, als die Vorauswahl einem darauf spezialisierten Dienstleister zu überlassen. Jemand muss die Vorauswahl treffen, und wenn die KI gut ist, ist das gut für das Unternehmen und die Beschäftigten. Ist die KI nicht so gut, ist das gut für die Konkurrenzunternehmen und deren Beschäftigte.

Die Problematik fängt erst da an, wo es mehrheitlich nicht darum geht, neues Personal einzustellen, sondern durch die KI ersetzte Mitarbeiter zu entlassen.

Daran führt kein Weg mehr vorbei.

Mechanisierung, Automatisierung, Rationalisierung sind seit dem Aufkommen der ersten Maschinenwebstühle aus dieser Welt nicht mehr wegzudenken. Ein Unternehmer, der sich nicht bemüht, jede Chance zu ergreifen, seine Kosten zu senken, wird früher oder später gegenüber dem Wettbewerb zurückfallen und den Gang zum Insolvenzgericht antreten müssen.

Dabei ist es heute noch gar nicht absehbar, in welche Bereiche und Berufsbilder die KI in den nächsten Jahren noch eindringen wird. Klar ist lediglich, dass sie sich sowohl in den Büros als auch in den Fertigungshallen unaufhaltsam breit machen und dabei weiter perfektionieren wird.

Es wird weiterhin Fachkräftemangel geben, doch ein Großteil des Heeres der heute noch als Fachkräfte Bezeichneten und Umworbenen, wird von einem Tag auf den anderen den Stempel „Geringqualifiziert“ auf der Stirn tragen und zum Bürgergeldempfang schreiten müssen.

Das läuft auf eine Situation hinaus, in der immer weniger Menschen benötigt werden, um die ständig schrumpfende Menge an Waren zu erzeugen, die sich die Abgehängten noch leisten können. Die KI, die die Jobs übernommen und die Lohnkosten eingespart hat, konsumiert ja nicht.

Die einzige Lösung, die der Kapitalismus für diese Entwicklung anbietet, ist die Bevölkerungsreduktion durch Armut, Hunger, Krankheit.

Ich habe ChatGPT die folgende Frage gestellt:

Die weitere Entwicklung der KI wird weltweit sehr viele Arbeitsplätze kosten. Welche sozialen Spannungen sind zu erwarten und wie können sie aufgelöst werden?

Und diese Antwort erhalten:

Es ist wahr, dass die weitere Entwicklung der KI wahrscheinlich zu einem Verlust von Arbeitsplätzen führen wird, insbesondere in bestimmten Sektoren wie der Produktion, dem Transportwesen und der Verwaltung. Dies kann zu sozialen Spannungen führen, da Arbeitslosigkeit und Unterbeschäftigung die wirtschaftliche Stabilität und den sozialen Zusammenhalt gefährden können.

Um diesen Herausforderungen zu begegnen, müssen Regierungen, Unternehmen und die Gesellschaft als Ganzes gemeinsam handeln. Hier sind einige Vorschläge:

  1. Umschulung und Weiterbildung: Eine Möglichkeit, Arbeitsplätze zu erhalten und neue Arbeitsplätze zu schaffen, besteht darin, die Arbeitnehmer für neue Technologien zu schulen und weiterzubilden. Die Regierungen können Bildungsprogramme und Zuschüsse für die Umschulung und Weiterbildung bereitstellen.
  2. Sozialleistungen: Die Regierungen müssen sicherstellen, dass die Menschen, die ihren Arbeitsplatz verlieren, finanzielle Unterstützung und Zugang zu Gesundheitsversorgung erhalten, bis sie einen neuen Arbeitsplatz finden.
  3. Universelles Grundeinkommen: Ein universelles Grundeinkommen kann eine Lösung sein, die sicherstellt, dass jeder eine bestimmte Mindestsumme an Einkommen hat, unabhängig davon, ob er arbeitet oder nicht. Dies könnte helfen, die Einkommensungleichheit zu verringern und den sozialen Frieden zu erhalten.
  4. Verstärkte Regulierung: Die Regierungen sollten eine verstärkte Regulierung einführen, um sicherzustellen, dass die KI-Technologien nicht zu unkontrollierten Veränderungen am Arbeitsmarkt führen. Unternehmen sollten möglicherweise Steuern zahlen, die zur Finanzierung der Umschulung und anderer Maßnahmen verwendet werden können.
  5. Dialog und Zusammenarbeit: Schließlich müssen Regierungen, Unternehmen und die Gesellschaft als Ganzes in einen Dialog treten und zusammenarbeiten, um die sozialen Spannungen zu vermeiden. Der Dialog kann helfen, gemeinsame Ziele zu finden und Lösungen zu finden, die für alle Beteiligten akzeptabel sind.

Diese Maßnahmen können dazu beitragen, die sozialen Spannungen zu lösen, die durch die Entwicklung der KI entstehen können. Es ist jedoch wichtig zu beachten, dass die Lösung dieser Herausforderungen Zeit und eine kontinuierliche Anpassung der Strategien erfordern wird, um sicherzustellen, dass sie wirksam sind.

Diese Antwort von ChatGPT ist insofern zutiefst befriedigend, als sie zeigt, dass auch ChatGPT nur die gleichen, wohlfeilen Spruchblasen anzubieten hat, wie sie in den Talkshows schon zum x-ten Male heruntergebetet wurden, ohne dass die Notwendigkeit gesehen wird, einen konkreten Weg zur Umsetzung zu beschreiben und seine Gangbarkeit nachzuweisen.

Noch kann also davon ausgegangen werden, dass ChatGPT allenfalls geeignet ist, unsere Politiker und einige Journalisten zu ersetzen, ohne dass sich daraus wegen mangelnder Sachkompetenz zwangsläufig negative Folgen für das Land ergeben müssten.

Schließlich wurde ChatGPT offensichtlich mit deren Aussagen trainiert.

 

 

Damit schließt sich der Kreis. Denn die Ähnlichkeit der KI mit dem Software-Modell eines Ameisenlöwen ist nicht zu leugnen. Beide greifen auf einen qualitativ und quantitativ begrenzten Erfahrungsschatz zurück, der das Feld ihrer Reaktionsmöglichkeiten bereits absteckt, bevor die Algorithmen überhaupt definiert sind.

Dass das Verhalten des Ameisenlöwen erstaunlich intelligent wirkt, wenn er auf das in den Trichter geworfene Papierkügelchen überhaupt nicht reagiert, wohl aber beginnt, die Ameise, die versucht, wieder aus dem Trichter zu entkommen, mit Sand zu bewerfen, um sie weiter ins Rutschen zu bringen, liegt nur daran, dass wir uns nicht klarmachen, dass er lediglich Vibrationsreize mit den Vibrationsmustern seiner Beutetiere vergleicht – und wenn er da einen Treffer hat, sein Jagdprogramm ausführt. Ohne Treffer bleibt er einfach im Ruhezustand.

Das autonome Waffensystem ist übrigens baugleich. Werden die Signaturen gegnerischer Waffen erkannt, wird das Gefechtsprogramm aktiviert. Sonst nicht.