18. Juni 2024

Künstliche Intelligenz, umnebelt von Halluzinationen

Künstliche Intelligenz erweist sich als Spiegel menschlicher Potentiale – Halluzinationen inklusive

Ich weiß nicht viel über Künstliche Intelligenz (KI), aber ich bin ein interessierter Beobachter und nutze die neuen Tools vor allem im Bereich der Bildbearbeitung.

Als ich sie vor einiger Zeit erstmals ausprobierte und die KI beispielsweise neue oder erweiterte Hintergründe für Fotos errechnen und Bilder optimieren ließ (ein Beispiel für solche Arbeiten ist das Titelbild für meine Richard-Wagner-Seite), haben mich die Ergebnisse wirklich überrascht.

Bis dahin hatte ich angenommen, dass kreative Leistungen etwas typisch Menschliches seien, das von Maschinen niemals ersetzt werden könne. 

Doch was die KI-Werkzeuge präsentieren, umfasst tatsächlich vieles von dem, was Texter oder Grafiker als „Kreativleistung“ in Rechnung stellen könnten. 

Muss der Begriff „Kreativität“ also neu, genauer definiert werden? 

Oder können programmierte Maschinen grundsätzlich zu gleichen Ergebnissen gelangen wie die menschliche Kreativität – nur eben auf einem anderem Weg, der Intuition und spontane Gedanken durch Informationsvolumen und Rechenleistung ersetzt?

Nachdem in verschiedensten Anwendungsbereichen Erfahrungen mit Künstlicher Intelligenz gesammelt wurden, wird nun verstärkt ein Problem diskutiert, das illusorische Träume über das Potential von KI beenden könnte: Künstliche Intelligenzen „halluzinieren“ nämlich gerne. Das heißt,  vereinfacht gesagt, sie können sachlich falsche Ergebnissen präsentieren, die also durch die Trainingsdaten nicht gerechtfertigt erscheinen.

Auch wenn sich beispielsweise ein KI-generierter Text sprachlich noch so überzeugend liest – er kann inhaltlich unrichtig sein. Unwahrheiten und falsche Schlussfolgerungen lassen sich offenbar nicht vermeiden oder korrigieren. Und vermutlich sind sie grundsätzlich ebenso so wenig auszuschließen wie menschliches Versagen. Vielleicht ist das ja auch selbstverständlich, denn letztlich widerspiegelt das „Künstliche“ der technischen Intelligenz ja doch nur die gute (oder nicht so gute) alte menschliche Intelligenz.

Der österreichische Philosoph Konrad Paul Liessmann kam in einem „Essay“ für die „Kleine Zeitung“ (4. Mai 2024, „Die Wahrheit über uns selbst“) zu einem bemerkenswerten Schluss: „Beim derzeitigen Stand der Dinge gibt es nur ein Feld, in dem man die KI reinen Gewissens verwenden kann: die Kunst. Dort ist es nicht weiter schlimm, wenn fantasiert wird, denn fingierte Welten sind deren Existenz- und Rechtfertigungsgrund.“

Ob es jemals einen grundlegend anderen „Stand der Dinge“ geben wird, der es ermöglicht, systembedingte KI-Halluzinationen zu vermeiden, Unrichtiges programmtechnisch zu korrigieren und absolut auszuschließen, steht (nicht) in den Sternen. Einiges spricht dafür, dass dies eine Utopie bleiben wird und die KI in allen qualitativen Belangen die Grenzen des Menschlichen nicht überschreiten kann.

Und doch werden KI-gesteuerte Maschinen in einem internationalen Großexperiment längst lustig und munter auf die schlecht vorbereitete Menschheit losgelassen. 

Dass es der unwerte Kunde im Fall einer Beschwerde oder Service-Anfrage in Online-Chats mit großen Unternehmen immer öfter mit unbemannten Rechnern zu tun hat, die abgesehen von Beschwichtigungsfloskeln wenig zu bieten haben und sich bei jedem außerhalb der Norm liegenden Problem rasch als Künstliche Unintelligenz outen, ist eine lästige, aber zumindest eher ungefährliche Entwicklung.

Was aber, wenn KI-bestückte Waffensysteme, die eigenständig über ihre Einsatzziele entscheiden, zu halluzinieren beginnen?

Oder, um ein Beispiel aus der Alltagstechnik aufzugreifen: Was, wenn das autonom fahrende Auto im entscheidenden Moment doch einen fatalen Fehler macht? 

Firmen wie Google oder Tesla investieren einen großen Teil ihres Entwicklungskapitals in KI-Systeme. Diese sollen dem Menschen in bestimmten Bereichen letztlich klar überlegen, treu zu Diensten und, sofern die Feldversuche eine solche Hoffnung rechtfertigen, auch sicher sein.

Wir werden sehen. Was mir die KI der Bildbearbeitungs-Software „Adobe Photoshop 2024“ mit den Stichworten „Künstliche Intelligenz und autonomes Fahren“ heute auf einen leeren Hintergrund gezaubert hat (siehe Titelfoto zu diesem Beitrag), sieht jedenfalls mehr nach Karambolage aus.

Momentan scheint nur gewiss, dass die natürliche Intelligenz, die sich selbst Vernunft und Weisheit zuschreibt und Homo sapiens nennt, mit der künstlichen Intelligenz einen Spiegel ihrer eigenen Potentiale entwickelt, in dem sie staunend sich selbst betrachtet.

Vielleicht ein wenig umnebelt von Machbarkeits-Halluzinationen.