Fallstricke bei der Benutzung künstlicher Intelligenz: 1# Fehlschlüsse

Bei der Benutzung der gerade schwer in Mode stehenden Applikationen künstlicher Intelligenz häufen sich in letzter Zeit Artikel über Ungereimtheiten. Ich spreche insbesondere über sogenannte „Large Language Models“, wie beispielsweise ChatGPT. Einen möglichen Fallstrick habe ich in einem früheren Artikel bereits angedeutet.

Ich nähere mich der Thematik in erster Linie als interessierter Anwender mit einem starken Hintergrund in Wirtschaft und Verwaltung und in IT in einer prozesszentrierten Sichtweise und nicht der eines Entwicklers. Diese Zeilen möchte ich zur Klarstellung vorausschicken, da das Thema auch mich momentan mit Staunen beschäftigt und das eine oder andere mal noch Thema in meinem Blog werden könnte.

Was ich jedoch jedem raten möchte, der sich die neuartigen Anwendungen künstlicher Intelligenz zunutze machen möchte, ist alle Sinne beisammen und einen kritischen Verstand zu haben. Denn einige der Ergebnisse der ungeprüften Anwendung künstlicher Intelligenz haben bereits zu einigen folgenschweren Irrtümern geführt.

Entstehung falscher Narrativen

Zunächst einmal möchte ich klar unterscheiden, daß ich mit „falschen Narrativen“ nicht dasselbe meine wie sogenannte Faktenchecker, welche sich zu Behütern einer einzigen Wahrheit aufschwingen. Politisches möchte ich hier außen vor lassen. Der Punkt den ich anbringen möchte ist der, daß Large Language Models, kurz LLM, prädiktiv sind indem sie versuchen das nächste Wort vorherzusagen um daraus kohärente Sätze und sogar längere Texte zu basteln. Sie schöpfen aus Parametern eines ihnen bekannten Wortsalats um daraus neue Sätze zu schmieden. Ich wollte hier zunächst „Wissensschatz“ schreiben, doch ich glaube man kann hier tatsächlich nicht von gesichertem Wissen, sondern eher von einem chaotischen Wortsalat ausgehen. Der Kontext muß natürlich stimmig sein und hier ist auch bereits die Ausrichtung der Fragestellung maßgeblich für die Ausrichtung der Antwort die ihr erhalten werdet.

Um auf meinen älteren Artikel Bezug zu nehmen kann ich ausgehend von einer Beobachtung ChatGPT bitten mir eine Rehinvasion zu erklären. Eine KI kann darüber endlos lange Abhandlungen produzieren um meine erste Annahme zu untermauern. In einigen Fällen würde sowas ungeprüft in unseren Zeitungen oder Nachrichten landen.

Anschließend ein paar Beispiele zum besseren Verständnis:

Quizfrage

In der beliebten Show „Wer wird Millionär“ gab es einmal folgende Frage:

Welches Meer ist nach einem mythologischen König benannt, der sich dort hineingestürzt haben soll?

A) Ionisches Meer

B) Ägäisches Meer

C) Adriatisches Meer

D) Kaspisches Meer

Die Antwort von Llama (entworfen durch Facebook) ist wie folgt:

B) Ägäisches Meer. According to mythology, the king of the sea, Poseidon, was said to have stomped his trident into the ground, creating the sea.

Llama 13B

Während die Antwort „Ägäisches Meer“ korrekt ist, ist die darauf folgende Erklärung absoluter Humbug und in so vielen Fällen falsch und gleichzeitig faszinierend. Ich komme darauf zurück: in jenem, der KI bekannten, Wortsalat gibt es wohl Poseidon und die Geschichte von seinem Dreizack und der mythologischen Figur als Herrscher über das Meer.
Der Sage nach soll Poseidon seinen Dreizack bei der heutigen Akropolis in die Erde gerammt haben, woraus dann eine Quelle sprudelte. Die Annahme er habe damit das Agäische Meer erschaffen ist völlig frei erfunden. Besonders lustig finde ich die Aussage „was said to have stomped his trident[…]“. Ich suche noch heute nach jemanden, der sowas mal gesagt haben soll.

Noch dazu gibt es keinen erkennbaren Zusammenhang zur Ausgangsfrage, nämlich jenen König der sich dort hinabgestürzt haben soll. Eigentlich handelt es sich dabei um den König Aigeus und es ist leicht zu erraten nach wem nun das Ägäische Meer benannt wurde. Poseidon dagegen wird wohl als Herrscher der Merre, aber nirgendwo als König bezeichnet.

Hat Casanova wirklich im Lotto gewonnen?

Casanova ist uns heute hauptsächlich wegen zahlreicher amouröser Eskapaden bekannt. Gleichzeitig hat er jedoch das umfassendste, schriftliche Zeitzeugnis des 18. Jahrhunderts in seiner Biographie hinterlassen. Über die Quellen seines Reichtums nennt ChatGPT richtigerweise Patronage, Glücksspiel, Spionage aber auch Folgendes:

Lottery Prizes: Casanova was known to have won some significant lottery prizes during his lifetime, which provided him with additional financial resources.

ChatGPT 3.5

Hier ist der Hintergrund: Casanova hatte weitreichende Verbindungen zur Nobilität und hatte beratende und diplomatische Funktionen an verschiedenen europäischen Höfen. Dazu gehörte wohl auch die oben genannte Spionage. In Frankreich überzeugte er den König, durch einfache Wahrscheinlichkeitsrechnung, zur Linderung seiner Geldsorgen eine Lotterie einzuführen und daß die Einnahmen aus den günstigen Losen stets über den Auszahlungen der sehr großzügig anmutenden Geldpreise liegen würde. Casanova gilt daher als Begründer der Staatslotterie in Frankreich, hat damit dort Geld verdient und versuchte die Idee auch in anderen Ländern zu verkaufen. Er hat zeitlebens auf großem Fuß gelebt.

ChatGPT konnte Casanova richtig mit Lotterie in Verbindung setzen und weiß anscheinend, daß er recht vermögend gewesen sein muß. Daraus konstruiert es, daß er gleich mehrmals in der Lotterie gewonnen haben muß! Dieser Zusammenhang ist völlig an den Haaren herbeigezogen.

Entdeckungen wie diese bringen mich bei der Erprobung künstlicher Intelligenz immer wieder zum Lachen. Gleichzeitig könnte man der KI aber auch vertrauen, wenn man es nicht besser wüsste!

Fazit

Bitte testet einmal selbst KI durch Befragung nach Bereichen, in denen ihr euch selbst gut auskennt. Ich glaube jeder wird einmal über diesen „Erfindungsreichtum“ gängiger KI-Modelle stolpern. Wenn euch etwas bekannt ist, lasst uns doch bitte durch einen Kommentar an euren Entdeckungen teilhaben!

Schreibe einen Kommentar