Habt auch Ihr schon mal ChatGPT zu Rat gezogen und dann verwundert festgestellt, dass die Antwort gar nicht stimmt? Wir verraten Euch, wie das passieren kann, warum das beim richtigen Umgang gar nicht so schlimm ist und wie ChatGPT unter der Haube funktioniert. 

Neulich beim Plausch mit ChatGPT… Um das Potenzial der KI für die gemeinsame Arbeit mit unseren Kund:innen zu testen, haben wir den Bot einen typischen Use-Case (natürlich mit fiktiven Daten) schreiben lassen. In gewohnt beeindruckender Geschwindigkeit spuckte ChatGPT einen vollständigen Anwendungsfall mit allen relevanten Informationen für unseren fiktiven Use-Case aus. Beim zweiten Blick stellten wir dann Folgendes fest: Unter all den zutreffenden Infos versteckte GPT eine Excel-Schnittstelle, die gar nicht existiert – Die KI hat „halluziniert“.  

Vielleicht ist das den ein oder anderen von Euch im Umgang mit ChatGPT auch schon mal passiert und vielleicht fragt auch Ihr Euch auch, wie das sein kann. Wie kann ein vermeintlich so intelligentes System menschliche Unterhaltungen führen und auf fast alles eine Antwort parat haben und dann im nächsten Moment halluzinieren?  

Um das zu verstehen, werfen wir einen Blick hinter die Fassade und fragen: Wie funktioniert ChatGPT eigentlich? 

Das von OpenAI entwickelte ChatGPT der Generation GPT-3 (Generative Pre-trained Transformer 3) wurde so programmiert, dass es selbst Texte generieren kann. Darin unterscheidet sich dieses KI-Modell von vielen anderen und verleiht ihm die beinahe menschlichen Züge. Die Funktionsweise verläuft jedoch ganz KI-typisch.  

So versteht ChatGPT, wie auch alle anderen KI‘s, natürlich keine Sprache, sondern lediglich Token. Das können Wörter, Satzzeichen oder eine Buchstabenabfolge sein, die wiederrum vom System in Codes umgewandelt werden. Diese Codes verarbeitet die KI in einer riesigen Datenbank unzähliger miteinander verknüpfter Token. Die Daten stammen aus Büchern, Wikipedia-Artikeln und sonstigen Internet-Quellen. 

„Gestern hat die Sonne geschienen“ oder: Nächst wahrscheinlichstes Wort hier einfügen 

Was dann passiert, ist reine Wahrscheinlichkeitsrechnung. Auf Grundlage unserer Eingabe, die das System als Token verarbeitet, errechnet die KI, welches Wort am wahrscheinlichsten als nächstes folgt. Geben wir zum Beispiel den Satz „Gestern hat die Sonne“ als Eingabe ein, wird die Verarbeitung der Token aufgrund der bereits vorhandenen Token in der Datenbank dazu führen, dass GPT für den Token „geschienen“ die höchste Wahrscheinlichkeit errechnet.  

Dieses sogenannte „neuronale Netz“ wird immer größer. Reagieren wir auf die Ausgabe der KI, merkt sie sich unsere zuvor eingegebenen Token und bezieht sie in die jeweils aktuelle Antwort mit ein. Dabei verarbeitet die KI unseren Satz nicht nur als zusammenhangslose Abfolge an Token, sondern sie errechnet aufgrund ihrer gefütterten Datenbank, wie relevant jedes Wort im Satz für die aktuelle Abfrage ist – sie „versteht“ also unseren Satz in seinem Kontext. So erhöht sich die Wahrscheinlichkeit, dass die ausgegebene Antwort der KI zu unserer Eingabe passt. Unser Beispielsatz „Gestern hat die Sonne“ liefert der KI neben dem Input „Sonne“ die Info, dass das nächste Wort am wahrscheinlichsten in der Vergangenheitsform stehen wird. So entsteht bei uns das fast schon mulmige Gefühl, dass die KI uns tatsächlich versteht.  

Da, wo mit Wahrscheinlichkeiten gearbeitet wird, können aber natürlich auch Fehler auftreten – besonders dann, wenn unsere Eingabe komplexer als in unserem sonnigen Beispiel oben ist. Das liegt daran, dass die KI natürlich weder uns noch unsere Intention wirklich versteht, sondern nur unsere Eingabe als Kombination verschiedener Token. Womöglich hat sie die Abfolge der Token falsch verarbeitet, eine fehlerhafte Verknüpfung hergestellt oder ist einem Fehler im neuronalen Netz der Datenbank auf den Leim gegangen.  

Was können wir tun? 

Trotz aller Halluzination: Als leidenschaftliche IT-Spezialist:innen sind wir überzeugt vom Potenzial der KI. Mit der richtigen Nutzung kann sie Arbeitsabläufe vereinfachen, Lösungsansätze bieten und zu einer höheren Produktivität in unserem Leben beitragen. „Richtige Nutzung“ bedeutet unter anderem aber auch, sich über die Begrenztheit einer KI wie ChatGPT bewusst zu sein und Daten ggf. nach Richtigkeit zu checken. Sich bewusst zu machen, dass es sich dabei nicht um ein superschlaues Überwesen handelt, das auf jede Frage die korrekte Antwort parat hat – sondern um eine programmierte Software, die zwar irren kann, aber auch das Zeug zum Innovationstreiber hat.  

Euch beschäftigt das Thema AI in Eurem Unternehmen auch? Ihr seid noch unsicher, wohin die Reise geht, habt Bedenken oder Ideen und könntet einen leidenschaftlichen Sparring-Partner und Ratgeber an Eurer Seite gebrauchen? Dann ruft uns an, schreibt uns unverbindlich per Mail oder über unser Kontaktformular! Wir freuen uns auf den Austausch mit Euch! 

*Wir bei Lorenzsoft denken IT und gesellschaftliche Verantwortung zusammen. Denn genutztes IT-Know-How hat die echte Chance, einen Unterschied zu machen. Daher beschäftigen wir uns rund um den IT-Kosmos auch mit Themen wie zum Beispiel Healthcare oder Female Leadership. Wenn Euch diese Themen interessieren, laden wir Euch herzlich ein, Euch in unseren Newsletter einzutragen und monatlich Tipps, Tricks oder News zu ausgewählten Themen zu erhalten. 

Über den Autor