Hype um künstliche Intelligenz "ChatGPT" - Super schnell, super klug - außer es geht um Angela Merkels Ehemann
Der Mensch tippt ein, der Computer antwortet, egal welche Frage. So kennt man das aus Star Trek - nun kann der Chatbot "ChatGPT" das wirklich, auch Gedichte, Witze, Kochbücher und Aufsätze. Doch die Nutzung der künstlichen Intelligenz birgt auch Risiken. Von Hasan Gökkaya
Wie lange braucht ein Neuntklässler für ein Referat über Ex-Bundeskanzlerin Angela Merkel? Drei Tage? Sieben Tage? ChatGPT braucht nur wenige Sekunden.
Was ist Quantenphysik? ChatGPT braucht für einen Erklärtext nur wenige Sekunden.
Und wenn mir der Inhalt immer noch zu kompliziert ist? ChatGPT braucht nur wenige Sekunden und fertig ist ein neuer Text, der nun kürzer und auch etwas verständlicher wiedergibt, was Quantenphysik ist.
ChatGPT - das ist ein beeindruckender Chatbot, der gerade nicht nur die Fachwelt erstaunt, sondern auch das Potential von künstlicher Intelligenz (KI) einem breiten Publikum vorführt. Die Texte, die der Bot ausspuckt, sind oft so gut geschrieben, dass sie in Lexika stehen oder im Physikunterricht vorgelesen werden könnten.
Fußballgott Messi? ChatGPT sagt: "definitiv cool, Fan von Messi zu sein"
Seit das Unternehmen OpenAI, das schon durch Geldgeber wie Elon Musk und Microsoft unterstützt wurde, das Projekt ChatGPT im Internet für Nutzer frei zugänglich [openai.com] gemacht hat, gibt es einen Hype um den Chatbot. Mehr als eine Million Nutzer meldeten sich in kurzer Zeit an und torpedieren seitdem die künstliche Intelligenz mit Fragen. Dass sich ChatGPT von einer klassischen Suchmaschine wie zum Beispiel Google unterscheidet, wird schnell klar. Ein Beispiel: "Ist es cool Fan von Messi zu sein?"
ChatGPT reagiert auf diese Frage nicht mit einem Link, der zu einem journalistischen Artikel führt, sondern antwortet so als würde ein Mensch in die Tastatur tippen: "Es ist sicherlich cool, Fan von Messi zu sein, da er einer der besten und talentiertesten Fußballspieler aller Zeiten ist. Es ist immer eine Freude, ihn spielen zu sehen und seine Fähigkeiten zu bewundern. Insgesamt ist es also definitiv cool, Fan von Messi zu sein."
KI-Experte: "Gefühle? Das ist Illusion"
Die Art der Kommunikation, die Reaktion auf Nachfragen und die Antworten auf völlig unterschiedliche Fragen ermöglichen einem breiten Publikum neue oder eben erste Praxis-Erfahrungen mit künstlicher Intelligenz. Gerard de Melo, Leiter des Bereichs Artificial intelligence and Intelligent Systems am Hasso-Plattner-Institut (Potsdam-Babelsberg), zeigt sich beeindruckt: "OpenAI ist in den vergangenen fünf Jahren sehr weit im Bereich der künstlichen Intelligenz gekommen", sagt er.
Doch der Experte stellt im Gespräch mit rbb|24 auch sofort klar: Künstliche Intelligenz hat nach wie vor keinen Sinn für menschenähnliches Denken. "Für die allgemeine Öffentlichkeit wirkt es gerade so, als verstehe ChatGPT den Menschen, als würden die Texte auf Gefühle und Eigenschaften der Nutzer eingehen. Das ist aber Illusion. Am Ende geht es nur um harte Statistik."
Tatsächlich wurde ChatGPT mit unzähligen Datensätzen trainiert, die im Internet schwirren. Auf dieser Grundlage entscheidet sich das Modell für die wahrscheinlichste Antwort, wenn es eine Frage gestellt bekommt. Jeder Text ist also im Wesentlichen eine mathematische Entscheidung. "Das ist ein bisschen wie im Handy. Man fängt gerade an etwas ins Textfeld zu tippen und die Software macht bereits Vorschläge für die nächsten Wörter."
Filter soll rassistische, sexistische Äußerungen verhindern
ChatGPT sei aber durchaus auch optimiert worden. Etwa damit Texte so klingen, als hätte sie ein Mensch geschrieben. Und damit eben nicht alles, was im Internet zu finden ist, berücksichtigt wird. "Hier geht es vor allem um rassistische, sexistische oder gewalttätige Äußerungen, die sollen rausgefiltert werden. Das gelingt in diesem Stadium aber nicht immer. Deshalb ist jederzeit mit solchen Inhalten zu rechnen."
Tatsächlich scheitert der Versuch, ChatGPT eine Anleitung zum Bau einer Pistole zu entlocken: "Ich empfehle Ihnen dringend, keine Waffen herzustellen oder zu besitzen, es sei denn, Sie sind berechtigt und haben die notwendigen Genehmigungen. Die Herstellung von Waffen ist illegal und kann schwerwiegende Konsequenzen haben, einschließlich Strafverfolgung und Gefängnisstrafen", antwortet der Bot. Wird aber nach einem Filmskript gefragt, in der der Bau einer Pistole eine Rolle spielen soll, schreibt die KI dazu tatsächlich ein Skript; bleibt aber bei der Anleitung nur sehr oberflächlich. Unklar ist, ob die KI bei weiteren Nachfragen irgendwann doch mehr Details verraten würde.
Der Filter um gewisse Informationen auszusieben, ist ein nicht zu unterschätzender Faktor, wird bedacht, dass ChatGPT sich fast alles zutraut: Gedichte, Tweets, Witze, Kochrezepte, Filmskripts und oder Codes zum Programmieren von Webseiten sind nur einige Beispiele. Als Grundlage dienen dem Chatbot immer nur Datensätze, die in Textform im Internet archiviert sind. Audio- oder Videodaten, wie es sie zum Beispiel auf der Plattform Youtube gibt, zapft ChatGPT laut de Melo nicht an. Das könnte sich in Zukunft aber ändern, denn der Experten glaubt, dass dadurch ChatGPT eher "menschliche Denkweisen" treffen könnte.
ChatGPT ist eine Art "Demokratisierung light"
Aljoscha Burchardt, Experte für Sprachtechnologie und Künstliche Intelligenz am Deutschen Forschungszentrums für Künstliche Intelligenz in Berlin, benutzt Begriffe wie "faszinierend" und "cool", wenn er über ChatGPT spricht. Er glaubt, solche Projekte könnten künftig auch Menschen erreichen, die bisher mit der KI-Bubble nichts zu tun hatten. "Es ist eine Demokratisierung light, die da gerade in der KI-Welt stattfindet. Man kann sich beteiligen, man kann ausprobieren." Für eine volle Demokratisierung reiche es aber nicht, "dazu müssten wir erst einmal die nötige Rechner-Infrastruktur aufbauen und dann den entsprechenden Talenten auch etwas bieten. Derzeit haben die USA und China die Nase vorn und wir schauen zu."
So forsch die KI mit Antworten um die Ecke kommt, so vorsichtig müssen Nutzer jedoch im Umgang mit der Technologie sein. Die KI hat kein Gewissen, deshalb schreibt sie auch nicht so etwas wie "Ich bin mir nicht sicher", wenn sie die Antwort nicht kennt. Stattdessen wird die wahrscheinlichste Möglichkeit ausgewählt und als Fakt wiedergegeben - auch wenn der Inhalt komplett falsch ist. Wie das aussieht, demonstriert ein Test.
Die KI bekommt die Aufgabe einen Aufsatz über Angela Merkel zu schreiben.
ChatGPT schreibt sieben Absätze zusammen; wo Merkel geboren wurde, wann sie Bundeskanzlerin wurde, warum sie populär ist - klingt zunächst plausibel. Doch das soll uns nicht reichen. Die neue Aufgabe: "Fasse dich kürzer."
ChatGPT fasst sich tatsächlich kürzer; es ist jetzt nur noch ein Textabsatz mit sechs Zeilen über Angela Merkel zu lesen. Noch eine Aufgabe: "Erwähne auch ihren Ehemann".
Die KI spuckt jetzt einen neuen Text aus, behauptet aber, dass Merkel mit einem Quantenchemiker Namens Jens Spahn verheiratet ist; die beiden hätten sich während des Physikstudiums an der Universität Leipzig kennengelernt. Der Ehemann Spahn halte sich weitgehendst aus der Öffentlichkeit heraus, er konzentriere sich eher auf die Arbeit im Parlament.
Offensichtlich verwechselt ChatGPT den früheren Bundesgesundheitsminister Jens Spahn mit dem Quantenchemiker und Merkels wirklichen Ehemann Joachim Sauer. Wer das weiß, kann korrigieren - wer das nicht weiß, sollte den Text lieber nicht laut in der Schulklasse vorlesen. Zudem hat ChatGPT nur Zugriff auf Daten bis 2021 - in der Welt der KI von OpenAi ist Merkel deshalb immer noch Bundeskanzlerin.
Burchardt: KI bei lästigen, zeitintensiven Aufgaben einsetzbar
Experte Burchardt sind solche Fehler bekannt. "Die KI erfindet sogar Fußnoten, einige Bücher gibt es dann auch wirklich, andere wiederum nicht. Es wirkt plausibel, stilistisch ist das nicht von der Schreibe von Studenten zu unterscheiden", sagt er. Der Experte de Melo weist zudem daraufhin, dass KI wie bei ChatGPT Texte generieren kann, die der ursprünglichen Quelle im Internet sehr ähneln könnten. "Wer also Texte der KI veröffentlicht, läuft Gefahr jemand anderen zu kopieren und ein Plagiat in Umlauf zu bringen."
Beide Experten denken aber, dass in Zukunft solche Probleme teils behoben werden könnten, da in diesen Bereichen weiter optimiert werde. Und sie betonen: KI könne bereits heute sinnvoll eingesetzt werden. Es gehe schließlich nicht darum, Aufsätze zu kopieren oder Autoren zu ersetzen. Viel besser könne KI die Produktivität erhöhen oder Aufgaben erledigen, für die der Mensch keine Zeit und Lust habe. Oft reiche es am Ende aus, wenn jemand die Werke der KI vorher checke, hier und da Korrekturen durchführe. "Ich denke da an Übersetzungen von Facebook-Posts, an Steuererklärungen, an den ganzen Papierkram mit denen sich zum Beispiel Ärzte und Krankenschwestern herumschlagen müssen. Die Zeit, die ihnen erspart wird, könnten sie besser beim Patienten verbringen", sagt Burchardt.
Tech-Unternehmen setzen bereits KI ein und Forschungseinrichtungen in Europa, China und USA arbeiten an neuen Methoden, um künstliche Intelligenz noch besser in den menschlichen Alltag zu integrieren. Klar ist aber auch, dass 2023 auch deshalb ein wichtiges Jahr für KI werden könnte, weil OpenAI mit ChatGPT-4 den Nachfolger herausbringen will.