Wie intelligent ist Künstliche Intelligenz?
Künstliche Intelligenz war lange Zeit nur ein Nischenthema, für das sich allenfalls Computer-Experten interessiert haben. Mit der Veröffentlichung von ChatGPT im November 2022 hat sich das schlagartig geändert: Die Medien werden nicht müde darüber zu berichten. Doch ist Künstliche Intelligenz wirklich intelligent?
ChatGPT spaltet die Gemüter. Während die einen voller Lobeshymnen sind ob der Leistungen dieser neuen Technik, werden die anderen nicht müde, auf die Fehler dieser Künstlichen Intelligenz und deren möglichen Gefahren hinzuweisen.
So definiert sich ChatGPT selbst: „ChatGPT ist ein kommerzielles KI-Produkt von OpenAI, das im November 2022 vorgestellt wurde und auf dem GPT-3.5-Modell basiert. Es ist über eine API verfügbar und kann von Drittanbietern in deren Produkte integriert werden. Es kann aber auch direkt über die OpenAI-Website erreicht werden, für die man sich kostenlos anmelden kann.“
Eine Definition zu geben ist sicher keine große Herausforderung für das KI-Produkt, dennoch verblüfft immer wieder, wie mühelos hier mehrere Sätze hintereinander in korrekter Sprache ausgegeben werden. Wie ist das möglich?
Durchbruch mit der Transformer-Technologie
Künstliche Intelligenz in ihrer heute vorliegenden Form basiert auf der Transformer-Technologie, die 2017 bei Google entwickelt bzw. veröffentlicht wurde. Ein Transformer ist ein maschinelles Lernmodell, das es möglich macht, natürliche Sprache zu verarbeiten (Natural Language Processing). Der entscheidende Durchbruch, der den Forschern bei Google gelang, liegt darin, dass hier nicht nur Wörter in Zahlen „übersetzt“ werden (um sie maschinenlesbar zu machen), sondern auch die Abstände der Wörter untereinander in jedem einzelnen Satz.
Aus diesen Abständen der Wörter untereinander lässt sich ganz grob vereinfacht in der Folge berechnen, mit welcher Wahrscheinlichkeit ein bestimmtes Wort auf ein anderes oder mehrere andere Wörter folgen wird. Die Künstliche Intelligenz bildet also Sätze dadurch, dass sie Wortfolgen generiert, die auf Wahrscheinlichkeiten basieren. Am möglichen Satzende wird ein spezieller Stop-Token aktiv, der dem Modell klar macht, dass ein Satz zu Ende ist bzw. dass es aufhören soll, weitere Wortfolgen zu bilden.
Damit wird klar, dass hier keine Intelligenz im menschlichen Sinn am Werk ist: Die maschinelle Künstliche Intelligenz „versteht“ Texte nicht wie wir Menschen. Sie verfügt auch nicht über ein Modell der Wirklichkeit, d. h. sie weiß nicht, wie es auf der Erde aussieht. Deshalb kommen so kuriose Fehler zustande wie die Antwort auf die Frage, wer der schnellste Läufer über den Ärmelkanal ist: ChatGPT gibt hier tatsächlich Namen aus (die allesamt erfunden sind) und merkt nicht, dass man über den Ärmelkanal gar nicht zu Fuß gehen kann! Hier fehlt es an einfachster Logik, das Modell erkennt die Fangfrage nicht als solche.
Fehlende Logik und die Rechenschwäche
Zudem neigen ChatGPT und ähnliche Modelle (wie etwa GPT-3, ebenfalls von OpenIA) dazu, fehlendes Faktenwissen einfach zu erfinden. Experten reden dann von Halluzination. Das stellt ein erhebliches Problem dar, denn Künstliche Intelligenz sollte eigentlich wahrheitsgemäß antworten und nicht einfach Antworten erfinden. Als Anwender muss man deshalb aufpassen, insbesondere wenn man sich auf einem bestimmten Wissensgebiet selbst nicht besonders gut auskennt.
Eine weitere Problematik dieser Modelle ist ihre Rechenschwäche. Sie beherrschen die Mathematik nicht, weil sie als Sprachmodelle allein auf Sprache trainiert wurden und ihnen so ein quantitativ ausgelegtes Rechenmodell fehlt. Doch einem Sprachmodell kann man nicht so ohne Weiteres die Funktion eines Taschenrechners hinzu programmieren: Was dem Laien als einfache Lösung erscheint, ist für Experten eine harte Nuss!
Lässt sich künftigen Versionen von Künstlicher Intelligenz die Neigung zu diesen offensichtlichen Schwächen abtrainieren? Die Experten sind sich hier nicht einig. Während sich die Väter von ChatGPT natürlich optimistisch geben, macht etwa Douglas R. Hofstadter geltend, dass der Big-Data-Ansatz der heutigen Modelle irgendwann ins Leere laufen wird, weil sich nicht unendlich viel Lernmaterial für diese Systeme finden lässt. Schon heute sind die benötigten Datenmengen so groß, dass weite Teile des Internets bereits „abgegrast“ sind. Verbesserungen lassen sich deshalb kaum mehr über den reinen Input an Daten, sondern eher über Veränderungen am Modell selbst erzielen.
In diesem Sinne darf man gespannt sein: Im Jahr 2023 wollen sowohl Microsoft, als auch Google und Facebook mit neuen Produkten auf der Basis von Künstlicher Intelligenz aufwarten. Ob diese zuverlässiger sein werden als ChatGPT ist dabei eine der spannendsten Fragen.
Tesla als warnendes Beispiel
Im schlimmsten Fall droht dem gesamten Ansatz ein Szenario, wie es bei Fahrzeugen von Tesla seit Jahren der Fall ist: 2016 bereits hatte Elon Musk das autonome Fahren angekündigt und das entsprechende Extra seinen Tesla-Kunden zum Kauf angeboten. Doch bis heute ist der Ansatz nicht realisiert, die Software von Tesla ist zwar gut, aber eben nicht gut genug für wirklich autonomes Fahren. Elon Musk soll die Öffentlichkeit im Jahr 2016 sogar bewusst getäuscht haben.
Auch bei den Sprachmodellen der Künstlichen Intelligenz lief in der Vergangenheit nicht alles rund: Microsoft musste 2016 einen Chat-Bot wieder zurückziehen, weil dieser kurz nach seiner Veröffentlichung mit rassistischen Äußerungen für Schlagzeilen sorgte. Facebook stellte im Jahr 2022 das Sprachmodell Galactica vor, nur um es kurze Zeit später wieder zurückzuziehen: Das auf wissenschaftliche Texte trainierte Modell fiel durch falsche und sogar gefährliche Aussagen auf. Im gleichen Jahr stellte das Unternehmen den sog. Blender-Bot vor, der bis heute nur von den USA aus zugänglich ist. Ein Selbstläufer wie ChatGPT wurde daraus nicht. Auf die durchaus wechselvolle Geschichte, welche die IBM mit ihrem Modell „Watson“ erleben musste, soll hier nicht näher eingegangen werden.
Ein letztes Problem: So schön der Erfolg von ChatGPT auch sein mag, er führt dazu, dass das Web mit Bullshit-Texten „vermüllt“ wird. Die SEO-Branche (Suchmaschinenoptimierung) hat sehr schnell erkannt, dass sie mit der Hilfe dieser Technik sehr viel leichter und müheloser als bisher Texte produzieren und im Web veröffentlichen kann. Unternehmen aus dem (amerikanischen) Mediensektor haben ebenfalls bereits Texte von Künstlicher Intelligenz schreiben lassen und anschließend veröffentlicht. Im Nachhinein stellte sich dann heraus, dass diese Artikel zahlreiche Fehler enthielten!
Künstliche Intelligenz hat noch Luft nach oben
Allem Anschein nach ist also diese neue Technik nicht ganz so intelligent und zuverlässig, wie man das vielleicht wünschen würde. Doch deshalb sollte man nicht vorschnell den Stab darüber brechen: Künstliche Intelligenz ist gekommen um zu bleiben. Wir Menschen werden lernen, damit umzugehen und sie richtig einzuschätzen. Zudem besteht durchaus die Hoffnung, dass künftige Generationen weniger fehleranfällig sein werden.
Mit der Veröffentlichung von ChatGPT ist dem Unternehmen OpenAI jedenfalls eine sehr große Überraschung gelungen. Nun müssen Unternehmen wie Google oder Facebook darauf reagieren. Der Wettbewerb um das beste Konzept bzw. Produkt ist jedenfalls in vollem Gang und das sind gute Nachrichten.
Photo by Daniel K. Cheung on Unsplash.
Hinterlasse einen Kommentar
An der Diskussion beteiligen?Hinterlasse uns deinen Kommentar!