Künstliche Intelligenz vermüllt das Web mit Bullshit-Texten

, ,

Künstliche Intelligenz Bullshit

Seit der Veröffentlichung von ChatGPT im Dezember 2022 musste man keinen Monat warten, um mitzuerleben wie das Web langsam aber sicher mit Bullshit-Texten zugemüllt wird. Fade Texte voller Ungereimtheiten unter reißerischen Überschriften bemühen sich suchmaschinenoptimiert um die vorderen Plätze bei Google. Künstliche Intelligenz ist so betrachtet kein Fortschritt, sondern ein Problem: Ersticken wir langsam aber sicher im Informationsmüll?

Die Qualität der Suchergebnisse bei Google nimmt seit langem schon ab. Doch nun könnte die Suchmaschine langsam aber sicher unbrauchbar werden, wenn Google nicht einen Weg findet, die sich abzeichnende Flut an Bullshit-Texten, die mit der Hilfe von Künstlicher Intelligenz erstellt werden, einzudämmen.

Google schafft es offenbar immer weniger, Artikel die gezielt für die Suchmaschine optimiert wurden, auf ihre tatsächliche Qualität hin zu überprüfen und dementsprechend einzusortieren. Die Folge sind entweder inhaltsarme Texte oder solche, die den Leser mit ihren schieren Länge völlig erschlagen. Weil bei Google die Länge eines Textes als wichtiges Qualitätskriterium zählt, werden Blogartikel immer umfangreicher: Sie erreichen mittlerweile leicht Längen von bis zu 3.000 Wörtern. Doch wer will so lange Texte wirklich lesen?

Mit der Künstlichen Intelligenz (KI) in Form von ChatGPT oder auch GPT-3 (beide von OpenAI) wird das alles nur noch schlimmer. Weil diese Systeme mühelos innerhalb von Sekunden längere Absätze bzw. Textabschnitte produzieren und dabei noch so ganz nebenbei auch gezielt Keywords unterbringen können, dürfte das Web immer mehr von billig und schnell produziertem Material überschwemmt werden.

Ein Beispiel: Das dänische Unternehmen SEO.ai, das sich auf Suchmaschinenoptimierung mit Künstlicher Intelligenz spezialisiert hat, bietet in seinem Blog einen nützlich anmutenden Text über alle Sprachen, die von ChatGPT unterstützt werden.

In der Überschrift wird die „komplette Liste“ aller unterstützten Sprachen versprochen. Im Text folgt eine Tabelle mit 95 Einträgen, gefolgt von einer weiteren Auflistung mit ebenfalls 95 Merkmalen. Wozu die doppelte Darstellung? Zudem sind beide Listen nicht identisch: In der Tabelle fehlt die Türkei, in der Auflistung weiter unten ist „Türkisch“ aber aufgeführt. Worauf kann man sich jetzt verlassen? Zudem hat sich der „Autor“ des Textes nicht die Mühe gemacht, offenbar von der Künstlichen Intelligenz entwickelte Zwischenüberschriften (H2) auch mit Texten zu versehen.

Zwischenüberschriften

Die letzte Zeile im Artikel besteht aus der Aussage, dass die Liste „unvollständig“ sei und ChatGPT möglicherweise eine Menge weiterer Sprachen verstehen könne. Diese Relativierung ist irgendwie verständlich. Aber hätte man sich dann nicht den gesamten Text sparen können? Was soll dieser Artikel, der am Ende zugeben muss, dass er eben nicht wirklich weiß, wie viele Sprachen ChatGPT tatsächlich versteht? Das ist Bullshit in Reinform.

Weil dieser Text originell wirken möchte, wurde eine Abbildung dazu eingefügt, die ebenfalls von Künstlicher Intelligenz (vielleicht DALL-E) erstellt wurde. Es würde den Rahmen dieses Textes sprengen, die Ungereimtheiten im Bild alle aufzuzählen. Als Beschreibung trifft es am ehesten das Adjektiv „dystopisch“.

Das also ist die schöne neue Welt der mit Hilfe von Künstlicher Intelligenz erstellten Artikel: Blutleere Formulierungen, Abschnitte ohne Zusammenhang (kein roter Faden im Text), widersprüchliche Aufzählungen und am Ende die Relativierung, dass alles auch ganz anders sein könnte…

Wohlgemerkt: Der Autor dieses Textes ist durchaus begeistert von der neuen Technik und lässt sich an der einen oder anderen Stelle gerne von GPT-3 unter die Arme greifen (so etwa in der App Craft). Doch käme es ihm nie in den Sinn, ganze Artikel Absatz für Absatz von einer KI erstellen zu lassen und das Ergebnis ohne kritische Durchsicht zu veröffentlichen. Das hat die Menschheit nicht verdient!

Photo by Ryan Jacobson on Unsplash

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert