Texte mit Hilfe von Künstlicher Intelligenz zu entwerfen, ist einfach. Aber kann der Einsatz von KI auch negative Folgen haben? Was Suchmaschinen von KI-Texten halten und was beim Erstellen von KI-Texten generell zu beachten ist, dazu haben wir die Abteilungsleiterin und Expertin zur Suchmaschinenoptimierung OffPage Anna Pianka von der Abakus Internet Marketing GmbH aus Hannover befragt.

Texte mit KI sind leicht erstellt und werden immer besser – wie sehen Sie als Agentur für Suchmaschinenoptimierung den Einsatz von KI-Texten auf Webseiten?
Es kommt hier, wie so oft, auf die Qualität an. Neue Inhalte sollten die Nutzer informieren und aus SEO-Sicht die Website-Rankings verbessern. Content ohne Mehrwert erhöht lediglich den Crawling-Aufwand für die Bots der Suchmaschinen und er enttäuscht die Leser. Es kommt vor, dass schwache, neue Rankings entstehen, die nach einem kurzen Zeitraum schnell wieder verschwinden oder es kommen Rankings für unwichtige Begriffe hinzu, nach welchen jedoch niemand sucht (wertlose Rankings). Durch das massenhafte Hinzufügen automatisiert erstellten Contents verbessern sich Rankings nicht, so wird Spam generiert. Websites mit gesundem Qualitätsanspruch würden nicht zu solch einer Strategie greifen.

Was würden Sie Unternehmen empfehlen, die trotzdem Texte von ChatGPT und anderen auf ihren Seiten im Netz einsetzen möchten?
Erst einmal verstößt die angemessene Nutzung von Künstlicher Intelligenz nicht gegen die Richtlinien von Google. Wir als SEO-Agentur würden dennoch immer dazu raten, den Einsatz genau abzuwägen. Beim Schreiben der Texte für die eigene Website sollten Unternehmen KI nur als Unterstützung, zum Beispiel für Inspirationen zu Textideen, einsetzen. Man sollte keine Artikel zu Themen verfassen, bei denen man nicht über die nötigen Fachkenntnisse verfügt. Suchmaschinen erkennen minderwertige Inhalte mit Hilfe ihrer Algorithmen und durch die Auswertung des Nutzerverhaltens. Texte, die keinen Mehrwert bringen, oberflächlich und sehr ähnlich auf vielen Internetseiten zu finden sind, werden entsprechend schlechter bewertet. Wenn die Texte dann noch zusätzlich sachliche Fehler enthalten, die man ohne Fachwissen nicht sieht, hat dies Einfluss auf die Glaubwürdigkeit und die Inhalte des betroffenen Unternehmens werden weniger ernst genommen, auch von Suchmaschinen. Weiter kann dies negative Aussagen im Netz nach sich ziehen, was auch der Außenwirkung schadet. Schlechte Meinungen lassen sich nur schwer wieder aus dem Internet entfernen. Eine menschliche Qualitätskontrolle, Textüberarbeitung und Ergänzung vor der Veröffentlichung von KI-generierten Texten bildet die Grundlage für annehmbaren Content. Das einfache Zusammenfügen mehrerer Texte führt ebenso wenig wie das Umformulieren bestehender Texte zum Erfolg. Google beispielsweise legt großen Wert auf einzigartige Inhalte, die maschinell eher schwer erzeugt werden können. Schließlich basiert die automatische Texterzeugung auf bereits vorhandenen Texten und Wahrscheinlichkeiten. Beide Faktoren sprechen dafür, dass KI nicht die individuellen Texte erzeugt, die für gute Rankings notwendig sind.

Erkennen denn Suchmaschinen wie Google KI-Inhalte?
Es gibt Indizien, die sich aus diversen Bewertungskriterien von Google zusammensetzen, die darauf schließen lassen, dass Google anhand der Textstruktur, der Grammatik oder der Syntax von KI verfasste Texte erkennen könnte. Weiter gibt es Studien, die feststellen, dass Google KI-Content identifiziert und Webseiten mit automatisch erzeugten Inhalten als wertloser einstuft, als auch Untersuchungen, die zu anderen Ergebnissen kommen. Im Internet angebotene KI-Text-Detektoren untersuchen und analysieren Texte und achten dabei auf deren Struktur, wir sprechen von „Perplexity“ und „Burstiness“. Mit höheren Werten in beiden Bereichen steigt die Wahrscheinlichkeit, dass es sich um einen von Menschen geschriebenen Text handelt.

Könnten Sie die Begriffe kurz erklären?
„Perplexity“ bedeutet Verwirrung. Für Verwirrung sorgen etwa Tippfehler. Ein sehr langer Text ohne Tippfehler gilt somit als wenig verwirrend und tendenziell von einer Maschine geschrieben. Perplexe (kreative) Texte zeichnen sich außerdem dadurch aus, dass das nächste Wort nicht so leicht vorhersehbar ist. Ein Beispiel: „Er stieg ins Auto und fuhr los“ hat einen niedrigeren „Perplexity“-Wert als „Er stieg ins Auto und las ein Buch.“ KI-generierte Texte basieren auf Wahrscheinlichkeiten, somit gilt die erste Variante eher als KI-Content als die zweite.
Die „Burstiness“ steigt, wenn sich Satzstruktur und Satzlänge ändern. Ist die Satzlänge immer ähnlich und der Aufbau folgt nahezu ausschließlich dem Schema Subjekt-Prädikat-Objekt, dann enthält der Text kaum Überraschungselemente und stammt wahrscheinlich von einer KI.
Menschliche Texte zeichnen sich durch ausgeprägte „Burstiness“ und „Perplexity“ aus. Im Moment sind KI-Texte noch relativ gut erkennbar, weil es ihnen an sprachlicher Variabilität und inhaltlicher Originalität fehlt. Wenn Unternehmen ihre Leser also nicht langweilen möchten, sollten sie mit einzigartigen Inhalten in den Suchindex gelangen und einen möglichst großen Teil ihrer Inhalte von Menschen erstellen zu lassen.

Müssen Texte, die mit KI erstellt wurden, denn gekennzeichnet werden?
Die Frage ist noch offen. Die EU-Kommission schlägt die Kennzeichnung maschinell generierter Inhalte vor. Sie ist der Überzeugung, man sollte eindeutig erkennen können, wenn man es beispielsweise mit Texten von ChatGPT zu tun hat. Google oder Microsoft unterliegen laut Selbstverpflichtung dem EU-Verhaltenskodex gegen Desinformation. Die Markierung von KI-Inhalten soll nach dem Willen der EU-Kommission zur Pflicht werden.

Gibt es einzigartigen KI-Content?
KI-Tools wie ChatGPT basieren auf Statistiken. Zunächst wird die Datenbank mit vielen Website-Texten und digitalisierten Büchern gefüttert, dann setzt das Tool die einzelnen Wörter aus den Texten in einen Sinnzusammenhang. Außerdem trainieren Mitarbeitende das Tool und entfernen unerwünschte oder falsche Antworten. Bei der Textgenerierung ermittelt das Tool anhand von Wahrscheinlichkeiten das jeweils folgende nächste Wort. Selbstverständlich fließen die Wörter davor in Berechnungen ein. So entsteht ein Text. Aufgrund der großen Datenmenge und der hohen Rechnerleistungen generiert ChatGPT bei einfachen Anforderungsangaben überwiegend stimmige Texte. Sollen unterschiedliche Themen kombiniert werden, kommen teilweise haarsträubende Fehlinformationen zustande, da die Zusammenhänge aufgrund fehlender Quellinformationen nicht vernünftig kombiniert werden konnten.
Diese stark vereinfachte Darstellung macht deutlich: KI-Tools erzeugen die wahrscheinlichsten, aber dafür unoriginelle Texte. Sie generieren eine Art Zusammenfassung von Texten aus den Trainingsdaten.
Im Internet kursieren auch viele von Meschen geschriebene Texte, die eine geringe Qualität aufweisen. Aus meiner Sicht ist es wichtig, dass Google generell minderwertige Texte besser erkennt und diese weniger präsent in den Suchergebnissen anzeigt, unabhängig davon, ob ein Mensch ihn geschrieben hat oder ob der Text generiert wurde.

Die Fragen stellte Georg Thomas.

Jetzt Artikel teilen!