Wenn Websites nicht mehr nur von Menschen gelesen werden

Interview mit Anette Rehm
Anette Rehm, Marketing-Managerin bei media4nature, erläutert, wie sich Website-Optimierung verändert, wenn Inhalte nicht mehr nur für Menschen, sondern auch für KI-Systeme verständlich und zitierfähig sein müssen.

Wie gehen Sie methodisch vor, wenn eine Website sowohl für menschliche Nutzer als auch für LLMs strukturiert und optimiert werden soll?

Beide „Nutzer“, sowohl der Mensch als auch die KI, bevorzugen denselben Aufbau und dieselbe Struktur. Beide wollen Inhalte schnell erfassen und Kernaussagen extrahieren. Salopp gesagt ist ein LLM ein begriffsstutziger Mensch unter Zeitdruck. Also muss man es der KI so einfach wie möglich machen, große Textmengen zu lesen, zu verstehen und zu bewerten.

Methodisch bedeutet das zunächst, die Kernaussagen klar zu definieren und anschließend die jeweilige Seite konsequent darum herum aufzubauen.

Der Text wird dazu in kleine, inhaltlich abgeschlossene Einheiten gegliedert. Jeder Abschnitt erhält eine Überschrift, die den Kern zusammenfasst. Lange Fließtexte werden vermieden, stattdessen kommen strukturierte Aufzählungen zum Einsatz. Insbesondere Listen werden von LLMs bevorzugt.

Der Text muss gut zitierbar sein, damit Teile davon als Suchergebnis mit Quellenangabe von der KIausgespielt werden können. Wichtig ist außerdem, ohne lange Vorrede direkt zum Punkt zu kommen. Gut funktionieren Fragen in den Überschriften, deren Antwort gleich zu Beginn des Abschnitts folgt. Auch Triggerworte wie „Tipp“, „Anleitung“ oder „so geht …“ in Zwischenüberschriften werden von Mensch und KI positiv verarbeitet.

Visuell gibt es Unterschiede: Während Menschen Bilder emotional wahrnehmen, bewertet ein LLM Bilder danach, ob sie inhaltlich passen oder zusätzliche Informationen liefern. Deshalb gewinnen Bildinhalt und Alt-Texte stark an Bedeutung. Reine Schmuckbilder sind für LLMs irrelevant, informative Grafiken hingegen sehr hilfreich – und zugleich auch für menschliche Leser attraktiv.

Technisch bleiben die klassischen SEO-Grundlagen unverzichtbar. Seiten müssen auffindbar sein, sauber programmiert, klar auf ein Keyword oder eine Keyphrase ausgerichtet und korrekt strukturiert. Zusätzlich prüfen LLMs, wie schnell Inhalte erfassbar und zitierbar sind. Viele SEO-Tools haben diese Kriterien inzwischen integriert.

Ein weiterer Faktor ist die Vertrauenswürdigkeit der Quelle. LLMs prüfen die Stringenz der gesamten Website ebenso wie externe Nennungen, etwa in sozialen Netzwerken oder auf thematisch passenden Websites.

Welche technischen und inhaltlichen Signale halten Sie aktuell für entscheidend, damit Websites von LLMs korrekt erfasst, eingeordnet und zitiert werden?

Technisch muss die Basis stimmen: sauberer Seitenaufbau, korrekte Programmierung und klassische SEO. Die eigentliche Herausforderung liegt jedoch im Content.

Dieser muss erstens einzigartig sein. Es reicht nicht, bestehende Inhalte umzuschreiben. Idealerweise ist man früh dran mit einem Thema oder bringt einen neuen, eigenständigen Blickwinkel ein.

Zweitens muss der Inhalt zur thematischen Ausrichtung der gesamten Website passen. Eine Seite über Rezepte wirkt auf der Website einer nachhaltigen Marketingagentur unplausibel. Thematische Stringenz signalisiert Autorität.

Drittens spielt Erfahrung eine Rolle. Diese prüft das LLM auch außerhalb der eigenen Website, etwa durch Erwähnungen auf anderen Plattformen. Dabei sind Namensnennungen genauso relevant wie klassische Backlinks.

Wo stoßen klassische SEO-Ansätze an Grenzen, wenn KI-Systeme Inhalte interpretieren statt nur zu indexieren?

Klassische SEO-Ansätze konzentrieren sich meist auf die eigene Website. Für LLMs reicht das nicht aus. Entscheidend ist, ob man zum jeweiligen Thema in der gesamten Onlinewelt als Autorität wahrgenommen wird.

Zudem können ungenaue oder mehrdeutige Formulierungen zu Fehlinterpretationen führen. LLMs sind besonders anfällig für Begriffe mit mehreren Bedeutungen.

Hinzu kommt: KI-Systeme erschaffen kein Wissen, sondern verarbeiten vorhandene Informationen. Sie prüfen Inhalte nicht auf Richtigkeit, sondern kombinieren Quellen. Während Menschen Wissen aufbauen, verarbeiten KIs Daten. Das macht Präzision im Content umso wichtiger.

Nach welchen Kriterien bewerten Sie den Erfolg einer Websiteoptimierung, wenn Sichtbarkeit zunehmend über KI-Antwortsysteme entsteht?

Neben klassischen Kennzahlen wie Visits oder Page Impressions gewinnen neue KPIs an Bedeutung. Dazu zählen etwa die Häufigkeit von Zitierungen, die Position der Nennung in KI-Antworten, die Sichtbarkeit bei verschiedenen LLMs sowie die Genauigkeit der Antworten auf Basis der eigenen Inhalte.

Da diese Kennzahlen noch volatil sind und es nur wenige verlässliche Tools gibt, bleibt derzeit vor allem manuelle Beobachtung und kontinuierliches Testen. Ergebnisse können zudem je nach KI-System variieren.

Welche typischen Fehler beobachten Sie bei Unternehmen, die ihre Websites vorschnell „KI-fit“ machen wollen?

Weniger die Technik, mehr das grundsätzliche Vorgehen ist problematisch. Technik allein erzeugt weder Ideen noch einzigartige Inhalte. Wenn die technische Basis 2026 noch nicht stimmt, war die Website meist schon zuvor kein Erfolg.

Ein häufiger Fehler ist, einzelne Seiten isoliert für KI zu optimieren, statt langfristig thematische Autorität aufzubauen. Ein weiterer ist, Texte rein rational für LLMs zu schreiben. Websites werden weiterhin von Menschen gelesen. Inhalte müssen nicht nur logisch strukturiert, sondern auch emotional ansprechend sein, Neugier wecken und im Gedächtnis bleiben – und im besten Fall zu einer Handlung führen.

Interview teilen: 

Facebook
Twitter
LinkedIn
WhatsApp
No related posts found for the provided ACF field.

Zum Expertenprofil von Anette Rehm

Anette Rehm

Weitere Informationen zum Thema finden Sie unter diesem Link:

Weitere Interviews

die neusten BTK Videos