In der sich ständig weiterentwickelnden digitalen Landschaft hat sich die Art und Weise, wie wir unsere Webseiten optimieren, grundlegend verändert. Während traditionelle Suchmaschinenoptimierung (SEO) weiterhin eine wichtige Rolle spielt, tritt mit dem Aufstieg grosser Sprachmodelle (Large Language Models, LLMs) wie ChatGPT eine neue Disziplin in den Vordergrund: die Large Language Model Optimization (LLMO). Diese geht über die herkömmliche SEO hinaus und konzentriert sich darauf, wie Inhalte von KI-basierten Systemen gefunden und genutzt werden können.
LLMO ist nicht nur eine technische Anpassung, sondern auch eine strategische Herangehensweise an die Gestaltung und Strukturierung von Inhalten. Anders als bei klassischer SEO, bei der Schlüsselwörter im Vordergrund stehen, zielt LLMO darauf ab, den Kontext und die Relevanz von Inhalten zu betonen. Das Ziel ist es, dass die Inhalte von LLMs nicht nur erkannt, sondern auch sinnvoll in den generierten Antworten verwendet werden. Dies erfordert ein tiefes Verständnis dafür, wie diese Modelle Informationen verarbeiten und welche Faktoren ihre Entscheidungen beeinflussen.
Um eine Webseite nach LLMO Bedingungen zu optimieren, beginnt man damit, die Struktur und Lesbarkeit der Inhalte zu verbessern. Anstatt sich auf eine einfache Aufzählung von Schlüsselwörtern zu verlassen, sollte der Fokus darauf liegen, Themen in einem zusammenhängenden, gut verständlichen Kontext zu präsentieren. LLMs sind darauf ausgelegt, semantische Zusammenhänge zu erkennen, was bedeutet, dass Inhalte, die klar strukturiert und logisch aufgebaut sind, eher berücksichtigt werden.
Das Praxisbeispiel
Ein Beispiel aus der Praxis könnte ein Online-Shop für Outdoor-Ausrüstung sein, der seine Webseite für LLMO optimieren möchte. Statt nur Produkte aufzulisten und deren Eigenschaften zu nennen, könnte der Shop umfassende, themenbezogene Artikel anbieten, die verschiedene Aspekte des Outdoor-Lebensstils behandeln. Ein Blogbeitrag könnte unter anderem das Thema „Wie wähle ich die richtige Ausrüstung für eine Winterwanderung?“ behandeln. In diesem Beitrag würde nicht nur auf einzelne Produkte eingegangen, sondern auch darauf, warum bestimmte Materialien und Ausstattungsmerkmale bei kaltem Wetter vorteilhaft sind, welche Sicherheitsvorkehrungen zu treffen sind und wie man die Ausrüstung pflegt. Solch ein Artikel bietet nicht nur wertvolle Informationen für den Leser, sondern auch reichhaltige, kontextualisierte Daten für LLMs.
Aber wird das nicht bereits durch Storytelling im Content-Marketing erfüllt? Storytelling konzentriert sich hauptsächlich auf die menschliche Perspektive, LLMO geht aber einen Schritt weiter, indem es diese Erzählstruktur so optimiert, dass sie auch von Maschinen (LLMs) verstanden und effektiv genutzt werden kann. LLMO erfordert eine zusätzliche Ebene der Strukturierung und Klarheit, um sicherzustellen, dass die Inhalte nicht nur für Menschen fesselnd, sondern auch für KI-Modelle gut zugänglich sind.
Technische Struktur
Neben der inhaltlichen Optimierung spielt auch die technische Struktur eine wichtige Rolle. Durch die Verwendung von Schema Markup und strukturierten Daten kann sichergestellt werden, dass die Inhalte für LLMs leicht zugänglich und verständlich sind. Dies ist besonders wichtig für spezifische Informationen wie Produktbeschreibungen oder technische Daten, die klar definiert und kategorisiert sein sollten. Die Verwendung von Schema Markups sind hier hilfreich. Das sind z.B. json Dateien die bereits wesentliche Merkmale des Inhalts dem LLM zur Verfügung stellen. Auch sollten die bereits existierenden SEO Massnahmen disziplinierter und kontextbezogen umgesetzt werden, um den Zugang für LLMs zu erleichtern.
Ein weiterer entscheidender Faktor ist die externe Wahrnehmung und Reputation der Webseite. Seiten, die auf renommierten Plattformen wie Wikipedia, grossen Nachrichtenseiten oder sozialen Netzwerken zitiert werden, haben eine höhere Wahrscheinlichkeit, in den Trainingsdaten der LLMs zu erscheinen. Dies kann durch gezielte PR- und Content-Marketing-Strategien erreicht werden, die darauf abzielen, die Sichtbarkeit und Glaubwürdigkeit der Marke zu erhöhen.
In der Summe erfordert LLMO eine Mischung aus strategischer Inhaltserstellung, optimierter SEO Massnahmen, technischer Optimierung und einer klaren Fokussierung auf die Bedürfnisse der Nutzer. Unternehmen, die diese Ansätze erfolgreich umsetzen, werden feststellen, dass ihre Inhalte nicht nur in herkömmlichen Suchmaschinen gut platziert sind, sondern auch in den Antworten der nächsten Generation von KI-Systemen präsent sind. Das Ziel ist es, eine Webseite zu schaffen, die nicht nur von Menschen geschätzt wird, sondern auch von den Maschinen, die immer mehr die Art und Weise beeinflussen, wie Informationen konsumiert werden. In einer Welt, die zunehmend von KI dominiert wird, ist LLMO der Schlüssel, um sicherzustellen, dass eine Marke und ihre Inhalte relevant bleiben.
Während LLMO eine mächtige Technik zur Optimierung von Inhalten für KI-Modelle ist, birgt sie auch das Risiko, als Werkzeug für die Verbreitung von Falschinformationen missbraucht zu werden. So können gezielt falsche oder irreführende Informationen auf gut sichtbaren Plattformen platziert und verbreitet werden. Es besteht somit das Risiko, dass solche Inhalte von LLMs aufgenommen und in generierten Antworten verwendet werden. Es ist daher wichtig, diese Risiken zu erkennen und Massnahmen zu ergreifen, um die Integrität der generierten Inhalte zu wahren.
Wie kann man den Zugriff von KI auf Webseiten verhindern?
Wenn man nicht will, dass ein Large Language Model (LLM) wie ChatGPT oder andere KI-Systeme die Website ausliest und die Inhalte verwendet, sind neue Scripte für Websites nötig. Die klassischen „no follow robots“ werden hier nicht reichen. Es gibt aktuell noch keine universelle Möglichkeit, KI-Unternehmen aufzufordern, eine Website nicht zu crawlen. In den robot Texten muss also explizit die jeweilige KI aufgeführt werden. Zum Beispiel über das Einfügen folgender Code Zeilen.
User-agent: FacebookBot
Disallow: /
User-agent: GPTBot
Disallow: /
User-agent: Amazonbot
Disallow: /
User-agent: anthropic-ai
Disallow: /
User-agent: Applebot
Disallow: /
User-agent: AdsBot-Google
Disallow: /
usw.
Jedoch werden dadurch nicht alle KI Lösungen erfasst und die Pflege ist mühsam. Bis es hier ein eindeutiges Regelwerk gibt, wird also noch Zeit vergehen.
Wie lässt sich Missbrauch vermeiden?
Um Missbrauch zu verhindern, ist es entscheidend, dass sowohl die Entwickler von LLMs als auch die Menschen, die mit der KI arbeiten, Massnahmen ergreifen, um die Integrität der genutzten Daten sicherzustellen. Dies könnte durch verstärkte Überprüfung der Quellen, die Implementierung von Filtersystemen zur Erkennung von Desinformation und die kontinuierliche Verbesserung der Modelle zur Erkennung und Vermeidung von verzerrten Daten geschehen.