KI-Optimierung von Websites: War es das für SEO?

KI-Optimierung von Websites, oder um den englischen Begriff zu gebrauchen: AI-Optimization, wird in den nächsten Jahren eine größere Bedeutung bekommen. Dies nicht nur, weil die Recherche mit ChatGPT und Co. steigt (derzeit noch weit unter 10%), sondern auch weil die traditionellen Suchmaschinen immer mehr KI für das Ranking und die Darstellung der Treffer einsetzen. Die Bestrebungen von Google, Künstliche Intelligenz bei der Suche einzusetzen, gehen auf das Jahr 2011 zurück. Bing hat auch schon seit längerem eine Suche, die semantische Techniken nutzt und hat diese mit ChatGPT ergänzt.

Websites für KI optimieren
Website-Zauberer, erstellt mit DALL-E

Was ist also für die KI-Optimierung wichtig?

Künstliche Intelligenz versucht, den Inhalt eines Dokuments, einer Website, eines Buches in gewissen Grenzen zu „verstehen“. Dafür benutzt sie so genannte „große Sprachmodelle“ (Large Language Model – LLM). Eine klassische Website ist, was die Semantik, der Hinweis auf die Bedeutung also betrifft, chaotisch aufgebaut. Wenn dort „Apache“ steht, wissen wir nicht, ob es sich um einen Indianer, einen Webserver, ein Auto oder Hubschrauber handelt. Diese Sprachmodelle versuchen, genau wie die klassische Suche, die Bedeutung aus dem Kontext zu erschließen.

Wie soll man also optimieren?

  1. Eine wichtige Optimierungsmethode wäre also, den Bots oder Crawlern, die die Website untersuchen, die Erschließung von Bedeutungen zu erleichtern. Diese müssen die Informationen semantisieren, also mit einer Bedeutung versehen, um sie verarbeiten zu können. Hier können wir ihnen Hilfestellung geben. Es vereinfacht die Semantisierung wenn ich strukturierte Daten in die Website einfüge, die schon so etwas wie eine Bedeutung haben: Orte, Personen, Produkte, Ereignisse, Jobausschreibungen. Google hat dafür schon eigene Rubriken in den Suchtreffern. Im einfachsten Falle sollte man also die Daten mit schema.org-Metadaten anreichern. Dazu gibt es zahlreiche Techniken und, für WordPress wie für die meisten anderen CMS auch fertige PlugIns, Module, Extensions.
  2. Des weiteren sollte man strukturierte Daten verfügbar machen, wenn man sie hat. Eine XML-Sitemap, CSV- und Excel-Dateinen verlinken oder für geographische Daten etwa KML oder GPX-Formate verwenden.
  3. Wer die Präsentation semantischer Daten noch weiter treiben möchte, kann in seinen Inhalten Referenzen auf öffentliche Ontologien, elektronische Begriffssysteme, einbauen. Dies ist weit komplexer als der Verweis auf schema.org. Die meisten großen Ontologien werden von Google und anderen Suchmaschinen gelesen und „verstanden“.
  4. Des weiteren wirken gute alte SEO-Methoden auch für KI: Sinnvolle Strukturierung der Inhalte, sprechende Dateinamen bei Bildern. Textäquivalente für Medieninhalte, relevante Backlinks.
  5. Zugänglichmachen von Kontext: Verlinkung auf ähnliche, ergänzende Informationen. Ein Crawler kann nur Links folgen. Eine nicht verlinkte Seite und nicht in der Sitemap aufgeführte Seite existiert für ihn nicht. Nach wie vor ist es sinnvoll, diesen Links sinnvolle Namen zu geben.
  6. Last but not least: Maschinen sind nicht alles. Optimierung der Inhalte für den User ist eine sinnvolle Langzeit-Strategie. KI-Methoden versuchen ja, dem User relevante Inhalte zur Verfügung zu stellen.

Nachtrag: Habe, nachdem ich den Beitrag verfasst habe, natürlich auch ChatGPT gefragt, wie ich für seine KI optimieren kann. Der ChatBot hat (, wie erwartet,) gleich im ersten Punkt auf schema.org verwiesen! Ansonsten kamen SEO-Tipps und welche KI man für die Erzeugung der Inhalte verwenden kann.

Weiterführende Links:

Die Homepage-Helden über GEO, SGE und SEO

Seo für AI-Suchmaschinen“ von Visionbytes

Seminar „Semantic SEO“ von eastpress media