Seit 2014 aktiv
Velorantiva Logo
Velorantiva

Technisches SEO ohne Buzzwords

Crawl-Budget, Rendering-Probleme und Index-Verwaltung — hier geht es um die Mechanik, nicht um vage Versprechen. Analysen auf Basis von Server-Logs, strukturierten Daten und HTTP-Statuscodes.

Zusammenhängende Artikelserien

Vierteilige Serie

JavaScript-Rendering für Suchmaschinen

Von der initialen HTML-Auslieferung bis zum vollständigen Client-Side-Rendering — diese Serie untersucht, wie Google mit React-, Vue- und Angular-Anwendungen umgeht. Jeder Teil dokumentiert spezifische Probleme bei der Indexierung dynamischer Inhalte und zeigt messbare Lösungsansätze mit Prerendering, Server-Side-Rendering und hybriden Architekturen.

4 Artikel • März bis Juni 2024
Dreiteiler

Log-File-Analyse in der Praxis

Server-Logs enthalten die tatsächliche Crawl-Aktivität von Suchmaschinen-Bots. Diese Artikelreihe zeigt, wie man aus Millionen Zeilen Rohdaten verwertbare Erkenntnisse extrahiert — von der Datenaufbereitung mit Python und regulären Ausdrücken über die Identifikation von Crawl-Engpässen bis zur Optimierung der robots.txt basierend auf gemessenen Bot-Verhaltensmustern.

3 Artikel • September bis November 2024
Fünfteilige Serie

Strukturierte Daten und Schema.org

Schema.org-Markup ist kein Ranking-Faktor, beeinflusst aber die Darstellung in Suchergebnissen direkt. Diese Serie erklärt JSON-LD, Microdata und RDFa aus technischer Perspektive — mit Schwerpunkt auf korrekter Implementierung, Validierung und der Vermeidung häufiger Syntaxfehler, die zu Warnung in der Search Console führen.

5 Artikel • Januar bis April 2025

Wachstum des Archivs

127
Veröffentlichte Artikel
18
Technische Tiefenanalysen
9
Abgeschlossene Serien

Das Archiv begann 2019 mit grundlegenden Erklärungen zu Crawling und Indexierung. Seitdem haben sich drei Schwerpunkte herausgebildet: Client-Side-Rendering und JavaScript-Frameworks, strukturierte Daten mit Schema.org, und Log-File-Analyse zur Crawl-Optimierung. Die meisten neuen Artikel konzentrieren sich auf diese Themen, weil dort die größten technischen Herausforderungen liegen.

Seit 2022 liegt der Fokus verstärkt auf Core Web Vitals und deren Zusammenhang mit technischem SEO — nicht als Ranking-Signal im engeren Sinn, sondern als messbare Qualitätsmerkmale, die Crawl-Effizienz und Indexierungsgeschwindigkeit beeinflussen. Die Log-File-Analysen zeigen, dass Bots bei langsamen Seiten systematisch weniger Ressourcen crawlen. Das wird in mehreren Artikeln dokumentiert.

Der Bereich zu internationaler SEO — hreflang, mehrsprachige Sitemaps, URL-Strukturen für mehrere Länder — ist in den letzten sechs Monaten stark gewachsen. Diese Artikel basieren auf Projekten mit großen mehrsprachigen Websites und beschreiben konkrete Implementierungsprobleme, die in der Praxis auftreten, wenn Entwickler und SEO-Teams unterschiedliche Ziele verfolgen.

Einstiegspunkte für neue Leser

Diese Artikel bilden das Fundament — nicht weil sie besonders bekannt sind, sondern weil sie zentrale Konzepte erklären, auf die spätere Texte aufbauen. Wer zum ersten Mal hier ist, sollte mit einem dieser drei Stücke beginnen.

Crawl-Budget Grundlagen

Was ist Crawl-Budget eigentlich?

Robots.txt Konfiguration

Robots.txt richtig konfigurieren

Canonical Tags verstehen

Canonical Tags: Funktion und Fehlerquellen

Warum diese drei?

  • Der Crawl-Budget-Artikel erklärt, wie Suchmaschinen Ressourcen auf Websites verteilen und warum große Sites systematisch Probleme mit der vollständigen Indexierung bekommen.
  • Die robots.txt-Anleitung ist technisch präzise und zeigt häufige Syntax-Fehler, die dazu führen, dass wichtige Seiten blockiert werden oder Bots unnötige Bereiche crawlen.
  • Canonical Tags werden oft falsch implementiert. Dieser Artikel beschreibt die genaue Funktionsweise und dokumentiert reale Fälle, in denen falsche Canonicals zu Index-Problemen führten.

Was diese Seite auszeichnet

Technische SEO Analyse

Keine generischen Empfehlungen

Die meisten SEO-Blogs wiederholen Standardratschläge. Hier liegt der Fokus auf Spezialfällen — JavaScript-Frameworks, die Googlebots nicht rendern, hreflang-Konfigurationen für Websites mit zehn Sprachen, Log-File-Analysen für Sites mit Millionen URLs. Die Artikel beschreiben Probleme, die in der Praxis tatsächlich auftreten, und zeigen dokumentierte Lösungsansätze statt Checklisten.

Das bedeutet auch: Viele Texte setzen technisches Grundwissen voraus. Wer nicht weiß, was ein HTTP-Statuscode ist oder wie Server-Logs strukturiert sind, wird hier Schwierigkeiten haben. Das ist Absicht. Es gibt genug Einsteiger-Content anderswo — diese Seite ist für Entwickler, technische SEOs und Systemadministratoren, die spezifische Antworten brauchen.

Die Artikel basieren auf realen Projekten, nicht auf theoretischen Annahmen. Wenn ein Text behauptet, dass eine bestimmte Sitemap-Struktur zu schnellerer Indexierung führt, dann ist das anhand von Search-Console-Daten dokumentiert. Wenn Log-File-Analysen zeigen, dass Bots bestimmte URL-Muster ignorieren, sind die relevanten Zeilen aus den Logs zitiert. Keine spekulativen Behauptungen.

Thematische Navigation

Crawling Indexierung Robots.txt Sitemaps Canonical Tags HTTP-Statuscodes URL-Struktur Redirects Meta-Robots Noindex/Nofollow
Client-Side-Rendering Server-Side-Rendering React SEO Vue.js Indexierung Angular für Bots Prerendering Dynamic Rendering JavaScript-Fehler Fetch-as-Google
Log-File-Analyse Search Console API Crawl-Budget-Optimierung Python für SEO Regex-Patterns Bot-Verhalten Server-Monitoring Screaming Frog Technische Audits

Neue Artikel per E-Mail

Etwa einmal im Monat erscheint ein längerer Artikel zu einem spezifischen technischen Problem. Keine wöchentlichen Updates, keine Marketing-E-Mails — nur eine Benachrichtigung, wenn neuer Inhalt veröffentlicht wird. Die E-Mail enthält den Artikeltitel, eine kurze Zusammenfassung und den Link.

Datenverkauf