Grundlagen11 Min.

Technisches SEO: Die Checkliste für kleine Unternehmen

24. Mai 2026 · Technisches SEO, Checkliste, Crawling
Aktuell · 2026-05-24

Technisches SEO klingt nach Entwickler-Kram. Es gibt 200-Punkte-Checklisten, Crawler-Tools und endlose Konfigurationsoptionen. Für kleine Unternehmen ist das die falsche Perspektive. 8 bis 10 Punkte decken 90% der Wirkung ab. Den Rest ignorieren Sie bis die Basis steht.

Dieser Artikel erklärt was technisches SEO für kleine Unternehmen tatsächlich bedeutet: Welche 10 Punkte den größten Unterschied machen, wie Crawling und Indexierung funktionieren, warum Page Speed kein Nice-to-Have ist und was Sie heute selbst prüfen können.

TL;DR
  • Ohne korrekte Indexierung existiert Ihre Seite für Google nicht. Prüfen Sie als erstes ob Ihre wichtigsten Seiten im Index sind.
  • Page Speed ist seit 2021 ein direkter Rankingfaktor. Testen Sie Ihre Seite mit PageSpeed Insights und beheben Sie alles was rot ist.
  • Eine XML-Sitemap hilft Google und KI-Bots Ihre Seiten zu finden. Erstellen Sie eine und verlinken Sie sie in der robots.txt.
  • KI-Bots wie GPTBot crawlen Ihre Seite neben Google. Strukturierte Daten helfen beiden Zielgruppen.
  • 8 bis 10 technische Punkte decken 90% der Wirkung ab. Starten Sie damit statt sich in 200-Punkte-Listen zu verlieren.
GRUNDLAGEN

Warum technisches SEO einfacher ist als Sie denken

Technisches SEO wird als Expertenthema verkauft. Crawler-Protokolle, Render-Budgets, hreflang-Tags, canonicalization. Es gibt SEO-Agenturen die ausschließlich mit technischen Audits Geld verdienen und Listen mit 200 Prüfpunkten produzieren. Das ist ihr Geschäftsmodell. Es ist nicht Ihre Realität.

Für ein kleines Unternehmen mit einer normalen Unternehmenswebseite gibt es eine überschaubare Anzahl technischer Faktoren die wirklich zählen. Wer diese Basis sauber hat gewinnt gegenüber dem Großteil des Wettbewerbs, der dieselbe Basis hat liegen lassen. Wer dann noch mehr will kann weitermachen. Aber der erste Schritt ist nicht Komplexität. Er ist Klarheit.

Technisches SEO beschreibt alle Maßnahmen die dafür sorgen dass Google und andere Suchmaschinen Ihre Webseite korrekt crawlen, verstehen und indexieren können. Es ist die Grundlage auf der Content-Strategie und Linkaufbau wirken können. Ohne solide technische Basis verpufft jede inhaltliche Investition zumindest teilweise.

90%
Der technischen SEO-Wirkung entfallen auf 8 bis 10 Kernpunkte
Der Rest der 200-Punkte-Checklisten ist für Unternehmen relevant die bereits eine saubere Basis haben. Wer noch am Anfang steht verschwendet Zeit wenn er dort ansetzt.

Die gute Nachricht: Die meisten Punkte sind einmal erledigt und erfordern dann nur noch gelegentliche Pflege. Technisches SEO ist kein wöchentlicher Aufwand. Es ist eine einmalige Investition mit dauerhafter Wirkung, solange Sie bei größeren Änderungen an der Webseite kurz prüfen ob alles noch stimmt.

Expert Insight

Die meisten kleinen Unternehmen haben keine technischen SEO-Probleme weil sie zu wenig wissen. Sie haben sie weil niemand je geschaut hat. Ein einmaliger Check mit den richtigen Tools deckt 80% der Probleme auf. Der Rest findet sich wenn man anfängt den Traffic zu beobachten.

Florian Husen, x10a
CHECKLISTE

Die 10-Punkte-Checkliste: Was Sie prüfen müssen

Diese Tabelle zeigt die zehn kritischsten technischen SEO-Punkte für kleine Unternehmen, was konkret zu prüfen ist und welches Tool dabei hilft. Jeder Punkt hat eine direkte Auswirkung auf Sichtbarkeit oder Nutzerverhalten.

KriteriumWas prüfenTool
IndexierungsstatusSind Ihre wichtigsten Seiten im Google-Index?Google Search Console → Coverage
robots.txtBlockiert die Datei keine CSS, JS oder wichtigen Seiten?ihredomain.de/robots.txt direkt aufrufen
XML-SitemapExistiert eine Sitemap mit aktuellen lastmod-Daten?Google Search Console → Sitemaps
HTTPSLäuft die gesamte Seite über HTTPS ohne Mixed Content?Browser-Adresszeile, Why No Padlock
Core Web VitalsBestehen LCP, CLS und INP die Google-Schwellenwerte?PageSpeed Insights, Search Console CWV-Bericht
Mobile UsabilityIst die Seite auf Smartphones vollständig nutzbar?Google Search Console → Mobile Usability
Canonical TagsVerweisen Seiten auf die kanonische URL ohne Konflikte?Seitenquelltext, Screaming Frog (kostenlos bis 500 URLs)
Strukturierte DatenSind Schema.org-Markups für Unternehmen und Inhalte vorhanden?Google Rich Results Test
Interne VerlinkungSind alle wichtigen Seiten intern erreichbar und verlinkt?Screaming Frog, Search Console → Links
404-FehlerGibt es defekte Links die auf nicht-existente Seiten zeigen?Google Search Console → Pages → Not found

Alle zehn Punkte können Sie ohne bezahlte Tools prüfen. Die Google Search Console ist kostenlos und deckt die wichtigsten Bereiche ab. PageSpeed Insights ebenfalls. Wer mehr Tiefe braucht kann Screaming Frog in der kostenlosen Version (bis 500 URLs) nutzen.

Tipp
Wenn Sie noch keine Google Search Console eingerichtet haben ist das der erste Schritt vor allem anderen. Die Search Console zeigt Ihnen genau welche Seiten indexiert sind, welche Fehler Google gefunden hat und wie Ihre Seite in den Suchergebnissen erscheint. Kostenfrei, von Google bereitgestellt und unverzichtbar.
DAS FUNDAMENT

Crawling und Indexierung: Die Grundlage

Bevor eine Seite ranken kann muss sie indexiert sein. Bevor sie indexiert sein kann muss sie gecrawlt werden. Bevor sie gecrawlt werden kann darf die robots.txt das Crawling nicht blockieren. Diese Kette ist die absolute Basis und trotzdem der häufigste Fehler bei kleinen Unternehmen.

1
robots.txt: Was sie darf und was nichtSchritt 1

Die robots.txt sagt Crawlern welche Bereiche Sie nicht indexieren möchten. Häufiger Fehler: Die Datei blockiert CSS- oder JavaScript-Dateien. Google kann die Seite dann nicht korrekt rendern und versteht das Layout nicht. Öffnen Sie ihredomain.de/robots.txt und prüfen Sie ob "Disallow: /" eingetragen ist oder wichtige Verzeichnisse blockiert werden. Die Sitemap-URL sollte dort eingetragen sein: "Sitemap: https://ihredomain.de/sitemap.xml".

2
XML-Sitemap: Das Inhaltsverzeichnis für BotsSchritt 2

Eine Sitemap ist eine XML-Datei die alle wichtigen URLs Ihrer Seite auflistet. Sie enthält lastmod-Daten die Google als Freshness-Signal nutzt. Reichen Sie Ihre Sitemap in der Google Search Console ein und verlinken Sie sie in der robots.txt. Wichtig: Neue Seiten erscheinen schneller im Index wenn die Sitemap sie enthält. KI-Crawler wie GPTBot und Perplexitybot nutzen Sitemaps ebenfalls aktiv.

3
Index-Check: Sind Ihre Seiten wirklich drin?Schritt 3

Geben Sie in Google "site:ihredomain.de" ein. Die Trefferliste zeigt welche Seiten indexiert sind. Fehlen wichtige Seiten prüfen Sie in der Search Console ob dort Crawling-Fehler gemeldet werden. Suchen Sie nach "noindex"-Tags im Quelltext der betroffenen Seiten. Viele CMS setzen diesen Tag in der Testphase und vergessen ihn nach dem Launch zu entfernen.

Seit GPTBot, Perplexitybot und andere KI-Crawler das Web systematisch crawlen ist die robots.txt eine Datei die für zwei Zielgruppen gleichzeitig relevant ist. Was Sie für Google konfigurieren beeinflusst auch ob KI-Systeme Ihre Inhalte finden und zitieren. Mehr dazu im Artikel Die Webseite die von Suchmaschinen und KI belohnt wird.

Hinweis
Prüfen Sie nach jedem größeren Update Ihrer Webseite ob die robots.txt noch korrekt ist. Viele Webseiten-Relaunchs bringen unbeabsichtigt eine neue robots.txt mit die wichtige Bereiche blockiert. Die Google Search Console warnt Sie wenn Crawling-Probleme auftreten.
Nächster Schritt

Welche technischen Fehler kosten Ihnen heute Traffic?

Kostenloses Audit anfordern
KRITISCHER FAKTOR

Pagespeed: Voraussetzung, nicht Bonus

Seit dem Page Experience Update 2021 sind die Core Web Vitals direkter Bestandteil des Google-Rankings. Seit 2024 haben LCP, CLS und INP den FID als dritten Messwert abgelöst. Was sie messen ist das tatsächliche Nutzererlebnis: Wie schnell lädt die Seite? Verschiebt sich der Inhalt beim Laden? Wie schnell reagiert die Seite auf Eingaben?

2021
Seit diesem Jahr ist Page Speed direkter Google-Rankingfaktor
Core Web Vitals sind keine technische Empfehlung. Sie sind Ranking-Kriterien. Wer sie nicht erfüllt verliert Positionen an Wettbewerber die es tun.

Die drei Core Web Vitals im Überblick: Der Largest Contentful Paint (LCP) misst wie schnell das größte sichtbare Element geladen ist. Zielwert unter 2,5 Sekunden. Der Cumulative Layout Shift (CLS) misst wie stark Elemente beim Laden ihre Position wechseln. Zielwert unter 0,1. Der Interaction to Next Paint (INP) misst wie schnell die Seite auf Nutzereingaben reagiert. Zielwert unter 200 Millisekunden.

Was die häufigsten Ursachen für schlechte Werte sind und wie Sie diese beheben lesen Sie im detaillierten Artikel Core Web Vitals: Was sie bedeuten und was man tun muss. Für den ersten Check reicht PageSpeed Insights: Geben Sie Ihre URL ein und prüfen Sie ob alle drei Werte im grünen Bereich liegen.

Hinweis
PageSpeed Insights zeigt zwei Werte: Labor-Daten und Felddaten. Die Felddaten zeigen das echte Nutzererlebnis auf Basis von Chrome-Nutzern. Die Labordaten basieren auf einer simulierten Umgebung. Für Google Rankings zählen primär die Felddaten. Wenn die Felddaten rot sind müssen Sie handeln.

Die häufigsten Ursachen für schlechte Core Web Vitals: nicht optimierte Bilder (LCP), fehlende Größenangaben für Bilder und iFrames (CLS), zu viel JavaScript das beim Laden blockiert (INP und LCP). Viele dieser Probleme lassen sich mit einfachen Maßnahmen beheben, zum Beispiel durch das Einbinden eines Caching-Plugins oder die Konvertierung von Bildern in das WebP-Format.

ZWEI ZIELGRUPPEN

Seitenstruktur: Was Google und KI-Bots sehen

Die Seitenstruktur beeinflusst gleichzeitig Crawling, Indexierung und Nutzererfahrung. Eine logische URL-Hierarchie, eine klare interne Verlinkung und saubere Überschriftenstruktur sind keine Design-Entscheidungen. Sie sind SEO-Entscheidungen.

Expert Insight

Seit GPTBot und Perplexitybot Webseiten systematisch crawlen haben kleine Unternehmen zwei Zielgruppen die ihre Seitenstruktur auswerten: Google und KI-Systeme. Was für Google funktioniert, eine klare Hierarchie, strukturierte Daten, logische interne Verlinkung, ist exakt das was KI-Crawler bevorzugen. Es ist keine separate Aufgabe. Es ist dieselbe Basis.

Florian Husen, x10a

Strukturierte Daten im Schema.org-Format sind das effektivste Mittel um Informationen für beide Zielgruppen gleichzeitig aufzubereiten. Ein LocalBusiness-Markup teilt Google und KI-Bots mit: Wer ist das Unternehmen, was bietet es an, wo ist es erreichbar, wann hat es geöffnet. Diese Informationen helfen Google Rich Snippets zu generieren und KI-Systemen präzise Antworten auf Nutzeranfragen zu geben.

Strukturelle Grundregeln
  • Jede Seite hat genau eine H1-Überschrift mit dem Primär-Keyword.
  • URLs sind sprechend und ohne unnötige Parameter: /leistungen/heizung statt /page?id=42.
  • Jede wichtige Seite ist maximal 3 Klicks von der Startseite entfernt.
  • Interne Links verwenden beschreibende Ankertexte statt "hier klicken".
  • Duplicate Content wird per canonical Tag oder noindex verhindert.
  • Strukturierte Daten (Schema.org) sind für Unternehmen, Dienstleistungen und Artikel implementiert.

Die interne Verlinkung ist einer der am häufigsten unterschätzten technischen Faktoren. Sie verteilt Autorität innerhalb der Webseite und hilft Google die thematischen Zusammenhänge zu verstehen. Wenn Ihre Service-Seite nicht von der Startseite und anderen relevanten Seiten verlinkt ist verliert sie Ranking-Potenzial, unabhängig davon wie gut der Inhalt ist.

Wie Seitenstruktur und Content-Strategie zusammenwirken erklärt der Artikel Google Search Console verstehen: Welche Signale Google dort auswertet und wie Sie Ihre Seitenstruktur gezielt optimieren können.

ENTSCHEIDUNGSHILFE

Was Sie selbst prüfen können und wann Sie Hilfe brauchen

Nicht alles an technischem SEO erfordert professionelle Unterstützung. Ein großer Teil der Grundlagen ist mit kostenlosen Tools und etwas Zeit selbst prüfbar. Aber es gibt Bereiche wo Fehler versteckt sind und wo ein falscher Eingriff mehr schaden als nützen kann. Die folgende Übersicht hilft bei der Einschätzung.

KriteriumSelbst machbarProfi sinnvoll
IndexierungsstatusSearch Console prüfen, site:-Abfrage in GoogleBei komplexen Crawling-Problemen oder JavaScript-lastigen Seiten
robots.txtInhalt prüfen ob wichtige Seiten blockiert sindKonfiguration anpassen erfordert Kenntnis der Syntax
Core Web VitalsPageSpeed Insights auswerten und Ergebnisse verstehenTechnische Ursachen beheben (Rendering, JS-Optimierung)
HTTPS-StatusIm Browser und mit Why No Padlock prüfenSSL-Zertifikat einrichten oder Mixed Content bereinigen
Strukturierte DatenMit Rich Results Test vorhandene Markups prüfenImplementierung von Schema.org erfordert technisches Wissen
CanonicalizationIm Quelltext nach canonical-Tags suchenKonflikte zwischen canonical, noindex und Sitemap auflösen
Mobile UsabilitySearch Console-Bericht auswerten und selbst testenResponsive-Design-Probleme im CSS beheben
Internationale SEONicht relevant für die meisten kleinen UnternehmenHreflang-Konfiguration bei mehrsprachigen Seiten

Die Grundregel: Prüfen ist fast immer selbst machbar. Eingreifen erfordert mehr Kontext. Die Google Search Console erklärt die meisten Fehler verständlich und gibt Handlungsempfehlungen. Wenn die Empfehlung technisch klingt und Sie sich unsicher sind lohnt sich eine professionelle Einschätzung bevor Sie etwas verschlimmern.

Tipp
Richten Sie in der Google Search Console E-Mail-Benachrichtigungen ein. Sie werden dann automatisch informiert wenn neue Indexierungsprobleme, Crawling-Fehler oder Manual Actions auftreten. Das ersetzt keine regelmäßige Prüfung, stellt aber sicher dass kritische Probleme nicht wochenlang unentdeckt bleiben.
HÄUFIGE FRAGEN

Häufig gestellte Fragen

Zusammenfassung

Technisches SEO: Die Checkliste für kleine Unternehmen

  • Crawling und Indexierung sind die Grundlage. Ohne korrekte Indexierung existiert Ihre Seite für Google und KI-Bots nicht. Prüfen Sie dies als erstes.
  • Die robots.txt darf CSS und JavaScript nicht blockieren. Viele Seiten haben hier versteckte Fehler die Ranking-Potenzial kosten.
  • Eine XML-Sitemap mit lastmod-Daten hilft Google, Bing und KI-Crawlern Ihre Inhalte zu finden und als frisch einzustufen.
  • Page Speed ist seit 2021 direkter Rankingfaktor. Core Web Vitals messen was Nutzer erleben. Rot bedeutet Handlungsbedarf.
  • 8 bis 10 technische Punkte decken 90% der Wirkung ab. Starten Sie damit statt sich in 200-Punkte-Listen zu verlieren.
Kostenloses Audit starten
F
Florian HusenGründer, x10a

Baut Content-Systeme die für kleine Unternehmen arbeiten. Verbindet strategische Tiefe mit KI-Geschwindigkeit.

Veröffentlicht 24. Mai 2026
Quellen
  1. 01
    Technical SEO Checklist 2026DebugBear · 2026
    Quelle öffnen →
  2. 02
    Where to Focus Technical SEOSearch Engine Land · 2024
    Quelle öffnen →