Technisches SEO: Die Checkliste für kleine Unternehmen
Technisches SEO klingt nach Entwickler-Kram. Es gibt 200-Punkte-Checklisten, Crawler-Tools und endlose Konfigurationsoptionen. Für kleine Unternehmen ist das die falsche Perspektive. 8 bis 10 Punkte decken 90% der Wirkung ab. Den Rest ignorieren Sie bis die Basis steht.
Dieser Artikel erklärt was technisches SEO für kleine Unternehmen tatsächlich bedeutet: Welche 10 Punkte den größten Unterschied machen, wie Crawling und Indexierung funktionieren, warum Page Speed kein Nice-to-Have ist und was Sie heute selbst prüfen können.
- Ohne korrekte Indexierung existiert Ihre Seite für Google nicht. Prüfen Sie als erstes ob Ihre wichtigsten Seiten im Index sind.
- Page Speed ist seit 2021 ein direkter Rankingfaktor. Testen Sie Ihre Seite mit PageSpeed Insights und beheben Sie alles was rot ist.
- Eine XML-Sitemap hilft Google und KI-Bots Ihre Seiten zu finden. Erstellen Sie eine und verlinken Sie sie in der robots.txt.
- KI-Bots wie GPTBot crawlen Ihre Seite neben Google. Strukturierte Daten helfen beiden Zielgruppen.
- 8 bis 10 technische Punkte decken 90% der Wirkung ab. Starten Sie damit statt sich in 200-Punkte-Listen zu verlieren.
Warum technisches SEO einfacher ist als Sie denken
Technisches SEO wird als Expertenthema verkauft. Crawler-Protokolle, Render-Budgets, hreflang-Tags, canonicalization. Es gibt SEO-Agenturen die ausschließlich mit technischen Audits Geld verdienen und Listen mit 200 Prüfpunkten produzieren. Das ist ihr Geschäftsmodell. Es ist nicht Ihre Realität.
Für ein kleines Unternehmen mit einer normalen Unternehmenswebseite gibt es eine überschaubare Anzahl technischer Faktoren die wirklich zählen. Wer diese Basis sauber hat gewinnt gegenüber dem Großteil des Wettbewerbs, der dieselbe Basis hat liegen lassen. Wer dann noch mehr will kann weitermachen. Aber der erste Schritt ist nicht Komplexität. Er ist Klarheit.
Technisches SEO beschreibt alle Maßnahmen die dafür sorgen dass Google und andere Suchmaschinen Ihre Webseite korrekt crawlen, verstehen und indexieren können. Es ist die Grundlage auf der Content-Strategie und Linkaufbau wirken können. Ohne solide technische Basis verpufft jede inhaltliche Investition zumindest teilweise.
Die gute Nachricht: Die meisten Punkte sind einmal erledigt und erfordern dann nur noch gelegentliche Pflege. Technisches SEO ist kein wöchentlicher Aufwand. Es ist eine einmalige Investition mit dauerhafter Wirkung, solange Sie bei größeren Änderungen an der Webseite kurz prüfen ob alles noch stimmt.
Die meisten kleinen Unternehmen haben keine technischen SEO-Probleme weil sie zu wenig wissen. Sie haben sie weil niemand je geschaut hat. Ein einmaliger Check mit den richtigen Tools deckt 80% der Probleme auf. Der Rest findet sich wenn man anfängt den Traffic zu beobachten.
Die 10-Punkte-Checkliste: Was Sie prüfen müssen
Diese Tabelle zeigt die zehn kritischsten technischen SEO-Punkte für kleine Unternehmen, was konkret zu prüfen ist und welches Tool dabei hilft. Jeder Punkt hat eine direkte Auswirkung auf Sichtbarkeit oder Nutzerverhalten.
| Kriterium | Was prüfen | Tool |
|---|---|---|
| Indexierungsstatus | Sind Ihre wichtigsten Seiten im Google-Index? | Google Search Console → Coverage |
| robots.txt | Blockiert die Datei keine CSS, JS oder wichtigen Seiten? | ihredomain.de/robots.txt direkt aufrufen |
| XML-Sitemap | Existiert eine Sitemap mit aktuellen lastmod-Daten? | Google Search Console → Sitemaps |
| HTTPS | Läuft die gesamte Seite über HTTPS ohne Mixed Content? | Browser-Adresszeile, Why No Padlock |
| Core Web Vitals | Bestehen LCP, CLS und INP die Google-Schwellenwerte? | PageSpeed Insights, Search Console CWV-Bericht |
| Mobile Usability | Ist die Seite auf Smartphones vollständig nutzbar? | Google Search Console → Mobile Usability |
| Canonical Tags | Verweisen Seiten auf die kanonische URL ohne Konflikte? | Seitenquelltext, Screaming Frog (kostenlos bis 500 URLs) |
| Strukturierte Daten | Sind Schema.org-Markups für Unternehmen und Inhalte vorhanden? | Google Rich Results Test |
| Interne Verlinkung | Sind alle wichtigen Seiten intern erreichbar und verlinkt? | Screaming Frog, Search Console → Links |
| 404-Fehler | Gibt es defekte Links die auf nicht-existente Seiten zeigen? | Google Search Console → Pages → Not found |
Alle zehn Punkte können Sie ohne bezahlte Tools prüfen. Die Google Search Console ist kostenlos und deckt die wichtigsten Bereiche ab. PageSpeed Insights ebenfalls. Wer mehr Tiefe braucht kann Screaming Frog in der kostenlosen Version (bis 500 URLs) nutzen.
Crawling und Indexierung: Die Grundlage
Bevor eine Seite ranken kann muss sie indexiert sein. Bevor sie indexiert sein kann muss sie gecrawlt werden. Bevor sie gecrawlt werden kann darf die robots.txt das Crawling nicht blockieren. Diese Kette ist die absolute Basis und trotzdem der häufigste Fehler bei kleinen Unternehmen.
Die robots.txt sagt Crawlern welche Bereiche Sie nicht indexieren möchten. Häufiger Fehler: Die Datei blockiert CSS- oder JavaScript-Dateien. Google kann die Seite dann nicht korrekt rendern und versteht das Layout nicht. Öffnen Sie ihredomain.de/robots.txt und prüfen Sie ob "Disallow: /" eingetragen ist oder wichtige Verzeichnisse blockiert werden. Die Sitemap-URL sollte dort eingetragen sein: "Sitemap: https://ihredomain.de/sitemap.xml".
Eine Sitemap ist eine XML-Datei die alle wichtigen URLs Ihrer Seite auflistet. Sie enthält lastmod-Daten die Google als Freshness-Signal nutzt. Reichen Sie Ihre Sitemap in der Google Search Console ein und verlinken Sie sie in der robots.txt. Wichtig: Neue Seiten erscheinen schneller im Index wenn die Sitemap sie enthält. KI-Crawler wie GPTBot und Perplexitybot nutzen Sitemaps ebenfalls aktiv.
Geben Sie in Google "site:ihredomain.de" ein. Die Trefferliste zeigt welche Seiten indexiert sind. Fehlen wichtige Seiten prüfen Sie in der Search Console ob dort Crawling-Fehler gemeldet werden. Suchen Sie nach "noindex"-Tags im Quelltext der betroffenen Seiten. Viele CMS setzen diesen Tag in der Testphase und vergessen ihn nach dem Launch zu entfernen.
Seit GPTBot, Perplexitybot und andere KI-Crawler das Web systematisch crawlen ist die robots.txt eine Datei die für zwei Zielgruppen gleichzeitig relevant ist. Was Sie für Google konfigurieren beeinflusst auch ob KI-Systeme Ihre Inhalte finden und zitieren. Mehr dazu im Artikel Die Webseite die von Suchmaschinen und KI belohnt wird.
Pagespeed: Voraussetzung, nicht Bonus
Seit dem Page Experience Update 2021 sind die Core Web Vitals direkter Bestandteil des Google-Rankings. Seit 2024 haben LCP, CLS und INP den FID als dritten Messwert abgelöst. Was sie messen ist das tatsächliche Nutzererlebnis: Wie schnell lädt die Seite? Verschiebt sich der Inhalt beim Laden? Wie schnell reagiert die Seite auf Eingaben?
Die drei Core Web Vitals im Überblick: Der Largest Contentful Paint (LCP) misst wie schnell das größte sichtbare Element geladen ist. Zielwert unter 2,5 Sekunden. Der Cumulative Layout Shift (CLS) misst wie stark Elemente beim Laden ihre Position wechseln. Zielwert unter 0,1. Der Interaction to Next Paint (INP) misst wie schnell die Seite auf Nutzereingaben reagiert. Zielwert unter 200 Millisekunden.
Was die häufigsten Ursachen für schlechte Werte sind und wie Sie diese beheben lesen Sie im detaillierten Artikel Core Web Vitals: Was sie bedeuten und was man tun muss. Für den ersten Check reicht PageSpeed Insights: Geben Sie Ihre URL ein und prüfen Sie ob alle drei Werte im grünen Bereich liegen.
Die häufigsten Ursachen für schlechte Core Web Vitals: nicht optimierte Bilder (LCP), fehlende Größenangaben für Bilder und iFrames (CLS), zu viel JavaScript das beim Laden blockiert (INP und LCP). Viele dieser Probleme lassen sich mit einfachen Maßnahmen beheben, zum Beispiel durch das Einbinden eines Caching-Plugins oder die Konvertierung von Bildern in das WebP-Format.
Seitenstruktur: Was Google und KI-Bots sehen
Die Seitenstruktur beeinflusst gleichzeitig Crawling, Indexierung und Nutzererfahrung. Eine logische URL-Hierarchie, eine klare interne Verlinkung und saubere Überschriftenstruktur sind keine Design-Entscheidungen. Sie sind SEO-Entscheidungen.
Seit GPTBot und Perplexitybot Webseiten systematisch crawlen haben kleine Unternehmen zwei Zielgruppen die ihre Seitenstruktur auswerten: Google und KI-Systeme. Was für Google funktioniert, eine klare Hierarchie, strukturierte Daten, logische interne Verlinkung, ist exakt das was KI-Crawler bevorzugen. Es ist keine separate Aufgabe. Es ist dieselbe Basis.
Strukturierte Daten im Schema.org-Format sind das effektivste Mittel um Informationen für beide Zielgruppen gleichzeitig aufzubereiten. Ein LocalBusiness-Markup teilt Google und KI-Bots mit: Wer ist das Unternehmen, was bietet es an, wo ist es erreichbar, wann hat es geöffnet. Diese Informationen helfen Google Rich Snippets zu generieren und KI-Systemen präzise Antworten auf Nutzeranfragen zu geben.
- Jede Seite hat genau eine H1-Überschrift mit dem Primär-Keyword.
- URLs sind sprechend und ohne unnötige Parameter: /leistungen/heizung statt /page?id=42.
- Jede wichtige Seite ist maximal 3 Klicks von der Startseite entfernt.
- Interne Links verwenden beschreibende Ankertexte statt "hier klicken".
- Duplicate Content wird per canonical Tag oder noindex verhindert.
- Strukturierte Daten (Schema.org) sind für Unternehmen, Dienstleistungen und Artikel implementiert.
Die interne Verlinkung ist einer der am häufigsten unterschätzten technischen Faktoren. Sie verteilt Autorität innerhalb der Webseite und hilft Google die thematischen Zusammenhänge zu verstehen. Wenn Ihre Service-Seite nicht von der Startseite und anderen relevanten Seiten verlinkt ist verliert sie Ranking-Potenzial, unabhängig davon wie gut der Inhalt ist.
Wie Seitenstruktur und Content-Strategie zusammenwirken erklärt der Artikel Google Search Console verstehen: Welche Signale Google dort auswertet und wie Sie Ihre Seitenstruktur gezielt optimieren können.
Was Sie selbst prüfen können und wann Sie Hilfe brauchen
Nicht alles an technischem SEO erfordert professionelle Unterstützung. Ein großer Teil der Grundlagen ist mit kostenlosen Tools und etwas Zeit selbst prüfbar. Aber es gibt Bereiche wo Fehler versteckt sind und wo ein falscher Eingriff mehr schaden als nützen kann. Die folgende Übersicht hilft bei der Einschätzung.
| Kriterium | Selbst machbar | Profi sinnvoll |
|---|---|---|
| Indexierungsstatus | Search Console prüfen, site:-Abfrage in Google | Bei komplexen Crawling-Problemen oder JavaScript-lastigen Seiten |
| robots.txt | Inhalt prüfen ob wichtige Seiten blockiert sind | Konfiguration anpassen erfordert Kenntnis der Syntax |
| Core Web Vitals | PageSpeed Insights auswerten und Ergebnisse verstehen | Technische Ursachen beheben (Rendering, JS-Optimierung) |
| HTTPS-Status | Im Browser und mit Why No Padlock prüfen | SSL-Zertifikat einrichten oder Mixed Content bereinigen |
| Strukturierte Daten | Mit Rich Results Test vorhandene Markups prüfen | Implementierung von Schema.org erfordert technisches Wissen |
| Canonicalization | Im Quelltext nach canonical-Tags suchen | Konflikte zwischen canonical, noindex und Sitemap auflösen |
| Mobile Usability | Search Console-Bericht auswerten und selbst testen | Responsive-Design-Probleme im CSS beheben |
| Internationale SEO | Nicht relevant für die meisten kleinen Unternehmen | Hreflang-Konfiguration bei mehrsprachigen Seiten |
Die Grundregel: Prüfen ist fast immer selbst machbar. Eingreifen erfordert mehr Kontext. Die Google Search Console erklärt die meisten Fehler verständlich und gibt Handlungsempfehlungen. Wenn die Empfehlung technisch klingt und Sie sich unsicher sind lohnt sich eine professionelle Einschätzung bevor Sie etwas verschlimmern.
Häufig gestellte Fragen
Technisches SEO: Die Checkliste für kleine Unternehmen
- Crawling und Indexierung sind die Grundlage. Ohne korrekte Indexierung existiert Ihre Seite für Google und KI-Bots nicht. Prüfen Sie dies als erstes.
- Die robots.txt darf CSS und JavaScript nicht blockieren. Viele Seiten haben hier versteckte Fehler die Ranking-Potenzial kosten.
- Eine XML-Sitemap mit lastmod-Daten hilft Google, Bing und KI-Crawlern Ihre Inhalte zu finden und als frisch einzustufen.
- Page Speed ist seit 2021 direkter Rankingfaktor. Core Web Vitals messen was Nutzer erleben. Rot bedeutet Handlungsbedarf.
- 8 bis 10 technische Punkte decken 90% der Wirkung ab. Starten Sie damit statt sich in 200-Punkte-Listen zu verlieren.
Baut Content-Systeme die für kleine Unternehmen arbeiten. Verbindet strategische Tiefe mit KI-Geschwindigkeit.
- 01Technical SEO Checklist 2026DebugBear · 2026Quelle öffnen →
- 02Where to Focus Technical SEOSearch Engine Land · 2024Quelle öffnen →