Kurz zusammengefasst
• Googlebot crawlt nur die ersten 2MB unkomprimiertes HTML pro Seite.
• Inhalte darüber hinaus werden möglicherweise nicht verarbeitet oder indexiert.
• Es gibt keine Warnung in der Google Search Console, wenn eine Seite abgeschnitten wird.
• Große Kategorie-Seiten und Page-Builder-Templates sind besonders betroffen.
• Mit der XOVI Onpage Analyse kannst du große Seiten schnell identifizieren und strukturell prüfen.
Die offizielle Googlebot-Dokumentation wurde aktualisiert und stellt klar: Beim Crawlen für die Google Suche verarbeitet der Googlebot nur die ersten 2MB unkomprimiertes HTML. Sobald dieses Limit erreicht ist, stoppt der Abruf. Nur der heruntergeladene Teil wird für die Indexierung berücksichtigt.
Es gibt keine Warnung. Keinen Fehlercode. Kein Signal in der Search Console.
Das ist kein neues Update und keine Penalty. Es ist eine technische Einschränkung, die jetzt offiziell dokumentiert wurde. Für Agenturen mit komplexen Kundenprojekten kann das trotzdem relevant sein.
Was genau in der Dokumentation steht
In der offiziellen Googlebot-Dokumentation wird ausdrücklich erwähnt, dass das 2MB-Limit für unkomprimiertes HTML und andere unterstützte Dateitypen gilt. Überschreitet eine Seite diese Größe, wird der Abruf an dieser Stelle beendet und nur der geladene Teil indexiert.
Wichtig ist das Wort unkomprimiert.
Gzip reduziert die Größe beim Transfer, aber Google bewertet das entpackte HTML. Eine Seite, die als 300KB übertragen wird, kann entpackt problemlos über 2MB liegen, je nach Struktur des HTML.
Welche Seitentypen besonders betroffen sind
Die meisten Seiten liegen deutlich unter 2MB. Ein normaler Blogartikel oder eine sauber gebaute Produktseite ist in der Regel unkritisch.
Relevant wird es bei:
E-Commerce Kategorie-Seiten
Kategorie-Seiten mit 200+ Produkten, ausführlichen Beschreibungen, Schema Markup und eingebetteter Filterlogik können schnell groß werden. Wird das Limit erreicht, werden Produkte oder interne Links im unteren Bereich möglicherweise nicht gecrawlt.
Facettierte Navigation
Filter-Kombinationen erzeugen oft sehr viel HTML, besonders wenn alle Zustände im DOM gerendert werden statt dynamisch zu laden. URLs mit hunderten Parameter-Kombinationen sind klassische Kandidaten für zu große Seiten.
Page-Builder-lastige WordPress-Seiten
Elementor, Divi oder WPBakery erzeugen oft sehr viel Markup. Eine einzelne Sektion kann ein Vielfaches an HTML produzieren im Vergleich zu sauberem Code. Viele solcher Sektionen summieren sich schnell.
Große FAQ-Bereiche
FAQs werden oft schrittweise ergänzt und selten hinsichtlich Gesamtgröße überprüft. Eine Seite mit 80 ausgeklappten Fragen, Schema Markup, Header und Footer kann das Limit unbemerkt überschreiten.
Die praktischen Risiken
Inhalte nach dem Limit werden nicht verarbeitet
Wenn der Googlebot bei 2MB stoppt, wird alles danach nicht berücksichtigt. Bei Kategorie-Seiten können das die letzten 50 Produkte sein.
Interne Links werden nicht entdeckt
Google entdeckt neue URLs über HTML-Links. Liegen diese nach dem 2MB-Punkt, werden sie bei diesem Crawl nicht erfasst.
Ranking-Schwankungen ohne klares Signal
Grenzfälle können mal unter, mal über dem Limit liegen, je nach Rendering oder Tests. Es gibt keinen Bericht in der Search Console. Du siehst vielleicht nur Ranking-Schwankungen ohne offensichtlichen Grund.
Was viele Agenturen falsch einschätzen
Viele denken, ein Page-Speed-Test deckt das Problem ab. Das stimmt nicht.
Page-Speed-Tools messen die Transfergröße, nicht das unkomprimierte HTML. Eine Seite kann bei Core Web Vitals sehr gut abschneiden und trotzdem 3MB unkomprimiertes HTML liefern.
Performance und Crawlability sind verwandt, aber nicht dasselbe.
Auswirkungen auf AI Search
AI-basierte Suchsysteme wie AI Overviews oder andere Retrieval-Features arbeiten ebenfalls mit strukturiertem und zugänglichem HTML. Wenn ein Crawler eine Seite nicht vollständig verarbeiten kann, kann auch die Interpretation unvollständig sein.
Das bedeutet nicht automatisch eine Abstrafung in AI-Ergebnissen. Aber sauberes, vollständig crawlbares HTML gibt diesen Systemen mehr Kontext.
Eine bei 2MB abgeschnittene Seite ist nur teilweise gelesen. Und eine teilweise gelesene Seite kann inkonsistent dargestellt werden.
Strukturelle Klarheit unterstützt stabile Sichtbarkeit, sowohl in der klassischen Suche als auch in AI-basierten Umgebungen.
Für Agenturen, die zusätzlich beobachten möchten, wie AI-Systeme Marken, Produkte und Services interpretieren, bietet XOVI AI Transparenz darüber, wie Inhalte in verschiedenen AI-Plattformen dargestellt werden. Technischsaubere Strukturen bilden dafür die Grundlage.
So prüfst du das in XOVI
Hier kommt strukturelle Transparenz ins Spiel.
Die XOVI Onpage Analyse zeigt dir die URL-Dateigröße und die Verteilung der Seitengrößen innerhalb einer Domain. So erkennst du schnell, welche Seiten potenziell zu viel HTML erzeugen.
Wichtig: XOVI misst keine direkte Google-Trunkierung. Die Dateigröße ist ein technischer Indikator für strukturelles Risiko, kein garantierter Wert dessen, was Google tatsächlich verarbeitet.
Schritt für Schritt:
- Starte ein Site Audit für deine Domain.
- Gehe zu Geschwindigkeit → URL Dateigröße.
- Sortiere nach Größe, größte zuerst.
- Prüfe Seiten über 1,5MB besonders genau.
- Identifiziere betroffene Templates wie Kategorie-Seiten, Builder-Seiten oder FAQ-Hubs.
- Priorisiere strukturelle Optimierung bei Seiten nahe oder über 2MB.
Schneller Check (bestehende Analyse)
Wenn bereits eine Analyse läuft, kannst du alternativ auch:
- Zu Onage Analyse → Analyse → Overview gehen
- Auf Technologie klicken
- Nach dem Fehler „Hohe Gesamtgröße“ suchen
Dort werden Seiten angezeigt, bei denen die Dateigröße bereits als technisches Problem markiert wurde. Das kann ein schneller Einstieg für deine Prüfung sein.

Seiten über 1,5MB solltest du im Blick behalten. Das gibt dir Puffer vor dem dokumentierten Limit.
Was tun, wenn eine Seite zu groß ist?
Typische Maßnahmen:
• Weniger Produkte pro Kategorie anzeigen. 50 oder 100 sind oft sinnvoller als 300+.
• Serverseitige Filter nutzen statt alle Filterzustände im DOM zu rendern.
• Doppelte oder überflüssige Schema-Markup-Blöcke entfernen.
• Unnötige Builder-Elemente bereinigen.
• Große FAQ-Bereiche schlanker strukturieren.
• Rendering-Logik prüfen, wenn das ausgegebene HTML unverhältnismäßig groß ist.
Strukturelle Größe ist kein direkter Rankingfaktor. Aber sie kann beeinflussen, was Google tatsächlich verarbeitet und indexiert.
Fazit
Google hat keine neue Regel eingeführt. Das Limit wurde klar dokumentiert.
Agenturen, die ihre größten Templates kennen und regelmäßig prüfen, haben hier einen klaren Vorteil.
Bereit, deine Kundenprojekte zu prüfen?
Starte eine Onpage Analyse für deine größten Kunden-Domains und analysiere die Dateigrößen-Verteilung. Strukturelle Probleme wachsen oft leise. Wer sie früh erkennt, behält die Kontrolle.
Neu bei XOVI?
Du kannst alles selbst testen.
Starte eine 14-tägige kostenlose Testphase. Keine Kreditkarte erforderlich.
Melde dich an und führe deine erste Onpage Analyse in wenigen Minuten durch.
Häufige Fragen
Laut offizieller Googlebot-Dokumentation verarbeitet Googlebot nur die ersten 2MB unkomprimiertes HTML pro Seite. Inhalte darüber hinaus werden nicht berücksichtigt.
Nein. Das Limit bezieht sich auf unkomprimiertes HTML. Google entpackt die Inhalte vor der Bewertung.
Es gibt kein direktes Signal in der Search Console. Ein Crawl-Tool wie die XOVI Onpage Analyse zeigt dir die Dateigröße pro URL und hilft, große Seiten schnell zu identifizieren.
Nein direkt. Core Web Vitals messen Nutzer-Performance. Das 2MB-Limit betrifft die verarbeitete HTML-Größe. Das sind unterschiedliche Messgrößen.
Nicht als direkte Abstrafung. Aber AI-Systeme arbeiten ebenfalls mit strukturiertem HTML. Vollständig crawlbare Seiten unterstützen konsistente Darstellung in klassischen und AI-basierten Suchumgebungen.