Du scrollst durch TikTok, und plötzlich schreit dich jemand an: „WARNUNG! Google hat das Crawling-Budget um 86 % reduziert!" Dein Puls steigt. „Scheisse, jetzt findet mich niemand mehr auf Google." Kurz bevor du deinen Webentwickler um 22 Uhr anrufst – durchatmen. Wir schauen uns an, was wirklich passiert ist. Spoiler: Es ist nicht ganz so dramatisch.
Anfang Februar 2026 hat Google seine offizielle Dokumentation aktualisiert. Neu steht dort schwarz auf weiss: Der Googlebot – also der kleine digitale Roboter, der deine Website besucht und für Google „liest" – verarbeitet bei HTML-Dateien nur noch die ersten 2 Megabyte (MB) pro Seite. Bei PDFs sind es 64 MB. (Quelle: Google Googlebot-Dokumentation)
Vorher stand in Googles Dokumentation die Zahl 15 MB. Das wurde 2022 im offiziellen Google Search Central Blog so kommuniziert. (Quelle: Google Search Central Blog, Juni 2022)
Von 15 auf 2 – das klingt nach einem massiven Einschnitt, oder? Genau deshalb sind auf Social Media die Alarmglocken losgegangen.
Hier kommt der entscheidende Punkt, den die meisten TikTok-Videos weglassen: Google sagt selbst, dass sich nichts geändert hat. John Mueller, einer der bekanntesten Google-Sprecher, hat auf Bluesky geschrieben: „None of these recently changed, we just wanted to document them in more detail." – Nichts davon hat sich kürzlich geändert, wir wollten es nur genauer dokumentieren. (Quelle: John Mueller auf Bluesky, 6. Februar 2026)
Auch im offiziellen Google-Änderungsprotokoll vom 3. Februar 2026 steht: Es handelt sich um eine Dokumentationsklarstellung – nicht um eine neue Regel. (Quelle: Google Search Central – Documentation Updates)
Die 15 MB existieren übrigens weiterhin – als Standard-Limit für Googles allgemeine Crawling-Infrastruktur. Die 2 MB gelten spezifisch für den Googlebot, der deine Website für die Suche indexiert. Google hat seine Dokumentation aufgeräumt und genauer aufgeschlüsselt. (Quelle: Google Crawling Infrastructure Overview)
Stell dir vor, Google schickt einen Mitarbeiter in eine Bibliothek (deine Website). Dieser Mitarbeiter hat einen Rucksack mit begrenztem Platz. Das Crawling-Limit bestimmt, wie viel von einem einzelnen Buch (einer einzelnen Seite) er mitnehmen kann. Ist das Buch dicker als der Rucksack fasst, nimmt er nur den Anfang mit – den Rest lässt er liegen.
Wichtig: Das ist nicht dasselbe wie das oft zitierte „Crawl-Budget". Das Crawl-Budget bestimmt, wie viele Bücher (Seiten) Google insgesamt in deiner Bibliothek anschaut. Das Dateilimit bestimmt, wie viel pro Buch gelesen wird. Zwei komplett verschiedene Dinge – auch wenn sie auf Social Media ständig vermischt werden. (Quelle: Google Search Central Blog – Crawl Budget, 2017)
Das ist wahrscheinlich der grösste Denkfehler bei diesem Thema. Wenn du deine Website im Browser öffnest und in die Entwicklertools schaust, siehst du oft eine Gesamtgrösse von mehreren Megabyte. Die Website unseres Kunden ep-vision.ch – eine Schweizer Beratungsfirma für Solaranlagen – zeigt zum Beispiel 19,3 MB Ressourcen bei 221 Anfragen. Klingt erstmal nach Panik, oder?
Aber: Die 2 MB gelten nur für das reine HTML-Dokument – also den Basis-Code deiner Seite. Alles andere – Bilder, CSS-Dateien (Design), JavaScript-Dateien (Funktionen) – wird von Google separat abgeholt. Jede dieser Dateien bekommt ihr eigenes 2-MB-Limit. Das ist offiziell in der Google-Dokumentation so beschrieben. (Quelle: Google Googlebot-Dokumentation)
Bleiben wir bei unserem Bibliothek-Bild: Googles Mitarbeiter holt sich nicht ein riesiges Paket mit allem drin. Er holt zuerst das Buch (HTML), dann separat die Bilder, dann das Design (CSS), dann die Funktionen (JavaScript) – alles einzeln, jedes mit eigenem Rucksack. (Quelle: Search Engine Land)
Wenn wir bei ep-vision.ch nur das HTML-Dokument anschauen, landen wir bei 32,2 Kilobyte. Das sind gerade mal 1,6 % des Limits. Die restlichen 19,3 MB verteilen sich auf über zweihundert einzelne Dateien, die alle ihr eigenes Budget haben.
Höchstwahrscheinlich nicht. John Mueller hat auf Reddit konkrete Zahlen geteilt: Der Durchschnitt (Median) einer HTML-Seite liegt bei rund 33 Kilobyte (KB). Selbst die grössten 10 % aller Seiten kommen nur auf etwa 151 KB. (Quelle: John Mueller auf Reddit, Februar 2026)
Um das einzuordnen: 2 MB sind ungefähr 2'000 KB. Deine typische KMU-Website mit einer Startseite, ein paar Dienstleistungsseiten und einem Blog liegt in der Regel weit darunter. Du müsstest schon sehr viel Code in dein HTML packen, um an diese Grenze zu stossen.
Es gibt durchaus Fälle, in denen das 2-MB-Limit relevant wird. Das betrifft aber vor allem riesige Online-Shops mit Tausenden Produkten auf einer Seite, Websites die Bilder direkt im HTML-Code einbetten (Base64-Codierung), Seiten mit überladenen Page-Buildern wie Elementor oder WPBakery, und Single-Page-Applications (z.B. React oder Vue.js), die riesige Datenblöcke direkt ins HTML schreiben.
Wenn du eine normale KMU-Website mit einem sauberen Theme und vernünftigem Content hast, bist du auf der sicheren Seite. (Quelle: DebugBear – Googlebot's 2MB Crawl Size Limit)
Du fragst dich vielleicht: Warum erzählen wir dir das alles? Weil genau solche Themen zeigen, warum die Grundlage einer Website so wichtig ist.
Wir bei GrowMedia bauen Websites entweder mit HubSpot oder mit WordPress – aber bewusst ohne Page-Builder wie Elementor, Divi oder WPBakery und ohne eingekaufte Fertig-Designs. Warum? Weil genau diese Tools der Hauptgrund sind, warum Websites im Hintergrund aufgebläht werden. Sie erzeugen Unmengen an unnötigem Code – verschachtelte Container in Container in Container –, den kein Mensch braucht, der aber von Google mitgelesen werden muss.
Genau darum ist die Seite von ep-vision.ch so schlank – weil wir sie sauber von Hand aufgebaut haben. Eine vergleichbare Seite mit einem Page-Builder könnte locker das Zehn- bis Zwanzigfache wiegen – und dann bist du plötzlich in einem Bereich, wo solche Limits zumindest theoretisch relevant werden.
Ja, eine massgeschneiderte Website ist in der Entwicklung etwas teurer als ein Fertig-Template mit Page-Builder. Aber sie zahlt sich langfristig aus: schnellere Ladezeiten, bessere Google-Rankings, weniger technische Altlasten – und du musst dir bei solchen Updates schlicht keine Sorgen machen. Das ist wie beim Hausbau: Ein solides Fundament kostet mehr, aber du sparst dir die Sanierung in fünf Jahren.
Was tatsächlich problematisch ist: Wenn Google deine Seite abschneidet, bekommst du keine Fehlermeldung. Kein Alarm in der Google Search Console, keine E-Mail. Der Googlebot nimmt einfach die ersten 2 MB und ignoriert den Rest still und leise – sogenannte „Silent Truncation".
Noch gemeiner: Das URL-Prüfungstool in der Google Search Console nutzt intern das alte 15-MB-Limit und zeigt dir an, dass alles in Ordnung ist – obwohl der echte Googlebot deine Seite möglicherweise nicht komplett liest. (Quelle: Spotibo – Google 2MB Limit Test, Februar 2026)
Auch wenn deine Website wahrscheinlich nicht betroffen ist, schadet ein kurzer Check nie:
Die nächste TikTok-Panik kommt bestimmt. Aber wie so oft gilt: Erst Fakten prüfen, dann handeln. Google hat seine Dokumentation aufgeräumt, nicht das Internet auf den Kopf gestellt. Für die allermeisten Schweizer KMU-Websites ändert sich im Alltag genau nichts.
Wenn du unsicher bist, ob deine Website betroffen sein könnte, melde dich bei uns. Wir schauen uns das gerne an – ganz ohne TikTok-Drama.