Analizador de límites de rastreo de Googlebot

Googlebot solo procesa los primeros 2 MB de contenido sin comprimir de cada archivo que rastrea. Si tu HTML, CSS o JavaScript superan ese límite, el contenido restante se ignora y no se indexa. Esta herramienta mide el peso real de tu página y de cada recurso que carga, incluyendo imágenes y vídeos como referencia para las Core Web Vitals.

Introduce la URL completa de la página que quieres comprobar. Puede ser cualquier página, no solo la portada.

HTML y recursos (CSS, JS): 2 MB por archivo, sin comprimir. Cada recurso tiene su propio límite independiente de 2 MB.

Archivos PDF: 64 MB por archivo.

Imágenes y vídeos: tienen sus propios rastreadores (Googlebot-Image, Googlebot-Video) con límites diferentes. Se miden aquí como referencia para las Core Web Vitals.

Compresión: el límite se aplica a los datos sin comprimir, es decir, al contenido real después de descomprimir gzip o brotli. Tener compresión activada en el servidor no evita este límite.

¿Qué ocurre si se supera? Googlebot se detiene en los 2 MB y envía solo lo que ha descargado hasta ese punto para indexar. El contenido que quede por debajo de ese corte simplemente no existirá para Google. En la práctica afecta sobre todo a páginas con mucho contenido inline (page builders, listados enormes de productos, tablas muy grandes) o a sitios que cargan JavaScript y CSS sin optimizar.

¿Qué son las Core Web Vitals? Son las métricas de rendimiento que Google usa como factor de posicionamiento: LCP (carga del elemento más grande), INP (capacidad de respuesta) y CLS (estabilidad visual). El peso de imágenes y vídeos afecta directamente al LCP.