El e-commerce que perdía 40.000 euros al mes por 2 segundos
Un e-commerce de moda en Barcelona facturaba 180.000 euros mensuales a través de tráfico orgánico. En septiembre de 2025, tras una migración de tema en Shopify, el tiempo de carga medio pasó de 1,8 a 3,9 segundos. En seis semanas, el tráfico orgánico cayó un 23% y las ventas online se redujeron en 42.000 euros mensuales. El diagnóstico fue claro: el nuevo tema cargaba tres bibliotecas JavaScript de animación que bloqueaban el renderizado y las imágenes de producto habían perdido la compresión WebP durante la migración.
Este caso no es excepcional. Es representativo de un patrón que se repite en empresas de todos los tamaños. La velocidad de carga no es una métrica técnica abstracta: es un multiplicador directo de ingresos. Según el estudio de Google y Deloitte “Milliseconds Make Millions”, una mejora de tan solo 0,1 segundos en la velocidad de carga puede incrementar las conversiones un 8,4% en retail y un 10,1% en viajes. El estudio analizó datos reales de 37 marcas durante un periodo de 30 días, con un nivel de confianza del 90%.
Esta guía desglosa la relación entre velocidad web y SEO con datos verificables, identifica las causas más frecuentes de webs lentas, revisa las herramientas de medición disponibles y propone una hoja de ruta concreta para mejorar el rendimiento. No se trata de perseguir una puntuación en PageSpeed Insights, sino de entender qué palancas técnicas tienen impacto real en el posicionamiento y en el negocio.
Las 5 causas más frecuentes de una web lenta
Antes de medir o intentar optimizar, es necesario entender qué frena la velocidad de la mayoría de los sitios web. Según los datos del HTTP Archive, que analiza más de 8 millones de sitios web mensualmente, las causas se repiten con una consistencia notable independientemente del sector o el tamaño de la empresa.
Imágenes sin optimizar. Las imágenes representan de media el 42% del peso total de una página web, según HTTP Archive. Servir imágenes en JPEG o PNG cuando podrían usar WebP o AVIF, no definir dimensiones explícitas (lo que causa CLS), y cargar todas las imágenes al inicio en lugar de usar lazy loading son errores que por sí solos pueden añadir 2-4 segundos al tiempo de carga. Convertir a formatos de nueva generación como imágenes WebP reduce el peso entre un 25% y un 35% sin pérdida visible de calidad.
CSS render-blocking. Los archivos CSS bloquean el renderizado del navegador: hasta que no se descargan y procesan por completo, el usuario ve una pantalla en blanco. Cuando un sitio carga un CSS monolítico de 300 KB con estilos para secciones que no se verán en la carga inicial, paga un coste de renderizado innecesario. La extracción de CSS crítico inline y la carga diferida del resto, explicadas en la guía sobre CSS render-blocking, pueden reducir el tiempo hasta el primer pintado entre 500 y 800 milisegundos.
JavaScript excesivo. El JavaScript es el recurso más costoso en términos de rendimiento: no solo hay que descargarlo, sino parsearlo, compilarlo y ejecutarlo. Una página web media carga 500 KB de JavaScript, pero muchos sitios superan los 2 MB. Cada kilobyte adicional tiene un coste de procesamiento desproporcionado en dispositivos de gama media. Eliminar JavaScript no utilizado es una de las intervenciones con mayor impacto en LCP e INP.
Hosting inadecuado. El TTFB (Time to First Byte) es el punto de partida de toda la cascada de carga. Un hosting compartido saturado puede tener un TTFB de 800 ms o más, lo que significa que el navegador no empieza a trabajar hasta que casi ha pasado un segundo. Los sitios mejor optimizados están por debajo de 200 ms.
Ausencia de estrategia de caché. Sin cabeceras de caché adecuadas, el navegador descarga todos los recursos desde cero en cada visita. Configurar Cache-Control correctamente puede reducir los tiempos de carga en visitas repetidas, que representan de media el 35% del tráfico de un sitio.
La relación entre velocidad web y SEO: qué dice Google oficialmente
Google ha sido progresivamente más explícito sobre el papel de la velocidad en el posicionamiento. La cronología de sus declaraciones oficiales no deja espacio a la ambigüedad.
En 2010, Google anunció que la velocidad del sitio era un factor de ranking para búsquedas de escritorio. En julio de 2018, con la “Speed Update”, extendió este factor a las búsquedas móviles. En mayo de 2020, introdujo los Core Web Vitals como métricas específicas de experiencia de usuario. Y desde junio de 2021, los Core Web Vitals se integraron como señales directas de ranking dentro del sistema de experiencia de página.
Sin embargo, la posición de Google siempre ha incluido un matiz importante que conviene entender. John Mueller, Search Advocate de Google, declaró en 2023: “Speed is a ranking factor, but it’s not the most important one. If you have great content that happens to be a bit slow, it can still rank well.” Esto no significa que la velocidad sea irrelevante; significa que es un factor entre muchos. Pero la evidencia muestra que funciona como un desempate: cuando dos páginas tienen contenido de calidad comparable, la más rápida tiene ventaja.
Según Addy Osmani, ingeniero de Chrome y autor de “Learning Patterns” y experto en rendimiento web de Google, “el rendimiento web no es una optimización opcional; es una cuestión de accesibilidad. Cuando tu sitio tarda 6 segundos en cargar en un dispositivo móvil de gama media con 3G, estás excluyendo a millones de usuarios.” Esta perspectiva amplía la conversación más allá del SEO: la velocidad determina quién puede usar tu web y quién no.
Las tres métricas que Google utiliza como señales de ranking son los Core Web Vitals:
- LCP (Largest Contentful Paint): mide cuánto tarda el elemento visual más grande en cargarse completamente. El umbral de “bueno” es inferior a 2,5 segundos.
- INP (Interaction to Next Paint): mide la capacidad de respuesta de la página ante interacciones del usuario. Reemplazó a FID en marzo de 2024. El umbral de “bueno” es inferior a 200 milisegundos.
- CLS (Cumulative Layout Shift): mide la estabilidad visual de la página mientras carga. El umbral de “bueno” es inferior a 0,1.
Es importante entender que Google mide estas métricas con datos reales de usuarios de Chrome (los datos “de campo” del Chrome User Experience Report), no solo con mediciones de laboratorio. Un sitio puede tener una puntuación perfecta en Lighthouse pero fallar en datos de campo si sus usuarios reales acceden desde dispositivos lentos o conexiones inestables.
Datos reales: velocidad web y su impacto en CTR y conversión
Los datos sobre el impacto de la velocidad en el comportamiento del usuario son consistentes a lo largo de múltiples estudios y sectores. Estas no son proyecciones teóricas: son mediciones reales de empresas que han documentado el antes y después de sus optimizaciones.
Abandono y bounce rate. Think with Google publicó datos que muestran que el 53% de las visitas móviles se abandonan si la página tarda más de 3 segundos en cargar. La probabilidad de rebote aumenta un 32% cuando el tiempo de carga pasa de 1 a 3 segundos, un 90% cuando pasa de 1 a 5 segundos, y un 123% cuando llega a 10 segundos. Estos datos proceden de un análisis de 11 millones de sesiones móviles.
Conversión. El estudio de Google y Deloitte “Milliseconds Make Millions” de 2020 documentó que una mejora de 0,1 segundos en el tiempo de carga genera resultados medibles en todas las verticales analizadas. En retail, las conversiones subieron un 8,4%. En viajes, un 10,1%. En el sector lujo, la mejora fue del 8% en páginas vistas. Vodafone reportó que una mejora de su LCP del 31% generó un 8% más de ventas. Según los datos de WPO Stats, que recopila más de 150 casos de estudio de rendimiento web, la relación entre velocidad y conversión es prácticamente lineal hasta los 5 segundos de tiempo de carga.
Impacto en el velocidad y conversión. Un caso específico documentado por Google: Renault reconstruyó su sitio con un enfoque en rendimiento y logró una mejora del 40% en LCP. El resultado directo fue una reducción del 14% en el bounce rate y un incremento del 13% en conversiones de lead. Estos datos corresponden a un test A/B controlado con tráfico real, no a una correlación observacional.
SEO directo. Más allá del comportamiento del usuario, la velocidad afecta al crawl budget de Googlebot. Search Engine Land documentó que servidores con TTFB superior a 500 ms reciben sistemáticamente menos rastreo de Googlebot. Para sitios con decenas de miles de páginas, esta diferencia puede significar que Google descubre cambios en el contenido con días o semanas de retraso.
Cómo medir la velocidad web: herramientas y métricas clave
Medir la velocidad web correctamente requiere distinguir entre dos tipos de datos fundamentalmente diferentes: datos de laboratorio y datos de campo. Ambos son necesarios, pero miden cosas distintas y llevan a decisiones diferentes.
Datos de laboratorio son mediciones realizadas en un entorno controlado, con un dispositivo simulado, una conexión de red predeterminada y sin interferencia de extensiones del navegador. Son reproducibles y útiles para diagnosticar problemas técnicos específicos. La herramienta de referencia es Lighthouse (integrada en Chrome DevTools y en PageSpeed Insights).
Datos de campo son mediciones reales recopiladas de usuarios de Chrome que visitan tu sitio. Reflejan las condiciones reales de tus usuarios: sus dispositivos, sus conexiones, su ubicación geográfica. Los datos de campo proceden del Chrome User Experience Report (CrUX) y son los que Google utiliza como señal de ranking. Se consultan en Google Search Console (sección “Core Web Vitals”) y en PageSpeed Insights (panel “Datos de campo”).
La diferencia entre ambos puede ser dramática. Un sitio puede obtener 95 en Lighthouse con la simulación estándar de Moto G Power en 4G y, sin embargo, tener un LCP de 4,2 segundos en datos de campo porque la mayoría de sus usuarios acceden desde zonas rurales con conexiones 3G. Por eso, optimizar solo para la puntuación de Lighthouse sin monitorizar datos de campo es un error estratégico.
Herramientas esenciales
- PageSpeed Insights (pagespeed.web.dev): la herramienta más completa para obtener datos de campo y de laboratorio en una sola consulta. Muestra Core Web Vitals reales del CrUX y recomendaciones priorizadas de Lighthouse.
- Google Search Console: la sección “Core Web Vitals” muestra el porcentaje de URLs que pasan los umbrales de LCP, INP y CLS con datos de campo. Es la fuente definitiva para saber si Google considera que tu sitio tiene un buen rendimiento.
- WebPageTest (webpagetest.org): permite medir desde ubicaciones geográficas específicas, con dispositivos y conexiones concretas. Genera filmstrip visual y diagrama de cascada (waterfall) para diagnosticar cuellos de botella.
- Chrome DevTools (pestaña Performance): para análisis granular del rendimiento en tiempo real: tiempos de parseo de JavaScript, coste de estilos, layout shifts y long tasks.
- Lighthouse CI: para integrar mediciones de rendimiento en el pipeline de desarrollo y detectar regresiones antes de que lleguen a producción.
La métrica más relevante para SEO es el LCP, porque es la que mejor refleja la percepción de velocidad del usuario y la más correlacionada con tasas de abandono. Un LCP inferior a 2,5 segundos es el objetivo. Un LCP entre 2,5 y 4 segundos requiere atención. Un LCP superior a 4 segundos es un problema urgente.
Velocidad web en mobile vs desktop: prioridades distintas
Google adoptó el Mobile-First Indexing de forma universal en 2023. Esto significa que la versión móvil de tu sitio es la que Google rastrea, indexa y utiliza para determinar el ranking. Si tu web es rápida en escritorio pero lenta en móvil, Google evalúa la versión lenta.
Los datos de HTTP Archive muestran una disparidad persistente entre rendimiento móvil y de escritorio. La mediana de LCP en escritorio es de 2,1 segundos, pero en móvil sube a 3,8 segundos. Solo el 43% de los sitios web cumplen los umbrales de Core Web Vitals en móvil, frente al 72% en escritorio. La brecha se debe a tres factores: procesadores menos potentes, conexiones más lentas y pantallas que exigen renderizado adaptativo.
La diferencia de procesamiento entre un MacBook Pro y un teléfono Android de gama media es de un factor 4-6x en capacidad de CPU. Esto significa que un archivo JavaScript de 1 MB que se parsea en 200 ms en un portátil puede tardar 800-1.200 ms en un Redmi Note o un Samsung Galaxy A. Como señala Addy Osmani, “el JavaScript es el recurso más costoso byte por byte, y ese coste se multiplica en dispositivos móviles.”
Prioridades específicas para móvil
- Reducir el peso total de la página. La mediana de peso en móvil es 2,1 MB según HTTP Archive. Un objetivo razonable es mantenerse por debajo de 1,5 MB, priorizando la compresión de imágenes y la eliminación de JavaScript innecesario.
- Optimizar el critical rendering path. En móvil, cada milisegundo cuenta más. Servir el CSS crítico inline y diferir el resto reduce el tiempo hasta el primer pintado (FCP) de forma significativa.
- Implementar responsive images con srcset. Servir imágenes de 2.000 px de ancho a un móvil con pantalla de 375 px es un desperdicio de ancho de banda. Las imágenes responsivas sirven la resolución correcta para cada dispositivo.
- Priorizar INP. En móvil, las interacciones del usuario (toques, desplazamientos, formularios) son más frecuentes y la tolerancia al retraso es menor. Un INP alto en móvil genera una percepción de “web trabada” que aumenta los abandonos.
Para sitios con audiencia mayoritariamente móvil (que en España representa más del 65% del tráfico web según datos de Statcounter), la optimización de rendimiento móvil no es una mejora marginal: es el factor que determina si el sitio compite o no en los resultados de búsqueda.
Casos reales: webs que mejoraron velocidad y multiplicaron su tráfico
Los casos de estudio documentados por WPO Stats y por las propias publicaciones de Google ofrecen evidencia concreta del impacto que tiene la velocidad en resultados de negocio. Estos no son escenarios teóricos; son datos de producción de empresas reales.
Vodafone. La operadora optimizó su LCP y logró una mejora del 31%. El resultado: un incremento del 8% en ventas online. La optimización se centró en dos áreas: compresión de imágenes hero con formatos de nueva generación y eliminación de JavaScript third-party que bloqueaba el renderizado.
Rakuten. El marketplace japonés reportó un incremento del 33,13% en conversiones y del 53,37% en ingresos por visitante tras una optimización integral de Core Web Vitals. El trabajo incluyó refactorización del JavaScript de producto, implementación de lazy loading para imágenes below-the-fold y mejora del TTFB mediante caché en edge.
The Telegraph. El medio británico documentó que una mejora de 4 segundos en el tiempo de carga generó un 11% más de páginas vistas por sesión. La optimización se basó en la eliminación de código CSS y JavaScript legacy que se había acumulado durante años.
Pinterest. La red social redujo los tiempos de espera percibidos un 40% y logró un incremento del 15% en tráfico orgánico y un 44% más en registros de nuevos usuarios. La optimización se centró en la implementación de progressive rendering y la reducción del bundle JavaScript.
Yelp. La plataforma de reseñas mejoró su First Contentful Paint en 2,4 segundos y documentó un incremento del 15% en conversiones. La clave fue implementar Server-Side Rendering para las páginas de resultado de búsqueda, que antes dependían completamente de CSR.
Estos casos comparten un patrón: las empresas no optimizaron “la velocidad” como concepto abstracto. Identificaron las causas concretas de lentitud en su stack tecnológico, priorizaron por impacto medible y validaron cada cambio con datos de producción.
Hoja de ruta para mejorar la velocidad de tu web
Una optimización de velocidad web efectiva sigue un proceso estructurado. No se trata de aplicar una lista de trucos, sino de diagnosticar, priorizar, implementar y validar. Esta hoja de ruta está ordenada por impacto y puede aplicarse tanto a sitios WordPress como a aplicaciones web custom.
Fase 1: Diagnóstico (semana 1)
- Medir el estado actual con PageSpeed Insights y Google Search Console. Documentar LCP, INP y CLS tanto de campo como de laboratorio para las 10 páginas con más tráfico.
- Analizar el waterfall con WebPageTest o Chrome DevTools para identificar los recursos que bloquean el renderizado.
- Auditar el peso de la página desglosado por tipo de recurso: imágenes, CSS, JavaScript, fuentes, terceros.
- Comparar móvil vs escritorio e identificar las mayores disparidades.
Fase 2: Quick wins (semanas 2-3)
- Optimizar imágenes: convertir a WebP/AVIF, definir dimensiones explícitas, implementar lazy loading para imágenes below-the-fold.
- Eliminar CSS y JavaScript no utilizados: auditar con la herramienta Coverage de Chrome DevTools.
- Configurar caché del navegador: establecer
Cache-Control: max-age=31536000, immutablepara recursos estáticos versionados. - Habilitar compresión: verificar que Brotli o gzip están activos a nivel de servidor para HTML, CSS y JavaScript.
Fase 3: Optimización profunda (semanas 4-6)
- Extraer e inline el CSS crítico para eliminar CSS render-blocking del above-the-fold.
- Implementar code splitting en JavaScript para cargar solo el código necesario en cada página.
- Optimizar fuentes web: usar
font-display: swap, precargar la fuente principal con<link rel="preload">, y considerar fuentes del sistema como fallback. - Evaluar el TTFB y, si es superior a 500 ms, considerar un upgrade de hosting, implementar una capa de caché con CDN o adoptar generación estática.
Fase 4: Validación y monitorización (continua)
- Medir el impacto comparando las métricas de Core Web Vitals antes y después de cada cambio.
- Configurar alertas en Google Search Console para regresiones de Core Web Vitals.
- Integrar Lighthouse CI en el pipeline de despliegue para detectar regresiones antes de producción.
- Revisar trimestralmente las métricas de campo en CrUX y ajustar la estrategia en función de los cambios en los patrones de tráfico.
La velocidad no es un proyecto, es un estándar operativo
La velocidad web no es una tarea que se completa una vez y se olvida. Es un estándar operativo que debe integrarse en el proceso de desarrollo, diseño y publicación de contenido de forma permanente. Cada imagen sin optimizar, cada biblioteca JavaScript añadida sin evaluar su coste de rendimiento, cada cambio de tema sin auditoría previa es una regresión potencial que erosiona el posicionamiento orgánico.
Las empresas que dominan los resultados de búsqueda en sus sectores no son las que tienen el mayor presupuesto de marketing. Son las que han integrado el rendimiento como criterio de decisión: el equipo de desarrollo conoce el coste real de cada dependencia, el equipo de diseño trabaja con presupuestos de peso por página, y el equipo de marketing sabe que una landing page que tarda 5 segundos en cargar desperdicia buena parte de la inversión publicitaria.
Los datos de Google, Deloitte, Vodafone, Rakuten y decenas de casos documentados muestran que la relación entre velocidad y resultados de negocio no es teórica ni marginal. Es lineal, medible y replicable. Cada décima de segundo cuenta.