El SEO técnico siempre ha tenido un “gran desconocido” que muchos SEOS profesionales todavía no aprovechan al máximo: los logs del servidor.
Un log es básicamente un registro generado por el servidor que almacena todas las solicitudes que recibe un sitio web: fecha, hora, IP, URL solicitada, código de respuesta, agente de usuario (bot o humano), entre otros datos. Analizarlos permite detectar oportunidades de optimización, problemas de indexación y mejoras de rendimiento.
Hasta hace poco, revisarlos servía sobre todo para entender cómo Googlebot y otros buscadores accedían a nuestra web y poder sacar importantes conclusiones… en éste post os dejo los 4 grandes indicadores SEO a la hora de revisar los logs…
¿Qué son los logs y por qué son oro puro en SEO?
Un log es simplemente un registro de cada petición que recibe tu servidor… Imagina que tu web es una tienda física: el log sería el cuaderno donde apuntas cada vez que alguien entra por la puerta, anotas la hora, quién era y qué hizo dentro.
En SEO técnico, los logs son valiosísimos porque nos dan información real y sin filtros de:
User-Agent → quién accedió (ej: Googlebot, Bingbot, GPTBot, un usuario de Chrome…)
IP → desde qué dirección vino
Método → GET (pide contenido), POST (envía datos), HEAD…
URL solicitada → qué parte de la web visitó
Código de estado → 200 (ok), 301 (redirección), 404 (no encontrado), 500 (error del servidor)…
Tiempo de respuesta → cómo respondió tu servidor
Para ser objetivos; los logs muestran la realidad del rastreo…con herramientas como Search Console y Analytics solo vemos una parte (Lo que Google quiere mostrarnos…) de la analítica.
En cambio, los logs detallan de forma concreta indicadores tan útiles como; las páginas que realmente rastrea Google, la frecuencia, los errores que encuentra (404, 500, etc…), desperdicio de crawl budget en URLs irrelevantes…
En cierto sentido, y si lo piensas bien, es más fiable que Google Analytics o cualquier otra herramienta de analítica… y esque, los usuarios pueden bloquear cookies, usar bloqueadores de scripts, los bots de IA o crawlers en general nunca ejecutan Analytics… pero no pueden evitar dejar rastro en los logs: toda petición al servidor queda grabada.
¿Cómo acceder y qué revisar en los logs de tu servidor?
Acceder a revisar los logs es muy sencillo pero dependerá del tipo de hosting que tengas contratado, te señalo los principales:
Apache → /var/log/apache2/access.log
Nginx → /var/log/nginx/access.log
cPanel/WHM → en Métricas → Acceso sin procesar
Hostings gestionados (Kinsta, SiteGround, etc…) → Desde el dashboard suelen permitir descarga directa
CDN (Cloudflare, Akamai, etc…) → Algunos requieren planes avanzados para acceder a logs completos
Una vez que tengas acceso a los logs, lo importante es saber qué buscar en cuanto a que resulten información útil para tus indicadores de tráfico, crawling y SEO… En mi opinión éstos son los puntos clave:
1- Rastreo de Googlebot
¿Qué URLs rastrea con más frecuencia?
¿Son realmente las páginas más importantes? (Home, categorías, productos, artículos)
¿Está gastando tiempo en páginas irrelevantes? (Parámetros, filtros, recursos JS…)
2- Errores detectados
Error 404 (Not Found): Google intenta rastrear páginas que no existen por lo que hay que redirigir o corregir.
Error 500 (Error de servidor): Afectan gravemente al SEO → deben resolverse cuanto antes.
Error de Redirecciones múltiples (301 → 301 → 200): Alargan el rastreo y consumen crawl budget.
3- Crawl Budget
¿Está rastreando páginas importantes con regularidad?
¿Se entretiene demasiado en páginas duplicadas o poco relevantes?
4- Comparación con sitemap.xml
Si el sitemap incluye páginas que Google nunca rastrea puede ser señal de baja autoridad o problemas de enlazado interno…
Unos consejos…
Descarga y revisa logs al menos una vez al mes
Empieza filtrando solo el tráfico de Googlebot para centrar el análisis
Prioriza resolver errores (404, 500) antes que optimizar rastreo
Usa los logs como complemento de Search Console y Analytics: juntos ofrecen una visión completa