La correcta indexación en tu ecommerce es el punto clave para optimizar la visibilidad en los buscadores, priorizar las páginas de mayor valor… y vender!!!
Una indexación errónea puede derivar en contenido duplicado, desperdicio del crawl budget y una menor relevancia del sitio… es decir; perder posicionamiento.
Os detallo los tipos de páginas que, por experiencia, no deberías indexar y alguna sugerencia para enfocar su utilidad…
1.Páginas de Resultados de Búsqueda Interna
Páginas que son generadas dinámicamente cuando los usuarios realizan búsquedas dentro de tu ecommerce con contenido duplicado o irrelevante para SEO (No está optimizado para palabras clave específicas…)
Por ejemplo:
tienda.com/buscar?q=zapatos+deportivos
Estas URLs no aportan contenido único con el riesgo de generar miles de variaciones según las consultas de usuarios.
¿El riesgo…? Competir internamente con páginas de categorías y productos diluyendo el valor de las páginas optimizadas…
¿Solución?
Varias…
Agregar Metaetiqueta Robots en el código HTML:
<meta name=”robots” content=”noindex”>
Bloquear las URLs directamente en el Archivo robots.txt:
Disallow: /buscar
Usar la opción exclusión de parámetros en Google Search Console para evitar el rastreo de consultas internas.
2. Filtros y Combinaciones de Parámetros en Categorías
Al seleccionar categorías en cualquier ecommerce permitimos filtros como color, talla, precio o marca… combinaciones que generan un volumen masivo de URLs de igual contenido.
Por ejemplo:
tienda.com/categoria/zapatos?color=rojo&talla=42
tienda.com/categoria/zapatos?precio=20-50
Todas éstas URLs incrementan el contenido duplicadoen el ecommerce y ésto provoca un un uso poco eficaz del crawl budget obligando a los buscadores rastrear miles de URLs sin valor.
¿Solución?
Varias…
Definir en el archivo robots.txt:
Disallow: /*?color=
Disallow: /*&talla=
Disallow: /*&precio=
Redirigir con Etiquetas Canónicas el valor a la URL principal de la categoría:
En Shopify, WooCommerce o Magento, se pueden configurar parámetros para evitar la generación de URLs innecesarias.
3. Páginas de Agradecimiento o Confirmación de Compra
Utilizamos éste tipo de páginas al completar una acción de compra o registro pero no tienen valor SEO y pueden incluir datos sensibles o muy concretos de nuestros clientes.
Por ejemplo:
tienda.com/gracias-por-comprar
tienda.com/pedido-confirmado?id=12345
De Nuevo, no tiene sentido indexarlas… puede causar problemas de privacidad y confusión en el crawleo de los motores de búsqueda.
¿Solución?
Definir en la Metaetiqueta Robots:
<meta name=”robots” content=”noindex, nofollow”>
Configurar las cabeceras HTTP para bloquear su acceso
4. Carrito de Compra y Páginas de Inicio de Sesión
Se trata de URLs funcionales para conversión y no contribuyen al SEO.
Por ejemplo:
tienda.com/carrito
tienda.com/login
tienda.com/registro
No son puntos de entrada útiles para los usuarios desde búsquedas orgánicas con el problema de agotar el tiempo de rastro de los buscadores hacia URLs relevantes.
¿Solución?
Definir en el Archivo robots.txt:
Disallow: /carrito
Disallow: /login
Disallow: /registro
Si la plataforma lo permite; agregar reglas automáticas para añadir etiquetas noindex en esas URLs.
5. Páginas con Contenido Duplicado o Canibalización
Se hace bastante habitual que en tiendas online y ecommerces páginas con muy semejantes y que canibalicen generen URLs diferentes para un mismo producto.
Por ejemplo:
tienda.com/producto/zapatillas-nike
tienda.com/categoria/zapatillas/zapatillas-nike
Generan confusión en el proceso de indexación, agota crawl y no enfocamos sobre cuál priorizar… ( Compiten entre sí, reduciendo el valor de la URL principal)
Enfocar todo el tráfico hacia la URL preferida con Redirecciones 301
6. Páginas de Políticas y Términos Legales
No tienen relevancia SEO y no atraen tráfico de interacción y conversion, es más; su indexación puede desviar el tráfico orgánico y confundir a tu cliente…
Por ejemplo:
tienda.com/terminos-y-condiciones
tienda.com/politica-de-privacidad
¿Solución?
Metaetiqueta Robots:
<meta name=”robots” content=”noindex”>
Excluir estas URLs del archivo sitemap para priorizar otras páginas.
En conclusión...
En SEO y cada vez más el tiempo de rastreo es un Tesoro. Un tiempo limitado para enfocarlo a las URLs verdaderamente útiles… sobretodo en ecommerces.
Una correcta indexación no solo mejora el posicionamiento sino, también, optimiza ese uso de crawl budget.
El objetivo es tener claro qué paginas nos generan tráfico, conversion, ventas finales pero, sobretodo… fomentar que su indexación sea eficaz y directa a las mismas.
Utilizo cookies para asegurar la mejor experiencia al usuario en la web. Si aceptas y sigues utilizando este sitio asumiremos que estás de acuerdo.AceptoNo