Qué es y para qué sirve el Robots.txt?
Guía Completa sobre Shopify Robots.txt: Optimiza tu Tienda para SEO
El archivo robots.txt es una de las herramientas fundamentales para mejorar el SEO de una tienda en Shopify. Su función principal es indicar a los motores de búsqueda qué páginas deben indexar y cuáles deben ignorar, ayudando a evitar contenido duplicado y optimizando el presupuesto de rastreo.
¿Qué es el archivo Robots.txt?
El robots.txt es un archivo de texto simple que proporciona directrices a los motores de búsqueda como Google, Bing y Yahoo sobre cómo deben rastrear una web. En el caso de Shopify, este archivo es especialmente relevante debido a las particularidades del comercio electrónico, como la navegación facetada y los filtros de productos, que pueden generar páginas duplicadas y afectar negativamente al SEO.
Configuración Predeterminada del Robots.txt en Shopify
Shopify genera automáticamente un archivo robots.txt por defecto. Puedes verlo accediendo a:
https://tudominio.com/robots.txt
Un ejemplo de su configuración predeterminada es el siguiente:
User-agent: *
Disallow: /admin/
Disallow: /cart/
Disallow: /checkout/
Disallow: /account/
Disallow: /orders/
Disallow: /search/
Disallow: /collections/*+*
Sitemap: https://tudominio.com/sitemap.xml
Explicación de las Reglas Predeterminadas:
-
Disallow: /cart/ y Disallow: /checkout/: Evita que Google indexe el carrito de compras y la página de pago.
-
Disallow: /search/: Evita que las páginas de búsqueda interna sean indexadas, reduciendo contenido duplicado.
-
Disallow: /collections/+: Evita que los filtros de productos generen URLs indexadas innecesarias.
-
Sitemap: Indica a los motores de búsqueda dónde se encuentra el sitemap para un rastreo eficiente.
¿Cómo Editar el Archivo Robots.txt en Shopify?
Desde 2021, Shopify permite personalizar el robots.txt editando el archivo robots.txt.liquid. Para modificarlo, sigue estos pasos:
-
Ve a Tienda Online > Temas en el panel de Shopify.
-
Haz clic en Acciones > Editar Código.
-
En la carpeta Config, busca y crea un archivo llamado robots.txt.liquid.
-
Agrega las reglas que deseas modificar.
Ejemplo de Edición del Robots.txt
Si deseas bloquear una URL específica, puedes agregar:
{%- if group.user_agent.value == '*' -%}
{{ 'Disallow: /mi-pagina-personalizada/' }}
{%- endif -%}
Si deseas permitir que Googlebot indexe una página en particular:
{%- if group.user_agent.value == 'Googlebot' -%}
{{ 'Allow: /productos-destacados/' }}
{%- endif -%}
Casos de Uso para Mejorar el SEO en Shopify
1. Bloquear Páginas de Búsqueda Interna
Las páginas de resultados de búsqueda interna generan contenido duplicado y pueden competir con páginas clave. Para evitarlo:
User-agent: *
Disallow: /search
2. Optimizar la Navegación Facetada
Si usas filtros de productos por color, precio o tamaño, estos pueden generar muchas páginas duplicadas:
User-agent: *
Disallow: /collections/all/price-*
Disallow: /collections/all/color-*
3. Evitar Indexación de URLs con Parámetros de Ordenamiento
Shopify permite ordenar productos por precio, popularidad, etc. Para evitar que estas URLs sean indexadas:
User-agent: *
Disallow: /collections/all?sort_by=*
¿Cuándo Deberías Editar el Robots.txt?
-
Si notas que Google está indexando páginas irrelevantes.
-
Para evitar canibalización de palabras clave.
-
Para mejorar el presupuesto de rastreo y dirigirlo a las páginas clave.
-
Si usas herramientas como Google Search Console y detectas errores de indexación.
El archivo robots.txt en Shopify es una herramienta esencial para mejorar el SEO y el rendimiento de tu tienda online. Si bien la configuración predeterminada de Shopify es suficiente en la mayoría de los casos, modificarlo adecuadamente puede marcar una gran diferencia en el posicionamiento de tu tienda en Google.
Si deseas una auditoría SEO personalizada o necesitas ayuda con la configuración técnica de tu tienda en Shopify, agenda una asesoría en DominandoTuNegocio.cl y llevemos tu tienda al siguiente nivel. 🚀