¿Cómo optimizar el Robots.txt de LogiCommerce?

Tabla de Contenidos

Si tenéis dudas de cómo optimizar el rastreo de un eCommerce hecho con LogiCommerce mediante la optimización del robots.txt a continuación empezamos con la explicación de este.

¿Se puede editar el archivo robots.txt de LogiCommerce?

¡SI! La funcionalidad de optimizar el archivo robots.txt en LogiCommerce es posible de ejecutar.
El robot.txt es único para cada proyecto, es decir, es personalizado para cada eCommerce, desde el cual a través del bloqueo de partes de tu página web que sean de interés para tu proyecto.

Recuerda que el robot.txt en LogiCommerce por defecto no existe. Por ello, debemos tener presente en nuestra Check list de tareas

✅ Crear el robots.txt optimizado para nuestra web

¿Cómo verifico que el archivo robots.txt para LogiCommerce es correcto?

Para verificar si el archivo de robots.txt es correcto para LogiCommerce podemos utilizar la herramienta probador de robots.txt, de esta manera podrás comprobar qué URLs marcadas se están restringiendo el acceso y cuáles no.

Pasos para la comprobación robots.txt para LogiCommerce :

  1. Ejecuta la herramienta
  2. En la parte inferior de la página introduce la URL de la página a verificar
  3. Selecciona el user-agent correspondiente
  4. Pulsa el botón “probar”
  5. Chequea el estado del botón “probar”, aparecerá la opción “aceptada” o “bloqueada”

¿Cómo editar el robots.txt de LogiCommerce?

Para optimizar o crear el robots.txt de tu Ecommerce en LogiCommerce, deberás seguir los siguientes pasos:

  1. Analiza tu e-commerce a través de Google Search Console o visualmente (busca esas URL que deberían estar siendo bloqueados por el robots.txt.
    • Carrito
    • Account
    • Checkout
    • URL thing content que no aportan valor relacionado para poscionar nuestro producto.
  2. Localiza tu sitemap en Logicommerce. Para ello deberemos añadir la coletilla de sitemap.xml en tu dominio. Ejemplo: https://www.tudominio.com/sitemap.xml
  3. Recurrir a la plantilla base de Robots.txt para LogiCommerce realizada por VisibilidadOn.
  4. Adaptar la plantilla de robots.txt a tu web
  5. Finalmente, para poder editar el robots.txt en LogiCommerce debe acceder al servidor de tu web por ello te aconsejamos que contactes con los desolladores de tu web de LogiCommerce para que editen tu archivo de robots.txt con las optimizaciones pertinentes.

Pero si lo prefieres realizar tú a continuación te dejamos las instrucciones:

Paso a paso para optimizar el robots.txt de LogiCommerce

  1. Acceder a tu servidor: Puedes hacerlo a través de un cliente FTP o a través del panel de control de tu alojamiento web.
  1. Busca el archivo robots.txt: Debería encontrarse en la raíz de tu sitio web. Si no estás seguro de dónde encontrarlo, puede usar la función de búsqueda en su cliente FTP o en el panel de control de tu alojamiento web.
  1. Descargar el archivo robots.txt: Una vez que haya encontrado el archivo, descárguelo en tu ordenador para editarlo.
  1. Abrir el archivo en un editor de texto: Puede usar cualquier editor de texto, como Bloc de notas en Windows o TextEdit en Mac.
  1. Edite el archivo: El formato del archivo robots.txt es sencillo y consiste en líneas de texto que especifican qué páginas o secciones de tu sitio web desea que los robots de los motores de búsqueda ignoren. Momento de implementar la plantilla de robots.txt de LogiCommerce de VisibilidadOn.
  1. Evite bloquear páginas importantes: Asegúrate de no bloquear páginas importantes de tu sitio web, como tu página de inicio o páginas de productos. También es recomendable no bloquear la sección de búsqueda de tu sitio.
  1. Guardar los cambios: Guarda los cambios realizados en el archivo y cierre el editor de texto.
  1. Subir el archivo al servidor: Vuelva a subir el archivo modificado al servidor y reemplácel

¿Qué ajustes puedo hacer sobre Robots.txt de LogiCommerce para mejorar el SEO?

Una vez tienes la plantilla de robots.txt optimizada para tu e-commerce, es momento de introducir información al archivo robots.txt personalizada para tu LogiCommerce. 

User-agent: *
Disallow: /slug-url

Pongamos un ejemplo, si tu sitio LogiCommerce dispone de un buscador interno y en tu estrategia decides bloquearlo se debería hacer de la siguiente manera:

#BUSCADOR
Disallow: /search?q=*

Ideas para editar del robots.txt para mejorar el SEO

Antes hemos dado unas pequeñas ideas para bloquear tu robots.txt a continuación te dejo una lista:

  1. Permitir o no permitir el rastreo de ciertas URL
  2. Agregar reglas de demora de rastreo para ciertos rastreadores
  3. Agregar URL adicionales del mapa del sitio
  4. Bloquear ciertos rastreadores

Con el fin de simplificar el rastreo y las peticiones sobre tu eCommerce

IMPORTANTE: Añade tu Sitemap.xml Segmentado
Añade el sitemap.xml que crea LogiCommerce, y si puedes ser segmentado en tú robots.txt, para así facilitar la indexación del sitio de manera más óptima.

PLANTILLA ROBOTS.TXT PARA LOGICOMMERCE

User-Agent: Googlebot
Allow: /*.css$
Allow: /*.js$

#BLOQUEO PAGINAS ECOMMERCE
User-agent: *
Disallow: /user/*
Disallow: /user
Disallow: /checkout/*
Disallow: /checkout

#SITEMAPS GENERAL
Sitemap: https://www.tudominio.com/sitemap.xml

#BUSCADOR
Disallow: /search?q=*

# BLOQUEO DE BOTS
User-agent: MSIECrawler
Disallow: / 
User-agent: WebCopier 
Disallow: / 
User-agent: HTTrack 
Disallow: / 
User-agent: Microsoft.URL.Control 
Disallow: / 
User-agent: libwww 
Disallow: / 
User-agent: Orthogaffe 
Disallow: / 
User-agent: UbiCrawler 
Disallow: / 
User-agent: DOC 
Disallow: / 
User-agent: Zao 
Disallow: / 
User-agent: sitecheck.internetseer.com 
Disallow: / 
User-agent: Zealbot 
Disallow: / 
User-agent: MSIECrawler 
Disallow: / 
User-agent: SiteSnagger 
Disallow: / 
User-agent: WebStripper 
Disallow: / 
User-agent: WebCopier 
Disallow: / 
User-agent: Fetch 
Disallow: / 
User-agent: Offline Explorer 
Disallow: / 
User-agent: Teleport 
Disallow: / 
User-agent: TeleportPro 
Disallow: / 
User-agent: WebZIP 
Disallow: / 
User-agent: linko 
Disallow: / 
User-agent: HTTrack 
Disallow: / 
User-agent: Microsoft.URL.Control 
Disallow: / 
User-agent: Xenu 
Disallow: / 
User-agent: larbin 
Disallow: / 
User-agent: libwww 
Disallow: / 
User-agent: ZyBORG 
Disallow: / 
User-agent: Download Ninja 
Disallow: / 
User-agent: wget 
Disallow: / 
User-agent: grub-client 
Disallow: / 
User-agent: k2spider 
Disallow: / 
User-agent: NPBot 
Disallow: / 
User-agent: WebReaper 
Disallow: /
User-agent: MJ12bot
Disallow: /

Conclusión sobre la edición del robots.txt en LogiCommerce

Una buena optimización del archivo robots.txt. de LogiCommerce permite a los SEO tener un control sobre el rastreo de su sitio.

Es importante tener en cuenta que cualquier cambio en el archivo robots.txt puede tardar un tiempo en tener efecto en los resultados de búsqueda, por lo que es importante ser paciente y monitorizar los resultados después de realizar cualquier cambio.

Ahora ya no tienes excusa para optimizar correctamente el robots.txt de tu LogiCommerce.

AUTOR

ÚLTIMOS ARTÍCULOS

¿Te gustaría saber en que país hay más búsquedas de tu producto? Para así iniciar la internacionalización de tu marca sobre estos países dónde haya…

En el artículo de hoy hablaremos de la importancia de trabajar de forma conjunta entre los departamentos de compra o desarrollo de producto de un…

La decisión de migrar tu tienda en línea de WordPress a Shopify es un paso emocionante y estratégico en la evolución de tu negocio en…

Suscríbete a la Newsletter

Recibe las últimas noticias y aprende de SEO y Google ADS

¿TE HA GUSTADO? SI ES QUE SÍ COMPARTE PARA TENER MÁS FEEDBACK ;)