Cuando hablamos de SEO técnico, uno de los archivos más pequeños pero más poderosos en cualquier sitio web es el archivo robots.txt. Aunque puede parecer un simple documento de texto, su contenido puede tener un gran impacto en la visibilidad de tu sitio web en los motores de búsqueda.
Si no lo configuras correctamente, podrías estar bloqueando páginas clave de tu sitio o, por el contrario, permitiendo que los bots accedan a secciones que no deberían indexarse. Aquí te explicamos todo lo que necesitas saber.
¿Qué es el archivo robots.txt?
El archivo robots.txt es un archivo de texto plano ubicado en la raíz de tu sitio web (ej: tusitio.com/robots.txt
). Su función principal es comunicar a los motores de búsqueda qué partes del sitio pueden o no pueden rastrear.
Este archivo sigue el protocolo REP (Robots Exclusion Protocol) y sirve como una guía para bots como Googlebot, Bingbot o cualquier otro crawler que respete este protocolo.
¿Cómo afecta robots.txt a la indexación?
El archivo robots.txt no bloquea directamente la indexación, sino que impide que los bots rastreen ciertas URLs. Si una página está enlazada desde otros sitios o dentro del tuyo, puede seguir siendo indexada aunque esté bloqueada por robots.txt, solo que los bots no podrán acceder a su contenido.
Por eso, es importante no usar robots.txt para bloquear páginas que realmente quieres desindexar. Para eso, lo mejor es el uso de la metaetiqueta noindex
.
¿Por qué es importante para el SEO?
- Control del presupuesto de rastreo (Crawl Budget)
Si tu sitio tiene miles de URLs, puedes usar robots.txt para evitar que Googlebot pierda tiempo en páginas poco relevantes, como resultados de búsqueda internos o filtros de productos. - Evita la indexación de contenido duplicado
Puedes bloquear parámetros de URL que generan duplicados, como filtros, paginaciones o sesiones. - Protege directorios sensibles
Aunque no es un método de seguridad, puedes evitar que los bots rastreen directorios como/wp-admin/
,/cgi-bin/
o archivos temporales. - Facilita la organización de un sitemap
Puedes incluir en robots.txt la ruta del sitemap, ayudando a los bots a encontrarlo rápidamente: arduinoCopiarEditarSitemap: https://tusitio.com/sitemap.xml
Cómo crear y configurar tu robots.txt correctamente
Aquí un ejemplo básico y funcional:
txtCopiarEditarUser-agent: *
Disallow: /wp-admin/
Disallow: /buscar/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://tusitio.com/sitemap.xml
Explicación:
User-agent: *
aplica la regla a todos los bots.Disallow
impide el rastreo de ciertas carpetas.Allow
da permiso explícito a un archivo dentro de una carpeta bloqueada.Sitemap
indica la ubicación del mapa del sitio.
Errores comunes al usar robots.txt
- Bloquear CSS o JS esenciales
Impide que Google vea correctamente tu sitio y puede afectar el rendimiento o apariencia en el test de usabilidad móvil. - Bloquear accidentalmente el sitio completo
Un simpleDisallow: /
puede hacer que tu web desaparezca de los resultados si no se gestiona bien. - Usar robots.txt para evitar la indexación
Esto no siempre es efectivo. Usanoindex
o la herramienta de eliminación de URLs en Google Search Console si quieres desindexar contenido. - No testear los cambios
Google ofrece una herramienta para comprobar si tu archivo está bloqueando recursos importantes: Probador de robots.txt
Curiosidades sobre robots.txt
- Googlebot ignora instrucciones específicas para otros bots, pero no todos los bots respetan robots.txt.
- El archivo robots.txt se puede ver públicamente; no es una medida de seguridad.
- La primera versión de este protocolo fue creada en 1994.
- Algunos bots maliciosos ignoran por completo el contenido del archivo.
- Puedes usar wildcards para patrones específicos:
Ej:Disallow: /*?sort=
para bloquear URLs con ese parámetro.
Preguntas frecuentes (FAQs)
¿Puedo usar varios archivos robots.txt en un mismo sitio?
No. Solo debe existir uno, ubicado en la raíz del dominio principal.
¿Robots.txt bloquea contenido de Google Imágenes o Vídeos?
Sí, puedes bloquear el acceso a estos recursos si así lo deseas.
¿Qué pasa si no tengo robots.txt?
Googlebot intentará rastrear todo el sitio por defecto. No es obligatorio tenerlo, pero sí recomendable.
¿Puedo bloquear páginas específicas?
Sí, pero es más recomendable usar la etiqueta noindex
si no quieres que aparezcan en Google.
¿Robots.txt es respetado por todos los bots?
No. Bots maliciosos o scrapers suelen ignorarlo por completo.
¿Cómo saber si una URL está bloqueada por robots.txt?
Usa la herramienta de inspección de URLs en Google Search Console.
Conclusión
El archivo robots.txt es una herramienta fundamental dentro del SEO técnico. Permite dirigir los esfuerzos de rastreo de los motores de búsqueda hacia las partes más importantes de tu sitio, evita la sobrecarga de recursos y ayuda a gestionar grandes estructuras web.
Sin embargo, una mala configuración puede tener consecuencias graves, como dejar fuera del índice a páginas valiosas o bloquear recursos necesarios para el renderizado. Por eso, siempre es recomendable auditar tu archivo y actualizarlo cuando el sitio evoluciona.