Errores en robots.txt que bloquean tu web en Google (y cómo solucionarlos)
El archivo robots.txt es uno de los elementos más sensibles del SEO técnico. Un solo error puede provocar que Google deje de rastrear páginas clave, desaparezcan URLs del índice o se bloquee completamente tu sitio.
En 2026, además, los fallos en robots.txt no solo afectan al buscador tradicional, sino también a motores generativos como AI Overviews, ChatGPT, Gemini o Copilot, que dependen del rastreo para entender y citar tu contenido.
Resumen rápido
- Robots.txt controla el acceso de bots a tu web
- Un bloqueo mal configurado puede desindexar tu sitio
- Google sí respeta la mayoría de directivas
- Afecta SEO, tráfico, leads y visibilidad en IA
- Auditarlo es obligatorio en cualquier estrategia técnica
Este es uno de los errores más comunes que afectan la visibilidad online. En esta Errores que impiden que tu web de belleza aparezca en Google analizamos los fallos más frecuentes y cómo solucionarlos.
Qué es robots.txt y para qué sirve
El archivo robots.txt es un documento de texto ubicado en la raíz del dominio:
tudominio.com/robots.txt
Su función es indicar a los motores de búsqueda qué partes del sitio pueden o no pueden rastrear.
Ejemplo básico
User-agent: *
Disallow: /admin/
Allow: /
Esto indica que todos los bots pueden rastrear el sitio excepto la carpeta /admin/.
El archivo robots.txt actúa como un portero digital que decide qué áreas de tu web pueden rastrear los buscadores. Una mala configuración no solo limita la indexación, sino que puede hacer desaparecer páginas estratégicas de Google y de motores generativos que dependen del contenido rastreable para generar respuestas.
Cómo afecta robots.txt al SEO y al GEO
SEO tradicional
- Indexación de páginas
- Presupuesto de rastreo (crawl budget)
- Priorización de URLs
- Detección de contenido duplicado
GEO (Generative Engine Optimization)
Los motores generativos necesitan:
- Acceso al contenido
- Lectura de secciones completas
- Comprensión semántica
Si bloqueas rutas clave:
- No te citan
- No apareces en respuestas IA
- Pierdes autoridad temática
Errores comunes en robots.txt que bloquean tu web
1️⃣ Bloquear todo el sitio por error
Ejemplo crítico:
User-agent: *
Disallow: /
Esto prohíbe el rastreo completo.
Cuándo ocurre
- Migraciones web
- Entornos staging mal cerrados
- Deploys automáticos
Consecuencia
- Desindexación masiva
- Caída total de tráfico orgánico
Bloquear la raíz del sitio con “Disallow: /” es uno de los errores más destructivos en SEO técnico. Google deja de rastrear inmediatamente y, con el tiempo, elimina las URLs del índice. Recuperar la visibilidad puede tardar semanas o meses incluso después de corregir el fallo.
2️⃣ Bloquear carpetas estratégicas
Ejemplo:
Disallow: /blog/
Disallow: /recursos/
Si ahí está tu contenido SEO, Google no lo rastrea.
Impacto
- Artículos no indexados
- Pérdida de keywords
- Menor autoridad temática
3️⃣ Bloquear CSS y JS
Ejemplo:
Disallow: /wp-content/
Aquí suelen estar:
- Hojas de estilo
- Scripts
- Recursos de renderizado
Consecuencia
Google no puede renderizar la página correctamente → afecta ranking.
4️⃣ Uso incorrecto de comodines (*)
Ejemplo:
Disallow: /*?
Puede bloquear:
- Parámetros útiles
- Paginaciones
- Filtros indexables
5️⃣ No usar “Allow” en subrutas necesarias
Caso típico:
Disallow: /wp-content/
Allow: /wp-content/uploads/
Si no añades el Allow, bloqueas imágenes y recursos SEO.
6️⃣ Robots.txt en entorno de producción
Muchos sitios lanzan con este bloqueo activo:
User-agent: *
Disallow: /
Era para desarrollo… pero se olvidó quitarlo.
7️⃣ Errores de sintaxis
Ejemplos:
- Falta de dos puntos
- Espacios incorrectos
- User-agent mal escrito
Google puede ignorar reglas o interpretarlas mal.
Consecuencias de un robots.txt mal configurado
| Error | Consecuencia SEO | Impacto negocio |
| Bloqueo total | Desindexación | Pérdida total de tráfico |
| Bloqueo de blog | Caída de keywords | Menos leads |
| Bloqueo CSS/JS | Mala renderización | Peor ranking |
| Bloqueo imágenes | Menos SEO visual | Menos visibilidad IA |
| Parámetros bloqueados | Paginación rota | Menor cobertura |
Un robots.txt mal configurado no solo afecta el posicionamiento: impacta directamente en el negocio. Menos páginas indexadas significan menos tráfico, menos oportunidades de conversión y menor presencia en respuestas generativas, donde la visibilidad depende del acceso completo al contenido.
Cómo detectar errores en robots.txt
Checklist de auditoría rápida
- ✔ Revisar /robots.txt manualmente
- ✔ Usar Google Search Console
- ✔ Probar con robots.txt Tester
- ✔ Ver cobertura de indexación
- ✔ Analizar logs de rastreo
Pasos para solucionar bloqueos
Paso 1 — Identificar la regla problemática
Busca:
Disallow: /
o bloqueos amplios.
Paso 2 — Validar con Search Console
Herramienta → Probador de robots.txt
Permite simular rastreo.
Paso 3 — Corregir reglas
Ejemplo seguro:
User-agent: *
Disallow: /admin/
Allow: /
Paso 4 — Subir nueva versión
- Reemplazar archivo
- Limpiar caché
- Verificar URL pública
Paso 5 — Solicitar reindexación
Desde Search Console:
- Inspección de URL
- Solicitar indexación
Buenas prácticas de robots.txt en 2026
Estructura recomendada
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://tudominio.com/sitemap.xml
Recomendaciones clave
- No bloquear contenido SEO
- Permitir recursos de renderizado
- Incluir sitemap
- Revisarlo en cada migración
- Auditar tras rediseños
Robots.txt vs Meta Robots vs Noindex
| Elemento | Bloquea rastreo | Bloquea indexación |
| robots.txt | Sí | No siempre |
| meta noindex | No | Sí |
| X-Robots HTTP | No | Sí |
👉 Error común: bloquear en robots.txt cuando querías desindexar.
Bloquear una URL en robots.txt no garantiza que no aparezca en Google. Si otros sitios la enlazan, puede indexarse sin contenido. Para evitarlo, debe usarse “noindex”. Comprender esta diferencia es clave para un control real de visibilidad orgánica.
Preguntas frecuentes tipo PAA (People Also Ask)
¿Qué pasa si bloqueo mi web en robots.txt?
Google deja de rastrear. Con el tiempo, elimina las páginas del índice.
¿Robots.txt elimina páginas de Google?
No directamente. Solo bloquea rastreo. Para eliminar, usa noindex o Search Console.
¿Dónde está el archivo robots.txt?
En la raíz del dominio:
tudominio.com/robots.txt
¿Cada cuánto debo revisarlo?
- Migraciones
- Rediseños
- Cambios SEO técnicos
- Caídas de tráfico
¿Afecta a motores de IA?
Sí. Si no pueden rastrear contenido, no pueden citarlo ni usarlo en respuestas.
Casos reales de impacto
Caso 1 — Ecommerce bloqueado
Error:
Disallow: /
Resultado:
- −92% tráfico en 3 semanas
- 0 páginas indexadas
- Recuperación: 2 meses
Caso 2 — Blog bloqueado
Bloquearon /blog/
Impacto:
- Pérdida de 70% keywords
- Caída de leads inbound
- Desaparición en AI Overviews
Checklist final de prevención
✔ Archivo accesible
✔ Sin bloqueos globales
✔ Blog permitido
✔ Recursos renderizables
✔ Sitemap incluido
✔ Probado en Search Console
✔ Revisado tras deploys
CTA suave (conversión)
Si tu tráfico ha caído sin explicación, una auditoría de robots.txt suele ser el primer diagnóstico técnico.
Revisarlo toma minutos. Recuperar indexación puede tomar meses.
FAQs finales
¿Google siempre respeta robots.txt?
La mayoría de bots sí, pero no es un método de seguridad.
¿Puedo ocultar páginas sensibles con robots.txt?
No. Deben protegerse con login o noindex.
¿Un cambio en robots.txt es inmediato?
El rastreo puede tardar horas o días en reflejarse.
¿Debo bloquear filtros y parámetros?
Depende de la estrategia SEO y crawl budget.
¿Quieres saber por qué tu salón no está atrayendo clientes desde Google?
Solicita una auditoría SEO gratuita y descubre qué está frenando tu visibilidad y qué oportunidades puedes aprovechar para crecer sin publicidad.