La configuración de robots.txt es binaria en AEO: si bloqueas a los bots de IA, tu
Citation Rate será 0% indefinidamente. No importa cuán bueno sea tu contenido, si el bot no puede
leerlo, no existe.
El error común: Muchos sitios mantienen configuraciones heredadas (Legacy SEO) que bloquean todo lo que no sea Googlebot. En 2026, esto significa renunciar al 43% del tráfico de búsqueda.
Por qué el acceso de bots es crítico
A diferencia del SEO tradicional donde puedes rankear con problemas de rastreo parciales, en AEO el bloqueo es absoluto.
- Sin indexación: GPTbot no "adivina" tu contenido. Si ve
Disallow, se retira. - Efecto duradero: Aunque desbloquees hoy, el re-rastreo puede tardar 30-60 días.
- Irreversible sin acción: Ninguna cantidad de backlinks compensa un bloqueo en robots.txt.
Framework: Configuración Correcta en 5 Pasos
Auditar Configuración Actual
Accede a tudominio.com/robots.txt. Busca directivas bloqueantes como:
Disallow: /
O el comodín peligroso User-agent: * Disallow: /.
Permitir Acceso Explícito
Añade el siguiente bloque a tu archivo robots.txt para garantizar visibilidad en los principales motores.
# Acceso para Bots de IA (AEO)
User-agent: GPTbot
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: Google-Extended
Allow: /
User-agent: ClaudeBot
Allow: /
# Mantener bloqueos de seguridad
User-agent: *
Disallow: /wp-admin/
Disallow: /cart/
Disallow: /private/
Verificar Logs del Servidor
Después de 15 días, revisa los logs de acceso de tu servidor. Deberías empezar a ver
peticiones de user-agents como GPTbot/1.0.
Revisar Headers HTTP
Asegúrate de no tener etiquetas noindex en el <head> o
headers X-Robots-Tag que contradigan tu robots.txt.
Sitemap XML
Facilita el descubrimiento añadiendo la línea final en tu robots.txt:
Sitemap: https://tudominio.com/sitemap.xml
Impacto de Desbloquear Bots
Agencia Inbound
Tenían Citation Rate 0% por bloqueo de Wordfence. Tras whitelisting, alcanzaron 41% en 90 días.
SaaS B2B
Eliminaron un Disallow: / heredado de etapa beta. El tráfico orgánico creció
340% en 2 meses.
Consultora
Corrigieron un header noindex accidental. La indexación comenzó en 20 días y las
citaciones en 75.
Academia Online
Cloudflare bloqueaba bots legítimos. Ajustar el WAF permitió rastreo activo y aumentó citaciones un 47%.
Errores Comunes en la Configuración de Robots para IA
- Miedo al Scraping/Plagio: Bloquear bots de IA asumiendo "robo de contenido". La indexación sirve para generar citas, no un espejo de la nota. Perder esta visibilidad tiene un costo de oportunidad dramático.
- Sintaxis Incorrecta: Errores tipográficos vitales (falta de ":", "User agent" sin guión Medio) invalidando el archivo en el W3C standard y paralizando rastreos.
- Bloqueo Incompleto: Permitir que pase el escrutinio de Google-Extended pero cerrar a PerplexityBot reduce artificialmente el alcance que podrías lograr sin esfuerzo.
- Ignorar Headers Server-Side: Confiar de que el robots.txt es la única fuente de bloqueo, ignorando el `X-Robots-Tag: noindex` inyectado colateralmente por algún middleware.
- Reglas comodín contraproducentes: Mezclar instrucciones Disallow usando
*global sin comprender la precedencia con los User-Agents de Inteligencia Artificial que se listan subyacentemente.
Preguntas Frecuentes sobre Robots.txt para IA
¿Cómo sé si los bots están explícitamente bloqueados?
Chequea tudominio.com/robots.txt buscando "User-agent: GPTbot" en par con "Disallow: /". También es valioso leer de primera fuente los "Access Logs" y corroborar visitas nulas de esos Agentes.
¿Debo permitir todos los bots de IA de forma incondicional?
Apunta al "Big 4" al menos: GPTbot, PerplexityBot, Google-Extended y ClaudeBot (concentran cerca del 90% del Share transaccional B2B).
¿Demora meses en surtir efecto una vez cambiados los permits?
A menudo el re-rastreo automático demora 15-45 dias, con citaciones impactando en torno a 30-45 d. adicionales (ciclo de 60 a 105 días en total).
¿Qué hago si mi CDN o seguridad hostiliza mis permisos?
Contacta de ser necesario con Soporte para auditar el WAF (Firewall en nube) a nivel Cloudflare/Sucuri para blindar específicamente a estos Agentes inofensivos fuera de las blacklist por fuerza bruta.
¿Cómo configurar robots.txt para bots de IA?
Para permitir que motores como ChatGPT y Perplexity citen tu contenido, debes añadir directivas
Allow explícitas para sus user-agents en tu archivo robots.txt, evitando reglas de
bloqueo genéricas.
Configuración recomendada:
User-agent: GPTbot Allow: / User-agent: PerplexityBot Allow: / User-agent: Google-Extended Allow: /
Conclusión: Configuración Obligatoria para Visibilidad
Configurar el robots.txt es un prerrequisito innegociable de una estrategia sólida para Search de IA. El 40% de los sitios evaluados en 0% Citation Rate no eran castigados por bajo nivel discursivo, sino por barreras WAF legadas y rechazos binarios al Bot. Permitir AI crawling NO compromete el IP o copyright de forma riesgosa. Sencillamente indexa para derivar referencial de usuario.
- El primer check es hoy: busca "/robots.txt", lee si rechaza `GPTbot` o parecidos, e infundí las excepciones de `Allow`.
- Sistemáticamente, revisa luego tus logs host (p/ej via cPanel) 30 días posteriores ratificando accesos frescos.