Gratis · Sin registro · Resultados instantáneos

Robots gratis.txt Generador y validador

Cree un archivo robots.txt perfectamente formateado en segundos con nuestro creador visual, o valide el existente para detectar errores que podrían estar bloqueando silenciosamente a Google en su sitio.

Build Your Robots.txt

Used to auto-fill the Sitemap URL.

Live Preview

robots.txt
# Loading preview…
0 lines
0 bytes
Los conceptos básicos

¿Qué es un archivo Robots.txt?

A archivo robots.txt es un archivo de texto sin formato ubicado en la raíz de su sitio web (p. ej. https://yoursite.com/robots.txt). Indica a los rastreadores de motores de búsqueda, como el robot de Google, qué páginas o secciones de su sitio deben o no rastrear e indexar.

Si bien robots.txt no garantiza la privacidad (las páginas bloqueadas aún pueden aparecer en los resultados de búsqueda si se vinculan desde otros sitios), es la herramienta principal para administrar presupuesto de rastreo - cuánto de su sitio explora Google por día. Si se utiliza correctamente, ayuda a Google a centrar su rastreo en las páginas que realmente importan para su clasificación.

Específicamente para los sitios de WordPress, un archivo robots.txt bien configurado evita que el robot de Google pierda tiempo en las páginas de administración, las pantallas de inicio de sesión y los resultados de búsqueda internos, dirigiendo ese presupuesto de rastreo hacia su contenido.

ejemplo robots.txt
# Allow all crawlers, block admin
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

# Block bad bots entirely
User-agent: AhrefsBot
Disallow: /

# Sitemap location
Sitemap: https://yoursite.com/sitemap.xml
Guía de WordPress

Cómo crear un archivo Robots.txt para WordPress

WordPress no crea un archivo robots.txt de forma predeterminada. Esto es exactamente lo que debe agregar para un SEO óptimo.

1

Utilice el generador de arriba

Seleccione la plantilla "WordPress" de arriba, ingrese la URL de su sitio y su archivo robots.txt se generará instantáneamente con todas las reglas correctas precargadas.

2

Subir vía FTP o cPanel

Descargue el archivo robots.txt generado y cárguelo en el directorio raíz de su sitio mediante FTP, cPanel File Manager o el administrador de archivos de su host.

3

O use Yoast / Rank Math

Tanto Yoast SEO como Rank Math tienen un editor robots.txt incorporado en SEO → Herramientas → Editor de archivos. Pegue su contenido generado allí directamente.

💡

Consejo profesional: valide después de cada cambio

Después de cargar o editar su archivo robots.txt, ejecútelo siempre a través de nuestro validador anterior para verificar si hay errores. Un solo error tipográfico, como Disallow: / - puede bloquear todo su sitio de Google de la noche a la mañana.

Evite estos errores

Errores comunes de Robots.txt que perjudican su SEO

Estos son los errores más comunes que detecta nuestro validador y los que con mayor probabilidad acaban silenciosamente con su clasificación en Google.

🔴

No permitir: / (Bloquea todo)

A Disallow: / bajo User-agent: * bloquea Googlebot de todo su sitio. Este es el error de robots.txt más catastrófico y ocurre con más frecuencia de lo que imaginas durante la creación de un sitio.

🟡

Bloqueo de archivos CSS y JavaScript

No permitir /wp-content/ evita que Google cargue sus hojas de estilo y scripts. Google presenta páginas como un navegador: si no puede cargar CSS/JS, no puede evaluar adecuadamente su contenido para clasificarlo.

🟡

Falta la directiva de mapa del sitio

Sin incluir un Sitemap: La directiva significa que Google tiene que descubrir su mapa del sitio únicamente a través del envío de Search Console. Agregarlo a robots.txt es una ganancia fácil que ayuda al robot de Google a encontrar todas sus páginas más rápido.

ℹ️

Errores de ruta que distinguen entre mayúsculas y minúsculas

Las rutas de Robots.txt distinguen entre mayúsculas y minúsculas en los servidores Linux. Disallow: /Admin/ NO bloquea /admin/. Utilice siempre las mayúsculas y minúsculas exactas de sus rutas URL reales.

Arregla el SEO de todo tu sitio

Su archivo robots.txt es solo el comienzo.
Arregle el SEO de cada página con SkySEOManager Pro.

Una vez que su archivo robots.txt permita a Google rastrear su sitio, asegúrese de que todas las páginas estén optimizadas. SkySEOManager Pro genera de forma masiva títulos, metadescripciones y texto alternativo de imágenes en todo su sitio de WordPress, con tecnología de Gemini AI.

Preguntas frecuentes

¿Se requiere un archivo robots.txt para SEO?
No, no se requiere un archivo robots.txt. Si Google no encuentra ningún archivo robots.txt en la raíz de su dominio, lo considera "permitir todo" y rastrea todo su sitio libremente. Sin embargo, se recomienda encarecidamente crear uno para la mayoría de los sitios, de modo que pueda bloquear explícitamente el rastreo de páginas de administración, páginas de inicio de sesión y contenido duplicado.
¿El archivo robots.txt impedirá que mis páginas aparezcan en Google?
Bloquear una URL en robots.txt impide que el robot de Google arrastrándose hacerlo, pero no garantiza que no lo hará aparecer en los resultados de búsqueda. Si otros sitios enlazan a una URL bloqueada, es posible que Google aún la muestre en los resultados con la descripción "No hay información disponible". Para evitar por completo que una página aparezca en Google, utilice una metaetiqueta noindex.
¿Google sigue la directiva de retraso de rastreo?
No: Google ignora explícitamente la directiva de retraso de rastreo. Utiliza sus propias señales internas para gestionar la velocidad de rastreo de su servidor. Otros robots como Bingbot y Yandex respetan el retraso de rastreo, pero no tiene ningún efecto en Googlebot.
¿Con qué frecuencia Google vuelve a leer mi archivo robots.txt?
Google normalmente almacena en caché y vuelve a leer los archivos robots.txt cada 24 horas. Si realiza un cambio que necesita que Google detecte rápidamente (como eliminar una regla de no índice o No permitir), puede solicitar un nuevo rastreo más rápido a través de Google Search Console → Configuración → Estadísticas de rastreo.
¿Debo bloquear mi directorio /wp-admin/?
Sí. Añadiendo Disallow: /wp-admin/ evita que los rastreadores desperdicien su presupuesto de rastreo en páginas de administración que no tienen valor SEO. Sin embargo, asegúrese de agregar Allow: /wp-admin/admin-ajax.php en la siguiente línea para mantener las funciones dependientes de AJAX (como las actualizaciones del carrito de WooCommerce) funcionando correctamente.

Crea o revisa tu Robots.txt ahora

Gratis para siempre. No se requiere cuenta. Tu robots.txt listo en 30 segundos.