Cree un archivo robots.txt perfectamente formateado en segundos con nuestro creador visual, o valide el existente para detectar errores que podrían estar bloqueando silenciosamente a Google en su sitio.
Used to auto-fill the Sitemap URL.
# Loading preview…
Pruebe si estas reglas permitirían o bloquearían una URL específica.
A archivo robots.txt es un archivo de texto sin formato ubicado en la raíz de su sitio web (p. ej. https://yoursite.com/robots.txt). Indica a los rastreadores de motores de búsqueda, como el robot de Google, qué páginas o secciones de su sitio deben o no rastrear e indexar.
Si bien robots.txt no garantiza la privacidad (las páginas bloqueadas aún pueden aparecer en los resultados de búsqueda si se vinculan desde otros sitios), es la herramienta principal para administrar presupuesto de rastreo - cuánto de su sitio explora Google por día. Si se utiliza correctamente, ayuda a Google a centrar su rastreo en las páginas que realmente importan para su clasificación.
Específicamente para los sitios de WordPress, un archivo robots.txt bien configurado evita que el robot de Google pierda tiempo en las páginas de administración, las pantallas de inicio de sesión y los resultados de búsqueda internos, dirigiendo ese presupuesto de rastreo hacia su contenido.
# Allow all crawlers, block admin User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php # Block bad bots entirely User-agent: AhrefsBot Disallow: / # Sitemap location Sitemap: https://yoursite.com/sitemap.xml
WordPress no crea un archivo robots.txt de forma predeterminada. Esto es exactamente lo que debe agregar para un SEO óptimo.
Seleccione la plantilla "WordPress" de arriba, ingrese la URL de su sitio y su archivo robots.txt se generará instantáneamente con todas las reglas correctas precargadas.
Descargue el archivo robots.txt generado y cárguelo en el directorio raíz de su sitio mediante FTP, cPanel File Manager o el administrador de archivos de su host.
Tanto Yoast SEO como Rank Math tienen un editor robots.txt incorporado en SEO → Herramientas → Editor de archivos. Pegue su contenido generado allí directamente.
Consejo profesional: valide después de cada cambio
Después de cargar o editar su archivo robots.txt, ejecútelo siempre a través de nuestro validador anterior para verificar si hay errores. Un solo error tipográfico, como Disallow: / - puede bloquear todo su sitio de Google de la noche a la mañana.
Estos son los errores más comunes que detecta nuestro validador y los que con mayor probabilidad acaban silenciosamente con su clasificación en Google.
A Disallow: / bajo User-agent: * bloquea Googlebot de todo su sitio. Este es el error de robots.txt más catastrófico y ocurre con más frecuencia de lo que imaginas durante la creación de un sitio.
No permitir /wp-content/ evita que Google cargue sus hojas de estilo y scripts. Google presenta páginas como un navegador: si no puede cargar CSS/JS, no puede evaluar adecuadamente su contenido para clasificarlo.
Sin incluir un Sitemap: La directiva significa que Google tiene que descubrir su mapa del sitio únicamente a través del envío de Search Console. Agregarlo a robots.txt es una ganancia fácil que ayuda al robot de Google a encontrar todas sus páginas más rápido.
Las rutas de Robots.txt distinguen entre mayúsculas y minúsculas en los servidores Linux. Disallow: /Admin/ NO bloquea /admin/. Utilice siempre las mayúsculas y minúsculas exactas de sus rutas URL reales.
Arregla el SEO de todo tu sitio
Una vez que su archivo robots.txt permita a Google rastrear su sitio, asegúrese de que todas las páginas estén optimizadas. SkySEOManager Pro genera de forma masiva títulos, metadescripciones y texto alternativo de imágenes en todo su sitio de WordPress, con tecnología de Gemini AI.
Disallow: /wp-admin/ evita que los rastreadores desperdicien su presupuesto de rastreo en páginas de administración que no tienen valor SEO. Sin embargo, asegúrese de agregar Allow: /wp-admin/admin-ajax.php en la siguiente línea para mantener las funciones dependientes de AJAX (como las actualizaciones del carrito de WooCommerce) funcionando correctamente.Gratis para siempre. No se requiere cuenta. Tu robots.txt listo en 30 segundos.