Crie um arquivo robots.txt perfeitamente formatado em segundos com nosso construtor visual - ou valide o arquivo existente em busca de erros que possam estar bloqueando silenciosamente o Google em seu site.
Used to auto-fill the Sitemap URL.
# Loading preview…
Teste se um URL específico seria permitido ou bloqueado por essas regras.
UM Arquivo robots.txt é um arquivo de texto simples colocado na raiz do seu site (por exemplo, https://yoursite.com/robots.txt). Ele instrui os rastreadores de mecanismos de pesquisa – como o Googlebot – quais páginas ou seções do seu site eles devem ou não rastrear e indexar.
Embora o robots.txt não garanta privacidade (páginas bloqueadas ainda podem aparecer nos resultados de pesquisa se estiverem vinculadas a outros sites), ele é a principal ferramenta para gerenciar orçamento de rastreamento – quanto do seu site o Google explora por dia. Usado corretamente, ajuda o Google a concentrar seu rastreamento nas páginas que realmente importam para sua classificação.
Especificamente para sites WordPress, um robots.txt bem configurado evita que o Googlebot perca tempo em páginas de administração, telas de login e resultados de pesquisa internos - direcionando esse orçamento de rastreamento para o seu conteúdo.
# Allow all crawlers, block admin User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php # Block bad bots entirely User-agent: AhrefsBot Disallow: / # Sitemap location Sitemap: https://yoursite.com/sitemap.xml
O WordPress não cria um robots.txt por padrão. Aqui está exatamente o que adicionar para um SEO ideal.
Selecione o modelo “WordPress” acima, insira o URL do seu site e seu robots.txt será gerado instantaneamente com todas as regras corretas pré-preenchidas.
Baixe o arquivo robots.txt gerado e carregue-o no diretório raiz do seu site usando FTP, gerenciador de arquivos cPanel ou gerenciador de arquivos do seu host.
Tanto o Yoast SEO quanto o Rank Math têm um editor robots.txt integrado em SEO → Ferramentas → Editor de arquivos. Cole o conteúdo gerado diretamente lá.
Dica profissional: valide após cada alteração
Depois de enviar ou editar seu robots.txt, sempre execute-o em nosso validador acima para verificar se há erros. Um único erro de digitação - como Disallow: / – pode bloquear todo o seu site do Google durante a noite.
Esses são os erros mais comuns que nosso validador detecta – e aqueles com maior probabilidade de destruir silenciosamente sua classificação no Google.
UM Disallow: / sob User-agent: * bloqueia o Googlebot de todo o seu site. Este é o erro mais catastrófico do robots.txt - e acontece com mais frequência do que você imagina durante a construção do site.
Proibindo /wp-content/ impede que o Google carregue suas folhas de estilo e scripts. O Google renderiza páginas como um navegador – se não conseguir carregar CSS/JS, não poderá avaliar adequadamente seu conteúdo para classificação.
Não incluindo um Sitemap: diretiva significa que o Google deve descobrir o mapa do seu site apenas por meio do envio do Search Console. Adicioná-lo ao robots.txt é uma vitória fácil que ajuda o Googlebot a encontrar todas as suas páginas com mais rapidez.
Os caminhos Robots.txt diferenciam maiúsculas de minúsculas em servidores Linux. Disallow: /Admin/ NÃO bloqueia /admin/. Sempre use o caso exato dos seus caminhos de URL reais.
Corrija o SEO de todo o seu site
Depois que seu robots.txt permitir que o Google rastreie seu site, certifique-se de que todas as páginas estejam otimizadas. SkySEOManager Pro gera títulos em massa, meta descrições e texto alternativo de imagem em todo o seu site WordPress - com tecnologia Gemini AI.
Disallow: /wp-admin/ evita que os rastreadores desperdicem seu orçamento de rastreamento em páginas administrativas que não têm valor de SEO. No entanto, certifique-se de adicionar Allow: /wp-admin/admin-ajax.php na próxima linha para manter os recursos dependentes de AJAX (como atualizações do carrinho WooCommerce) funcionando corretamente.Livre para sempre. Nenhuma conta é necessária. Seu robots.txt pronto em 30 segundos.