Gratuito · Sem inscrição · Resultados instantâneos

Robôs.txt grátis Gerador e Validador

Crie um arquivo robots.txt perfeitamente formatado em segundos com nosso construtor visual - ou valide o arquivo existente em busca de erros que possam estar bloqueando silenciosamente o Google em seu site.

Build Your Robots.txt

Used to auto-fill the Sitemap URL.

Live Preview

robots.txt
# Loading preview…
0 lines
0 bytes
O Básico

O que é um arquivo Robots.txt?

UM Arquivo robots.txt é um arquivo de texto simples colocado na raiz do seu site (por exemplo, https://yoursite.com/robots.txt). Ele instrui os rastreadores de mecanismos de pesquisa – como o Googlebot – quais páginas ou seções do seu site eles devem ou não rastrear e indexar.

Embora o robots.txt não garanta privacidade (páginas bloqueadas ainda podem aparecer nos resultados de pesquisa se estiverem vinculadas a outros sites), ele é a principal ferramenta para gerenciar orçamento de rastreamento – quanto do seu site o Google explora por dia. Usado corretamente, ajuda o Google a concentrar seu rastreamento nas páginas que realmente importam para sua classificação.

Especificamente para sites WordPress, um robots.txt bem configurado evita que o Googlebot perca tempo em páginas de administração, telas de login e resultados de pesquisa internos - direcionando esse orçamento de rastreamento para o seu conteúdo.

exemplo robots.txt
# Allow all crawlers, block admin
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

# Block bad bots entirely
User-agent: AhrefsBot
Disallow: /

# Sitemap location
Sitemap: https://yoursite.com/sitemap.xml
Guia WordPress

Como criar um Robots.txt para WordPress

O WordPress não cria um robots.txt por padrão. Aqui está exatamente o que adicionar para um SEO ideal.

1

Use o gerador acima

Selecione o modelo “WordPress” acima, insira o URL do seu site e seu robots.txt será gerado instantaneamente com todas as regras corretas pré-preenchidas.

2

Carregar via FTP ou cPanel

Baixe o arquivo robots.txt gerado e carregue-o no diretório raiz do seu site usando FTP, gerenciador de arquivos cPanel ou gerenciador de arquivos do seu host.

3

Ou use Yoast / Rank Math

Tanto o Yoast SEO quanto o Rank Math têm um editor robots.txt integrado em SEO → Ferramentas → Editor de arquivos. Cole o conteúdo gerado diretamente lá.

💡

Dica profissional: valide após cada alteração

Depois de enviar ou editar seu robots.txt, sempre execute-o em nosso validador acima para verificar se há erros. Um único erro de digitação - como Disallow: / – pode bloquear todo o seu site do Google durante a noite.

Evite esses erros

Erros comuns do Robots.txt que prejudicam seu SEO

Esses são os erros mais comuns que nosso validador detecta – e aqueles com maior probabilidade de destruir silenciosamente sua classificação no Google.

🔴

Proibir: / (Bloqueia tudo)

UM Disallow: / sob User-agent: * bloqueia o Googlebot de todo o seu site. Este é o erro mais catastrófico do robots.txt - e acontece com mais frequência do que você imagina durante a construção do site.

🟡

Bloqueio de arquivos CSS e JavaScript

Proibindo /wp-content/ impede que o Google carregue suas folhas de estilo e scripts. O Google renderiza páginas como um navegador – se não conseguir carregar CSS/JS, não poderá avaliar adequadamente seu conteúdo para classificação.

🟡

Diretiva de Sitemap ausente

Não incluindo um Sitemap: diretiva significa que o Google deve descobrir o mapa do seu site apenas por meio do envio do Search Console. Adicioná-lo ao robots.txt é uma vitória fácil que ajuda o Googlebot a encontrar todas as suas páginas com mais rapidez.

ℹ️

Erros de caminho que diferenciam maiúsculas de minúsculas

Os caminhos Robots.txt diferenciam maiúsculas de minúsculas em servidores Linux. Disallow: /Admin/ NÃO bloqueia /admin/. Sempre use o caso exato dos seus caminhos de URL reais.

Corrija o SEO de todo o seu site

Seu robots.txt é apenas o começo.
Corrija o SEO de cada página com SkySEOManager Pro.

Depois que seu robots.txt permitir que o Google rastreie seu site, certifique-se de que todas as páginas estejam otimizadas. SkySEOManager Pro gera títulos em massa, meta descrições e texto alternativo de imagem em todo o seu site WordPress - com tecnologia Gemini AI.

Perguntas frequentes

É necessário um arquivo robots.txt para SEO?
Não, um arquivo robots.txt não é necessário. Se o Google não encontrar nenhum robots.txt na raiz do seu domínio, ele tratará isso como “permitir tudo” e rastreará todo o seu site livremente. No entanto, criar um é altamente recomendado para a maioria dos sites, para que você possa bloquear explicitamente o rastreamento de páginas de administração, páginas de login e conteúdo duplicado.
O robots.txt impedirá que minhas páginas apareçam no Google?
Bloquear um URL no robots.txt impede que o Googlebot rastejando isso, mas não garante que não aparecer nos resultados da pesquisa. Se outros sites direcionarem para um URL bloqueado, o Google ainda poderá exibi-lo nos resultados com a descrição "Nenhuma informação disponível". Para evitar totalmente que uma página apareça no Google, use uma meta tag noindex.
O Google segue a diretiva Crawl-delay?
Não – o Google ignora explicitamente a diretiva Crawl-delay. Ele usa seus próprios sinais internos para gerenciar a taxa de rastreamento do seu servidor. O atraso no rastreamento é respeitado por alguns outros bots como Bingbot e Yandex, mas não tem efeito no Googlebot.
Com que frequência o Google relê meu robots.txt?
O Google normalmente armazena em cache e relê arquivos robots.txt a cada 24 horas. Se você fizer uma alteração que precisa que o Google detecte rapidamente (como remover uma regra noindex ou Proibir), você pode solicitar um novo rastreamento mais rápido por meio do Google Search Console → Configurações → Estatísticas de rastreamento.
Devo bloquear meu diretório /wp-admin/?
Sim. Adicionando Disallow: /wp-admin/ evita que os rastreadores desperdicem seu orçamento de rastreamento em páginas administrativas que não têm valor de SEO. No entanto, certifique-se de adicionar Allow: /wp-admin/admin-ajax.php na próxima linha para manter os recursos dependentes de AJAX (como atualizações do carrinho WooCommerce) funcionando corretamente.

Crie ou verifique seu Robots.txt agora

Livre para sempre. Nenhuma conta é necessária. Seu robots.txt pronto em 30 segundos.