Gratuito · Nessuna registrazione · Risultati immediati

Robots.txt gratuito Generatore e validatore

Crea un file robots.txt perfettamente formattato in pochi secondi con il nostro visual builder oppure convalida quello esistente per individuare eventuali errori che potrebbero bloccare silenziosamente Google dal tuo sito.

Build Your Robots.txt

Used to auto-fill the Sitemap URL.

Live Preview

robots.txt
# Loading preview…
0 lines
0 bytes
Le nozioni di base

Cos'è un file Robots.txt?

UN file robots.txt è un file di testo semplice posizionato nella radice del tuo sito web (ad es. https://yoursite.com/robots.txt). Indica ai crawler dei motori di ricerca, come Googlebot, quali pagine o sezioni del tuo sito dovrebbero o non dovrebbero scansionare e indicizzare.

Sebbene robots.txt non garantisca la privacy (le pagine bloccate possono comunque apparire nei risultati di ricerca se collegate da altri siti), è lo strumento principale per la gestione scansionare il budget - quanto del tuo sito viene esplorato da Google al giorno. Se utilizzato correttamente, aiuta Google a focalizzare la scansione sulle pagine che effettivamente contano per il tuo posizionamento.

Per i siti WordPress in particolare, un robots.txt ben configurato impedisce a Googlebot di perdere tempo su pagine di amministrazione, schermate di accesso e risultati di ricerca interni, indirizzando invece il budget di scansione verso i tuoi contenuti.

esempio robots.txt
# Allow all crawlers, block admin
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

# Block bad bots entirely
User-agent: AhrefsBot
Disallow: /

# Sitemap location
Sitemap: https://yoursite.com/sitemap.xml
Guida WordPress

Come creare un Robots.txt per WordPress

WordPress non crea un robots.txt per impostazione predefinita. Ecco esattamente cosa aggiungere per un SEO ottimale.

1

Usa il generatore qui sopra

Seleziona il modello "WordPress" sopra, inserisci l'URL del tuo sito e il file robots.txt verrà generato immediatamente con tutte le regole corrette precompilate.

2

Carica tramite FTP o cPanel

Scarica il file robots.txt generato e caricalo nella directory principale del tuo sito utilizzando FTP, cPanel File Manager o il file manager del tuo host.

3

Oppure usa Yoast/Rank Math

Sia Yoast SEO che Rank Math hanno un editor robots.txt integrato in SEO → Strumenti → Editor di file. Incolla direttamente lì il contenuto generato.

💡

Suggerimento professionale: convalida dopo ogni modifica

Dopo aver caricato o modificato il tuo robots.txt, eseguilo sempre attraverso il nostro validatore qui sopra per verificare la presenza di errori. Un singolo errore di battitura... tipo Disallow: / - può bloccare l'intero sito da Google durante la notte.

Evita questi errori

Errori comuni di Robots.txt che danneggiano il tuo SEO

Questi sono gli errori più comuni rilevati dal nostro validatore e quelli che con maggiore probabilità uccideranno silenziosamente il tuo posizionamento su Google.

🔴

Disallow: / (Blocca tutto)

UN Disallow: / Sotto User-agent: * blocca Googlebot dall'intero sito. Questo è l'errore più catastrofico del file robots.txt e si verifica più spesso di quanto si pensi durante la creazione del sito.

🟡

Blocco dei file CSS e JavaScript

Non consentire /wp-content/ impedisce a Google di caricare i tuoi fogli di stile e script. Google visualizza le pagine come un browser: se non riesce a caricare CSS/JS, non può valutare correttamente i tuoi contenuti per il posizionamento.

🟡

Direttiva sulla mappa del sito mancante

Non incluso a Sitemap: direttiva significa che Google deve scoprire la tua mappa del sito solo tramite l'invio alla Search Console. Aggiungerlo a robots.txt è una soluzione facile che aiuta Googlebot a trovare tutte le tue pagine più velocemente.

ℹ️

Errori di percorso con distinzione tra maiuscole e minuscole

I percorsi robots.txt fanno distinzione tra maiuscole e minuscole sui server Linux. Disallow: /Admin/ NON blocca /admin/. Utilizza sempre il caso esatto dei percorsi URL effettivi.

Correggi il SEO del tuo intero sito

Il tuo robots.txt è solo l'inizio.
Correggi il SEO di ogni pagina con SkySEOManager Pro.

Una volta che il file robots.txt consente a Google di eseguire la scansione del tuo sito, assicurati che ogni pagina sia ottimizzata. SkySEOManager Pro genera in blocco titoli, meta descrizioni e testo alternativo dell'immagine nell'intero sito WordPress, grazie alla tecnologia Gemini AI.

Domande frequenti

È necessario un file robots.txt per la SEO?
No, non è richiesto un file robots.txt. Se Google non trova robots.txt nella radice del tuo dominio, lo considera come "consenti tutto" ed esegue la scansione dell'intero sito liberamente. Tuttavia, crearne uno è fortemente consigliato per la maggior parte dei siti in modo da poter bloccare esplicitamente la scansione delle pagine di amministrazione, delle pagine di accesso e dei contenuti duplicati.
Il file robots.txt impedirà che le mie pagine vengano visualizzate su Google?
Il blocco di un URL nel file robots.txt impedisce a Googlebot di strisciare lo farà, ma non garantisce che non lo farà apparire nei risultati di ricerca. Se altri siti si collegano a un URL bloccato, Google potrebbe comunque mostrarlo nei risultati con la descrizione "Nessuna informazione disponibile". Per impedire completamente che una pagina venga visualizzata su Google, utilizza invece un meta tag noindex.
Google segue la direttiva sul ritardo della scansione?
No: Google ignora esplicitamente la direttiva Crawl-delay. Utilizza i propri segnali interni per gestire la velocità di scansione del tuo server. Il ritardo della scansione è rispettato da alcuni altri bot come Bingbot e Yandex, ma non ha alcun effetto su Googlebot.
Con quale frequenza Google rilegge il mio robots.txt?
Google in genere memorizza nella cache e rilegge i file robots.txt ogni 24 ore. Se apporti una modifica che desideri che Google raccolga rapidamente (come la rimozione di un noindex o una regola Disallow), puoi richiedere una nuova scansione più rapida tramite Google Search Console → Impostazioni → Statistiche di scansione.
Devo bloccare la mia directory /wp-admin/?
SÌ. Aggiunta Disallow: /wp-admin/ impedisce ai crawler di sprecare il budget di scansione su pagine di amministrazione che non hanno valore SEO. Tuttavia, assicurati di aggiungere Allow: /wp-admin/admin-ajax.php nella riga successiva per mantenere le funzionalità dipendenti da AJAX (come gli aggiornamenti del carrello WooCommerce) funzionanti correttamente.

Crea o controlla il tuo Robots.txt adesso

Libero per sempre. Nessun account richiesto. Il tuo robots.txt pronto in 30 secondi.