Crea un file robots.txt perfettamente formattato in pochi secondi con il nostro visual builder oppure convalida quello esistente per individuare eventuali errori che potrebbero bloccare silenziosamente Google dal tuo sito.
Used to auto-fill the Sitemap URL.
# Loading preview…
Verifica se un URL specifico potrebbe essere consentito o bloccato da queste regole.
UN file robots.txt è un file di testo semplice posizionato nella radice del tuo sito web (ad es. https://yoursite.com/robots.txt). Indica ai crawler dei motori di ricerca, come Googlebot, quali pagine o sezioni del tuo sito dovrebbero o non dovrebbero scansionare e indicizzare.
Sebbene robots.txt non garantisca la privacy (le pagine bloccate possono comunque apparire nei risultati di ricerca se collegate da altri siti), è lo strumento principale per la gestione scansionare il budget - quanto del tuo sito viene esplorato da Google al giorno. Se utilizzato correttamente, aiuta Google a focalizzare la scansione sulle pagine che effettivamente contano per il tuo posizionamento.
Per i siti WordPress in particolare, un robots.txt ben configurato impedisce a Googlebot di perdere tempo su pagine di amministrazione, schermate di accesso e risultati di ricerca interni, indirizzando invece il budget di scansione verso i tuoi contenuti.
# Allow all crawlers, block admin User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php # Block bad bots entirely User-agent: AhrefsBot Disallow: / # Sitemap location Sitemap: https://yoursite.com/sitemap.xml
WordPress non crea un robots.txt per impostazione predefinita. Ecco esattamente cosa aggiungere per un SEO ottimale.
Seleziona il modello "WordPress" sopra, inserisci l'URL del tuo sito e il file robots.txt verrà generato immediatamente con tutte le regole corrette precompilate.
Scarica il file robots.txt generato e caricalo nella directory principale del tuo sito utilizzando FTP, cPanel File Manager o il file manager del tuo host.
Sia Yoast SEO che Rank Math hanno un editor robots.txt integrato in SEO → Strumenti → Editor di file. Incolla direttamente lì il contenuto generato.
Suggerimento professionale: convalida dopo ogni modifica
Dopo aver caricato o modificato il tuo robots.txt, eseguilo sempre attraverso il nostro validatore qui sopra per verificare la presenza di errori. Un singolo errore di battitura... tipo Disallow: / - può bloccare l'intero sito da Google durante la notte.
Questi sono gli errori più comuni rilevati dal nostro validatore e quelli che con maggiore probabilità uccideranno silenziosamente il tuo posizionamento su Google.
UN Disallow: / Sotto User-agent: * blocca Googlebot dall'intero sito. Questo è l'errore più catastrofico del file robots.txt e si verifica più spesso di quanto si pensi durante la creazione del sito.
Non consentire /wp-content/ impedisce a Google di caricare i tuoi fogli di stile e script. Google visualizza le pagine come un browser: se non riesce a caricare CSS/JS, non può valutare correttamente i tuoi contenuti per il posizionamento.
Non incluso a Sitemap: direttiva significa che Google deve scoprire la tua mappa del sito solo tramite l'invio alla Search Console. Aggiungerlo a robots.txt è una soluzione facile che aiuta Googlebot a trovare tutte le tue pagine più velocemente.
I percorsi robots.txt fanno distinzione tra maiuscole e minuscole sui server Linux. Disallow: /Admin/ NON blocca /admin/. Utilizza sempre il caso esatto dei percorsi URL effettivi.
Correggi il SEO del tuo intero sito
Una volta che il file robots.txt consente a Google di eseguire la scansione del tuo sito, assicurati che ogni pagina sia ottimizzata. SkySEOManager Pro genera in blocco titoli, meta descrizioni e testo alternativo dell'immagine nell'intero sito WordPress, grazie alla tecnologia Gemini AI.
Disallow: /wp-admin/ impedisce ai crawler di sprecare il budget di scansione su pagine di amministrazione che non hanno valore SEO. Tuttavia, assicurati di aggiungere Allow: /wp-admin/admin-ajax.php nella riga successiva per mantenere le funzionalità dipendenti da AJAX (come gli aggiornamenti del carrello WooCommerce) funzionanti correttamente.Libero per sempre. Nessun account richiesto. Il tuo robots.txt pronto in 30 secondi.