
Nel report di indicizzazione di Google Search Console lo stato “Esclusa in base al tag noindex” indica che l’URL è stato correttamente scoperto e in genere anche visitato dai crawler, ma non è idoneo all’inclusione nell’indice perché il documento dichiara esplicitamente una direttiva noindex. Questa direttiva può essere presente come meta tag nel codice HTML oppure come intestazione HTTP (X-Robots-Tag) restituita dal server o da un proxy applicativo. In entrambi i casi, il messaggio è chiaro: il motore non deve indicizzare la pagina.
Lo stato non è un “errore” nel senso stretto: è una conseguenza di una tua scelta o di un’impostazione del CMS, di un plugin, del web server o della CDN. Diventa un problema quando l’URL dovrebbe comparire in SERP ma è stato escluso per una configurazione non voluta o ereditata. Capire l’origine del noindex e rimuoverlo quando serve è la chiave per ripristinare l’indicizzazione.
Due strumenti spesso confusi: noindex e robots.txt. Il primo agisce a livello di pagina o risorsa e chiede al motore di non inserirla in indice. Il secondo controlla l’accesso del crawler a intere aree del sito. Una pagina bloccata in robots.txt può, in alcuni casi, apparire comunque in SERP come URL senza snippet se è molto linkata da esterni, perché l’indirizzo è noto anche senza averne letto il contenuto. Con noindex, al contrario, la pagina viene rimossa dall’indice quando il bot riesce a leggerne la direttiva. Ne deriva una regola pratica: se vuoi escludere una pagina dalla ricerca, usa noindex, non il solo robots.txt; se vuoi impedire l’accesso ai bot, usa robots.txt, sapendo che non è uno strumento di sicurezza.
La forma classica è un tag nella sezione <head> del documento, ad esempio <meta name="robots" content="noindex, follow"> oppure <meta name="googlebot" content="noindex">. Molti CMS o theme builder espongono un’impostazione “noindex” a livello di singola pagina, categoria o template.
Il noindex può essere inviato via header, utile con PDF, CSV e contenuti non HTML. Può inserirlo il web server, un reverse proxy, la CDN o un plugin SEO. Se Search Console segnala “noindex” ma non lo vedi nell’HTML, controlla le intestazioni della risposta.
Plugin popolari offrono opzioni per escludere archivi di tag, pagine di ricerca interna, pagine di ringraziamento o di sistema. Una spunta ereditata da un template può coinvolgere centinaia di URL.
Ambienti di test spesso sono protetti da autenticazione, ma alcuni team aggiungono anche noindex. In migrazione, il flag può finire online per errore. Inserisci una verifica automatica nel processo di rilascio.
Rewrite e trasformazioni su Apache, Nginx e Varnish o funzioni CDN possono aggiungere header condizionali. Un redirect verso pagina temporanea potrebbe applicare un noindex imprevisto nella destinazione.
In rari casi il meta robots viene iniettato via script. Se compare solo dopo eventi che il bot non riproduce, la segnalazione può risultare intermittente. Meglio dichiarare i meta nel markup iniziale.
Pagine di ricerca interna, carrelli, checkout, aree di ringraziamento, versioni di stampa, pagine duplicate con scopo operativo. Qui noindex tiene pulita la SERP e lascia comunque seguire i collegamenti interni se imposti noindex, follow.
Non usare noindex come pezza per contenuti scarsi che dovrebbero essere migliorati o consolidati. Evita anche di combinarlo con Disallow in robots.txt sulla stessa pagina, perché impedendo la scansione il bot non leggerà il meta e l’URL potrebbe comparire in SERP come segnaposto di sola URL.
Apri il report “Pagine”, seleziona lo stato “Esclusa in base al tag noindex” e esporta l’elenco. Raggruppa gli URL per percorso, template, tipo di contenuto, presenza in sitemap. Se vedi pattern ricorrenti (per esempio /tag/ o /search/) è probabile che il noindex provenga da un’impostazione di sezione.
Usa “Ispezione URL”, poi “Prova URL attivo”. Nella scheda Disponibilità: Indicizzazione verifica “Indicizzazione consentita?”. Se la diagnostica vede ancora il noindex, significa che è realmente in pagina o negli header. Se non lo vede più, puoi inviare “Richiedi indicizzazione”.
Apri il sorgente e cerca <meta name="robots" o <meta name="googlebot". Controlla che non ci siano meta duplicati con valori in conflitto. Mantieni un’unica istruzione chiara.
Controlla l’intestazione X-Robots-Tag. Se presente su documenti HTML o media, annota chi la inserisce. Alcune CDN applicano noindex a regole di cache “private” o su percorsi temporanei.
Rivedi le opzioni del plugin SEO e del tema. Spesso l’impostazione “Noindex per archivi” è globale. Cambiarla in un ambiente con migliaia di URL può modificare velocemente l’intero stato dell’indice.
Controlla che il flag di noindex usato nei test non sia stato trasferito in produzione. Integra un check automatico nel pipeline di deploy che fallisca il rilascio se trova noindex su template pubblici.
Confronta HTML iniziale e DOM dopo esecuzione degli script. Se il meta viene aggiunto via JavaScript, valuta di spostarlo lato server per coerenza e prevedibilità.
Per ogni URL chiediti quale intento copre e se aggiunge un contributo distintivo rispetto al resto del sito. Se lo scopo è operativo, mantieni noindex, follow. Se lo scopo è informativo o commerciale, procedi con la rimozione solo dopo aver reso il contenuto all’altezza.
Se il noindex è in HTML, rimuovi o sostituisci il meta con index, follow. Se è in header HTTP, modifica la regola a livello di server o CDN. Verifica che non restino residui su template, hook o middleware.
Aggiorna la sitemap XML includendo l’URL solo se restituisce 200 e non ha noindex. Controlla rel=”canonical” autoreferenziale o coerente con la versione preferita. Evita conflitti tra sitemap, canonical, link interni e header.
Quando il test conferma l’assenza del noindex, usa la richiesta di indicizzazione. Non inviare più volte a distanza di poche ore. Lavora per gruppi omogenei di URL e attendi i segnali nelle settimane successive.
Aggiungi collegamenti editoriali da pagine hub pertinenti verso l’URL reinserito, con anchor text descrittiva. Questo aiuta i crawler a rivedere presto la pagina e a valutarne l’importanza nel grafo del sito.
<meta name="robots" content="noindex, follow">Inseriscilo nella sezione <head> di pagine da tenere fuori, ma che devono trasferire segnali attraverso i link. Evita valori in conflitto nello stesso documento.
X-Robots-Tag: noindex, followUtile quando una risorsa non HTML non deve comparire in SERP. In alternativa, se il PDF replica l’HTML, valuta l’header Link: <URL_HTML>; rel="canonical" per consolidare su una pagina principale.
Se blocchi in robots.txt una pagina e le applichi noindex, il crawler potrebbe non leggere mai il meta perché non visita la pagina. In casi urgenti valuta lo strumento “Rimozioni” e poi ripristina l’accesso per far recepire il noindex se lo vuoi mantenere stabile.
Gli archivi generano migliaia di varianti. Puoi tenere indicizzabili poche landing utili e applicare noindex, follow alle combinazioni ripetitive. Mantieni in sitemap solo le versioni principali, collega tra loro le prime pagine della paginazione e usa canonical coerenti per evitare conflitti.
Molti siti impostano noindex sui tag per non diluire la visibilità. Se però alcuni tag ricevono traffico reale e link esterni, valuta di renderli indicizzabili migliorando il contenuto della pagina archivio con introduzione e collegamenti curati.
Ringraziamenti, conferme ordine, step intermedi: qui il noindex è appropriato. Mantieni follow per non interrompere il flusso dei link interni. Evita che link esterni puntino a queste pagine; se accade, valuta un redirect verso una risorsa informativa.
Se l’intero sito è andato live con noindex, rimuovilo subito dai template, esegui test live su più URL, invia richieste di indicizzazione sulle pagine chiave e monitora gli “Stati” finché il numeratore “Esclusa in base al tag noindex” non torna fisiologico.
Alcune regole “origin shield” o “cache-control: private” sono accompagnate da X-Robots-Tag: noindex. Verifica le configurazioni e limita l’header solo a percorsi che non devono entrare in SERP.
Se una pagina canonica è marcata noindex, il consolidamento fallisce. La versione preferita deve essere indicizzabile, con risposta 200 e senza direttive di esclusione.
La presenza di due meta robots, uno con index e uno con noindex, genera ambiguità. Mantieni un’unica istruzione.
Evitare di dire index in HTML e noindex in header HTTP. I sistemi possono dare peso a quello più restrittivo.
Se vuoi usare noindex come esclusione pulita, non impedire la scansione. Lascia che il bot legga la pagina per applicare correttamente la direttiva.
Se la pagina era noindex perché debole, rimuovere il tag non basta a ottenere ranking. Migliora contenuto, collegamenti e segnali tecnici, poi chiedi rivalutazione.
Chiediti quale domanda dell’utente risolve la pagina. Il paragrafo introduttivo deve dirlo in modo esplicito. Inserisci esempi, dati verificabili, passaggi chiari.
La pagina deve allineare title, H1, canonical, link in ingresso e presenza in sitemap. Le versioni alternative devono puntare a quella preferita con collegamenti descrittivi.
Riduci il peso delle risorse, carica script non essenziali in modo differito, mantieni il contenuto principale visibile nel markup iniziale. Una pagina rapida favorisce la rivalutazione.
Il noindex impatta il perimetro delle pagine candidabili all’indice. Se viene applicato troppo in ampiezza, riduci il bacino di URL utili e disperdi i segnali del sito. Se lo usi a bersaglio, contribuisce a concentrarli sulle risorse migliori. Dal punto di vista dei crawler, ridurre URL inutili migliora la scansione complessiva e libera risorse per le pagine chiave. Il link equity interno lavora meglio quando le pagine operative restano noindex, follow e i collegamenti editoriali spingono le landing strategiche.
Il noindex non è uno strumento di protezione dei dati. Non impedisce ad altri bot o a persone di accedere all’URL. Per contenuti riservati usa autenticazione, regole di autorizzazione e restrizioni a livello di rete. Ricorda che un Disallow in robots.txt non è un meccanismo di sicurezza e può essere ignorato da software non rispettosi.
<meta name="robots" content="noindex, follow">Mantieni “follow” se la pagina contiene collegamenti utili alla navigazione interna. Usa “nofollow” solo in casi particolari, per esempio su aree generate dall’utente che non vuoi trasmettere nel grafo.
X-Robots-Tag: noindexApplicalo via server o CDN su PDF duplicati o file temporanei. Se il PDF replica l’HTML, valuta invece il consolidamento con canonical via header.
curl -I https://www.esempio.it/percorso/
# Cerca una riga tipo:
# X-Robots-Tag: noindex, followQuesto controllo evidenzia i casi in cui la direttiva non è nel codice ma negli header.
Sì, se la pagina ha scopo informativo o commerciale e desideri visibilità. Prima però migliora valore, coerenza tecnica e collegamenti. Poi rimuovi il tag o l’header, verifica con test live e invia la richiesta di indicizzazione.
Meglio di no. Se blocchi la scansione, il bot potrebbe non leggere mai il meta o l’header noindex. In scenari di esclusione pulita è preferibile permettere la scansione e dichiarare noindex. Usa Disallow solo se vuoi evitare l’accesso tecnico.
Dipende da frequenza di scansione, importanza della pagina e coerenza dei segnali. Dopo la rimozione e la richiesta di indicizzazione, osserva gli esiti nelle settimane successive. Collegamenti interni da hub forti accelerano il passaggio.
In alcuni casi sì, per archivi e filtri che vuoi mantenere ma senza SERP. Se due versioni sono equivalenti, valuta anche canonical o redirect 301. Non canonizzare verso una pagina con noindex: la versione preferita deve essere indicizzabile.
Verifica l’header HTTP X-Robots-Tag. Può essere aggiunto dal server, da un plugin o dalla CDN. Usa strumenti come curl -I o le DevTools del browser per leggere le intestazioni.
Per pagine operative che non vuoi in SERP ma che aiutano la navigazione, usa “noindex, follow”. “nofollow” ha senso su contenuti non editoriali o su pagine dove non vuoi trasferire segnali attraverso i link uscita.
No. La sitemap non sovrascrive i meta o gli header. Se l’URL è noindex a livello di pagina, resterà escluso anche se compare in sitemap. Allinea tutti i segnali e mantieni coerenza tra sorgenti.
Può aiutare nelle fasi di pre-rilascio per evitare che bozze entrino in SERP. Appena la sezione è pronta, rimuovi il noindex a livello di template, controlla con test live e aggiorna la sitemap. Inserisci un controllo automatico nel deploy per evitare che resti attivo.
La rimozione avviene dopo che il bot ha rivisitato la pagina e letto la direttiva. Per casi urgenti, usa anche lo strumento “Rimozioni” in Search Console, assicurandoti che la pagina non sia bloccata da robots.txt se desideri che il noindex venga recepito stabilmente.
Documenta dove e perché applichi noindex, limita l’uso a pattern chiari, integra un test nel CI/CD che blocchi il rilascio se trova noindex su template pubblici, forma chi gestisce i contenuti sull’impatto di questa direttiva e controlla regolarmente il report Pagine.
Per le regole sul noindex in meta e header consulta la guida tecnica di Google per bloccare l’indicizzazione e le specifiche dei robots meta tag; per il comportamento dei crawler rispetto a robots.txt vedi la documentazione di Search Central e le specifiche del Robots Exclusion Protocol; per la sintassi dell’header X-Robots-Tag e del meta robots trovi esempi aggiornati su MDN Web Docs.
Tratta “Esclusa in base al tag noindex” come un indicatore gestionale. Ogni volta che appare, chiediti se l’esclusione è voluta, se la pagina merita lo sforzo di entrare in SERP, se i segnali sono allineati e se esistono alternative migliori come consolidamento e miglioramento del contenuto. Con una checklist stabile, un sistema di deploy che intercetta i meta indesiderati e una mappa chiara degli URL che vuoi davvero posizionare, il noindex resta uno strumento al tuo servizio e non una causa di perdita di visibilità.
Questo sito utilizza cookie tecnici e di profilazione.
Puoi accettare, rifiutare o personalizzare i cookie premendo i pulsanti desiderati.
Chiudendo questa informativa continuerai senza accettare.
Impostazioni privacy
Questo sito utilizza i cookie per migliorare la tua esperienza di navigazione su questo sito.
Visualizza la Cookie Policy Visualizza l'Informativa Privacy