Cosa significa “Esclusa in base al Tag Noindex” in Google Search Console

Cos'è la seo

Indice dei contenuti

Che cosa significa “Esclusa in base al tag noindex” e perché appare

Nel report di indicizzazione di Google Search Console lo stato “Esclusa in base al tag noindex” indica che l’URL è stato correttamente scoperto e in genere anche visitato dai crawler, ma non è idoneo all’inclusione nell’indice perché il documento dichiara esplicitamente una direttiva noindex. Questa direttiva può essere presente come meta tag nel codice HTML oppure come intestazione HTTP (X-Robots-Tag) restituita dal server o da un proxy applicativo. In entrambi i casi, il messaggio è chiaro: il motore non deve indicizzare la pagina.

Lo stato non è un “errore” nel senso stretto: è una conseguenza di una tua scelta o di un’impostazione del CMS, di un plugin, del web server o della CDN. Diventa un problema quando l’URL dovrebbe comparire in SERP ma è stato escluso per una configurazione non voluta o ereditata. Capire l’origine del noindex e rimuoverlo quando serve è la chiave per ripristinare l’indicizzazione.

Noindex, robots.txt e differenze operative

Due strumenti spesso confusi: noindex e robots.txt. Il primo agisce a livello di pagina o risorsa e chiede al motore di non inserirla in indice. Il secondo controlla l’accesso del crawler a intere aree del sito. Una pagina bloccata in robots.txt può, in alcuni casi, apparire comunque in SERP come URL senza snippet se è molto linkata da esterni, perché l’indirizzo è noto anche senza averne letto il contenuto. Con noindex, al contrario, la pagina viene rimossa dall’indice quando il bot riesce a leggerne la direttiva. Ne deriva una regola pratica: se vuoi escludere una pagina dalla ricerca, usa noindex, non il solo robots.txt; se vuoi impedire l’accesso ai bot, usa robots.txt, sapendo che non è uno strumento di sicurezza.

Dove può nascondersi il noindex: tutte le sorgenti da controllare

Meta robots nel codice HTML

La forma classica è un tag nella sezione <head> del documento, ad esempio <meta name="robots" content="noindex, follow"> oppure <meta name="googlebot" content="noindex">. Molti CMS o theme builder espongono un’impostazione “noindex” a livello di singola pagina, categoria o template.

Header HTTP X-Robots-Tag

Il noindex può essere inviato via header, utile con PDF, CSV e contenuti non HTML. Può inserirlo il web server, un reverse proxy, la CDN o un plugin SEO. Se Search Console segnala “noindex” ma non lo vedi nell’HTML, controlla le intestazioni della risposta.

Plugin SEO e opzioni di tassonomie

Plugin popolari offrono opzioni per escludere archivi di tag, pagine di ricerca interna, pagine di ringraziamento o di sistema. Una spunta ereditata da un template può coinvolgere centinaia di URL.

Ambienti di staging e deploy

Ambienti di test spesso sono protetti da autenticazione, ma alcuni team aggiungono anche noindex. In migrazione, il flag può finire online per errore. Inserisci una verifica automatica nel processo di rilascio.

Regole lato server e CDN

Rewrite e trasformazioni su Apache, Nginx e Varnish o funzioni CDN possono aggiungere header condizionali. Un redirect verso pagina temporanea potrebbe applicare un noindex imprevisto nella destinazione.

JavaScript e rendering

In rari casi il meta robots viene iniettato via script. Se compare solo dopo eventi che il bot non riproduce, la segnalazione può risultare intermittente. Meglio dichiarare i meta nel markup iniziale.

Quando il noindex è utile e quando diventa un ostacolo

Usi legittimi

Pagine di ricerca interna, carrelli, checkout, aree di ringraziamento, versioni di stampa, pagine duplicate con scopo operativo. Qui noindex tiene pulita la SERP e lascia comunque seguire i collegamenti interni se imposti noindex, follow.

Usi da evitare

Non usare noindex come pezza per contenuti scarsi che dovrebbero essere migliorati o consolidati. Evita anche di combinarlo con Disallow in robots.txt sulla stessa pagina, perché impedendo la scansione il bot non leggerà il meta e l’URL potrebbe comparire in SERP come segnaposto di sola URL.

Come diagnosticare correttamente: percorso in Search Console e controlli tecnici

1) Report Pagine e filtro mirato

Apri il report “Pagine”, seleziona lo stato “Esclusa in base al tag noindex” e esporta l’elenco. Raggruppa gli URL per percorso, template, tipo di contenuto, presenza in sitemap. Se vedi pattern ricorrenti (per esempio /tag/ o /search/) è probabile che il noindex provenga da un’impostazione di sezione.

2) Ispezione URL e test live

Usa “Ispezione URL”, poi “Prova URL attivo”. Nella scheda Disponibilità: Indicizzazione verifica “Indicizzazione consentita?”. Se la diagnostica vede ancora il noindex, significa che è realmente in pagina o negli header. Se non lo vede più, puoi inviare “Richiedi indicizzazione”.

3) Verifica del meta nell’HTML

Apri il sorgente e cerca <meta name="robots" o <meta name="googlebot". Controlla che non ci siano meta duplicati con valori in conflitto. Mantieni un’unica istruzione chiara.

4) Verifica header HTTP

Controlla l’intestazione X-Robots-Tag. Se presente su documenti HTML o media, annota chi la inserisce. Alcune CDN applicano noindex a regole di cache “private” o su percorsi temporanei.

5) Plugin e template

Rivedi le opzioni del plugin SEO e del tema. Spesso l’impostazione “Noindex per archivi” è globale. Cambiarla in un ambiente con migliaia di URL può modificare velocemente l’intero stato dell’indice.

6) Staging e migrazioni

Controlla che il flag di noindex usato nei test non sia stato trasferito in produzione. Integra un check automatico nel pipeline di deploy che fallisca il rilascio se trova noindex su template pubblici.

7) Rendering

Confronta HTML iniziale e DOM dopo esecuzione degli script. Se il meta viene aggiunto via JavaScript, valuta di spostarlo lato server per coerenza e prevedibilità.

Procedura di risoluzione: rimuovere il noindex in modo sicuro e ottenere il reintegro

Passo 1: decidi se la pagina deve davvero essere in SERP

Per ogni URL chiediti quale intento copre e se aggiunge un contributo distintivo rispetto al resto del sito. Se lo scopo è operativo, mantieni noindex, follow. Se lo scopo è informativo o commerciale, procedi con la rimozione solo dopo aver reso il contenuto all’altezza.

Passo 2: elimina la direttiva dalla sorgente

Se il noindex è in HTML, rimuovi o sostituisci il meta con index, follow. Se è in header HTTP, modifica la regola a livello di server o CDN. Verifica che non restino residui su template, hook o middleware.

Passo 3: allinea segnali correlati

Aggiorna la sitemap XML includendo l’URL solo se restituisce 200 e non ha noindex. Controlla rel=”canonical” autoreferenziale o coerente con la versione preferita. Evita conflitti tra sitemap, canonical, link interni e header.

Passo 4: verifica con test live e invia “Richiedi indicizzazione”

Quando il test conferma l’assenza del noindex, usa la richiesta di indicizzazione. Non inviare più volte a distanza di poche ore. Lavora per gruppi omogenei di URL e attendi i segnali nelle settimane successive.

Passo 5: consolida il segnale con linking interno

Aggiungi collegamenti editoriali da pagine hub pertinenti verso l’URL reinserito, con anchor text descrittiva. Questo aiuta i crawler a rivedere presto la pagina e a valutarne l’importanza nel grafo del sito.

Come usare correttamente noindex su HTML e su header HTTP

Esempio HTML minimale

<meta name="robots" content="noindex, follow">

Inseriscilo nella sezione <head> di pagine da tenere fuori, ma che devono trasferire segnali attraverso i link. Evita valori in conflitto nello stesso documento.

Esempio header HTTP per PDF

X-Robots-Tag: noindex, follow

Utile quando una risorsa non HTML non deve comparire in SERP. In alternativa, se il PDF replica l’HTML, valuta l’header Link: <URL_HTML>; rel="canonical" per consolidare su una pagina principale.

Attenzione a Disallow

Se blocchi in robots.txt una pagina e le applichi noindex, il crawler potrebbe non leggere mai il meta perché non visita la pagina. In casi urgenti valuta lo strumento “Rimozioni” e poi ripristina l’accesso per far recepire il noindex se lo vuoi mantenere stabile.

Casi pratici: dal problema alla soluzione

E-commerce con filtri faccettati

Gli archivi generano migliaia di varianti. Puoi tenere indicizzabili poche landing utili e applicare noindex, follow alle combinazioni ripetitive. Mantieni in sitemap solo le versioni principali, collega tra loro le prime pagine della paginazione e usa canonical coerenti per evitare conflitti.

Blog e tag di archivio

Molti siti impostano noindex sui tag per non diluire la visibilità. Se però alcuni tag ricevono traffico reale e link esterni, valuta di renderli indicizzabili migliorando il contenuto della pagina archivio con introduzione e collegamenti curati.

Pagine di ringraziamento e step del funnel

Ringraziamenti, conferme ordine, step intermedi: qui il noindex è appropriato. Mantieni follow per non interrompere il flusso dei link interni. Evita che link esterni puntino a queste pagine; se accade, valuta un redirect verso una risorsa informativa.

Staging portato online per errore

Se l’intero sito è andato live con noindex, rimuovilo subito dai template, esegui test live su più URL, invia richieste di indicizzazione sulle pagine chiave e monitora gli “Stati” finché il numeratore “Esclusa in base al tag noindex” non torna fisiologico.

Header aggiunti dalla CDN

Alcune regole “origin shield” o “cache-control: private” sono accompagnate da X-Robots-Tag: noindex. Verifica le configurazioni e limita l’header solo a percorsi che non devono entrare in SERP.

Errori ricorrenti che mantengono l’avviso attivo

Canonical che punta a URL con noindex

Se una pagina canonica è marcata noindex, il consolidamento fallisce. La versione preferita deve essere indicizzabile, con risposta 200 e senza direttive di esclusione.

Meta duplicati in conflitto

La presenza di due meta robots, uno con index e uno con noindex, genera ambiguità. Mantieni un’unica istruzione.

Regole non coerenti tra HTML e header

Evitare di dire index in HTML e noindex in header HTTP. I sistemi possono dare peso a quello più restrittivo.

Bloccare in robots.txt ciò che dovrebbe recepire il noindex

Se vuoi usare noindex come esclusione pulita, non impedire la scansione. Lascia che il bot legga la pagina per applicare correttamente la direttiva.

Rimuovere noindex senza migliorare la pagina

Se la pagina era noindex perché debole, rimuovere il tag non basta a ottenere ranking. Migliora contenuto, collegamenti e segnali tecnici, poi chiedi rivalutazione.

Controlli di qualità prima di togliere noindex

Valore informativo e intento

Chiediti quale domanda dell’utente risolve la pagina. Il paragrafo introduttivo deve dirlo in modo esplicito. Inserisci esempi, dati verificabili, passaggi chiari.

Coerenza dei segnali

La pagina deve allineare title, H1, canonical, link in ingresso e presenza in sitemap. Le versioni alternative devono puntare a quella preferita con collegamenti descrittivi.

Performance e stabilità

Riduci il peso delle risorse, carica script non essenziali in modo differito, mantieni il contenuto principale visibile nel markup iniziale. Una pagina rapida favorisce la rivalutazione.

Relazione con indicizzazione, crawl budget e link equity

Il noindex impatta il perimetro delle pagine candidabili all’indice. Se viene applicato troppo in ampiezza, riduci il bacino di URL utili e disperdi i segnali del sito. Se lo usi a bersaglio, contribuisce a concentrarli sulle risorse migliori. Dal punto di vista dei crawler, ridurre URL inutili migliora la scansione complessiva e libera risorse per le pagine chiave. Il link equity interno lavora meglio quando le pagine operative restano noindex, follow e i collegamenti editoriali spingono le landing strategiche.

Check di sicurezza e privacy: cosa non aspettarsi da noindex

Il noindex non è uno strumento di protezione dei dati. Non impedisce ad altri bot o a persone di accedere all’URL. Per contenuti riservati usa autenticazione, regole di autorizzazione e restrizioni a livello di rete. Ricorda che un Disallow in robots.txt non è un meccanismo di sicurezza e può essere ignorato da software non rispettosi.

Checklist operativa per uscire da “Esclusa in base al tag noindex”

  • Ispeziona l’URL e verifica se il noindex è in HTML o in header HTTP.
  • Rimuovi la direttiva dalla sorgente corretta e uniforma tutti i template.
  • Allinea sitemap, canonical e link interni alla versione da indicizzare.
  • Controlla performance, rendering e presenza del contenuto nel markup iniziale.
  • Esegui il test live, poi “Richiedi indicizzazione” sulle pagine chiave.
  • Monitora nel tempo la riduzione dello stato e documenta le modifiche.

Snippet utili e configurazioni di esempio

Meta robots per escludere pagine operative

<meta name="robots" content="noindex, follow">

Mantieni “follow” se la pagina contiene collegamenti utili alla navigazione interna. Usa “nofollow” solo in casi particolari, per esempio su aree generate dall’utente che non vuoi trasmettere nel grafo.

Header per risorse non HTML

X-Robots-Tag: noindex

Applicalo via server o CDN su PDF duplicati o file temporanei. Se il PDF replica l’HTML, valuta invece il consolidamento con canonical via header.

Verifica rapida via curl

curl -I https://www.esempio.it/percorso/
# Cerca una riga tipo:
# X-Robots-Tag: noindex, follow

Questo controllo evidenzia i casi in cui la direttiva non è nel codice ma negli header.

Domande frequenti relative all’avviso “Esclusa in base al tag noindex”

Devo rimuovere subito il noindex se voglio che la pagina entri in SERP?

Sì, se la pagina ha scopo informativo o commerciale e desideri visibilità. Prima però migliora valore, coerenza tecnica e collegamenti. Poi rimuovi il tag o l’header, verifica con test live e invia la richiesta di indicizzazione.

Posso lasciare robots.txt in Disallow e contare comunque sul noindex?

Meglio di no. Se blocchi la scansione, il bot potrebbe non leggere mai il meta o l’header noindex. In scenari di esclusione pulita è preferibile permettere la scansione e dichiarare noindex. Usa Disallow solo se vuoi evitare l’accesso tecnico.

Quanto tempo passa tra rimozione del noindex e indicizzazione?

Dipende da frequenza di scansione, importanza della pagina e coerenza dei segnali. Dopo la rimozione e la richiesta di indicizzazione, osserva gli esiti nelle settimane successive. Collegamenti interni da hub forti accelerano il passaggio.

È corretto usare noindex per gestire duplicati?

In alcuni casi sì, per archivi e filtri che vuoi mantenere ma senza SERP. Se due versioni sono equivalenti, valuta anche canonical o redirect 301. Non canonizzare verso una pagina con noindex: la versione preferita deve essere indicizzabile.

Se Search Console segnala noindex ma non lo vedo nell’HTML, che cosa controllo?

Verifica l’header HTTP X-Robots-Tag. Può essere aggiunto dal server, da un plugin o dalla CDN. Usa strumenti come curl -I o le DevTools del browser per leggere le intestazioni.

Meglio “noindex, follow” o “noindex, nofollow”?

Per pagine operative che non vuoi in SERP ma che aiutano la navigazione, usa “noindex, follow”. “nofollow” ha senso su contenuti non editoriali o su pagine dove non vuoi trasferire segnali attraverso i link uscita.

Posso rimuovere noindex solo in sitemap lasciandolo nel codice?

No. La sitemap non sovrascrive i meta o gli header. Se l’URL è noindex a livello di pagina, resterà escluso anche se compare in sitemap. Allinea tutti i segnali e mantieni coerenza tra sorgenti.

Ha senso usare noindex in fase di lancio di nuove sezioni?

Può aiutare nelle fasi di pre-rilascio per evitare che bozze entrino in SERP. Appena la sezione è pronta, rimuovi il noindex a livello di template, controlla con test live e aggiorna la sitemap. Inserisci un controllo automatico nel deploy per evitare che resti attivo.

Il noindex rimuove subito la pagina dai risultati?

La rimozione avviene dopo che il bot ha rivisitato la pagina e letto la direttiva. Per casi urgenti, usa anche lo strumento “Rimozioni” in Search Console, assicurandoti che la pagina non sia bloccata da robots.txt se desideri che il noindex venga recepito stabilmente.

Come prevenire ricadute dello stato “Esclusa in base al tag noindex”?

Documenta dove e perché applichi noindex, limita l’uso a pattern chiari, integra un test nel CI/CD che blocchi il rilascio se trova noindex su template pubblici, forma chi gestisce i contenuti sull’impatto di questa direttiva e controlla regolarmente il report Pagine.

Risorse esterne affidabili per implementare e verificare

Per le regole sul noindex in meta e header consulta la guida tecnica di Google per bloccare l’indicizzazione e le specifiche dei robots meta tag; per il comportamento dei crawler rispetto a robots.txt vedi la documentazione di Search Central e le specifiche del Robots Exclusion Protocol; per la sintassi dell’header X-Robots-Tag e del meta robots trovi esempi aggiornati su MDN Web Docs.

Chiusura operativa: dal controllo sporadico a una routine di qualità

Tratta “Esclusa in base al tag noindex” come un indicatore gestionale. Ogni volta che appare, chiediti se l’esclusione è voluta, se la pagina merita lo sforzo di entrare in SERP, se i segnali sono allineati e se esistono alternative migliori come consolidamento e miglioramento del contenuto. Con una checklist stabile, un sistema di deploy che intercetta i meta indesiderati e una mappa chiara degli URL che vuoi davvero posizionare, il noindex resta uno strumento al tuo servizio e non una causa di perdita di visibilità.

Checklist di prevenzione a lungo termine

  • Mappa le sezioni che devono restare noindex e documenta il perché.
  • Integra test automatici che bloccano il rilascio se noindex è nei template pubblici.
  • Rivedi trimestralmente report Pagine, sitemap e coerenza dei canonical.
  • Forma redazione e sviluppo su differenze tra noindex e robots.txt.
  • Misura l’impatto: quante pagine noindex, quanti URL candidati all’indice, tempo medio di reintegro.
Immagine di Andrea Bodria

Andrea Bodria

Indice dei contenuti

Potrebbe interessarti anche

Serve un supporto tecnico?