1. Blocate automat de WordPress sau pluginuri SEO (fără să apară în robots.txt)
Pluginuri precum Yoast SEO, Rank Math, SEOPress pot seta automat:
meta robots noindex, nofollow
canonical către pagina principală
sau directive în header care blochează indexarea, fără a modifica robots.txt
Google vede că nu poate accesa sau indexa acele URL-uri, dar robots.txt rămâne neschimbat. În GSC, apar ca „blocate de meta tag” sau „nu pot fi indexate”.
2. Google auto-evită crawl-ul pentru filtre de sortare/parametri
Chiar dacă tu nu ai blocat explicit filtrele cu Disallow, Google:
observă URL-uri cu parametri precum ?orderby=, ?filter_, ?rating=
și poate alege singur să le ignore sau să le considere duplicate
În GSC (Search Console > Indexare > Pagini), apar adesea ca:
„crawled – currently not indexed”
„duplicate without user-selected canonical”
„alternative page with proper canonical tag”
3. Ai avut un robots.txt anterior care bloca aceste URL-uri
Samuel Negoiescu este fondatorul Asociației umanitare Speranță pentru România și un expert SEO cu experiență în comunicare digitală și promovarea cauzelor sociale. De peste 14 ani activează în domeniul umanitar, oferind ajutor concret persoanelor aflate în suferință – copii cu boli incurabile, bătrâni singuri, familii în criză. Absolvent de Teologie, Samuel a ales să transforme compasiunea în acțiune, punând bazele uneia dintre cele mai vizibile organizații de caritate din România. Cu o comunitate de peste 400 de voluntari și 300.000 de donatori, a reușit să creeze o platformă online puternică, bazată pe transparență, empatie și rezultate. Expertiza sa în SEO îl ajută să facă auzite poveștile celor care au cea mai mare nevoie de ajutor.
1. Blocate automat de WordPress sau pluginuri SEO (fără să apară în robots.txt)
Pluginuri precum Yoast SEO, Rank Math, SEOPress pot seta automat:
meta robots noindex, nofollow
canonical
către pagina principalărobots.txt
Google vede că nu poate accesa sau indexa acele URL-uri, dar
robots.txt
rămâne neschimbat. În GSC, apar ca „blocate de meta tag” sau „nu pot fi indexate”.2. Google auto-evită crawl-ul pentru filtre de sortare/parametri
Chiar dacă tu nu ai blocat explicit filtrele cu
Disallow
, Google:?orderby=
,?filter_
,?rating=
În GSC (Search Console > Indexare > Pagini), apar adesea ca:
3. Ai avut un robots.txt anterior care bloca aceste URL-uri
Dacă în trecut ai avut ceva de genul:
… și ai modificat fișierul ulterior, Google poate păstra în GSC informații istorice pentru o perioadă (uneori și 1–2 luni).
Cum verifici exact ce blochează Google?
Introdu un URL de tip
?orderby=popularity
și vezi:noindex
?Vizitează:
https://laremagift.ro/robots.txt
→ vezi dacă filtrele apar explicit acolo
Caută: htmlCopiazăEditează
<meta name="robots" content="noindex"> <link rel="canonical" href="...">
Concluzie
Faptul că filtrele sunt „blocate” în Google Search Console nu înseamnă neapărat că sunt în
robots.txt
.Poate fi:
Articol scris de www.magistralmarketing.ro
Samuel Negoiescu
Samuel Negoiescu este fondatorul Asociației umanitare Speranță pentru România și un expert SEO cu experiență în comunicare digitală și promovarea cauzelor sociale. De peste 14 ani activează în domeniul umanitar, oferind ajutor concret persoanelor aflate în suferință – copii cu boli incurabile, bătrâni singuri, familii în criză. Absolvent de Teologie, Samuel a ales să transforme compasiunea în acțiune, punând bazele uneia dintre cele mai vizibile organizații de caritate din România. Cu o comunitate de peste 400 de voluntari și 300.000 de donatori, a reușit să creeze o platformă online puternică, bazată pe transparență, empatie și rezultate. Expertiza sa în SEO îl ajută să facă auzite poveștile celor care au cea mai mare nevoie de ajutor.
Categorii