Disallow are eficienta in blocarea crawling pe acele pagini, insa daca ele sunt deja indexate le lasa indexate.
Teoretic Noindex ar trebui sa le si deindexeze automat la urmatorul crawl pe acele pagini deja indexate.
Insa chiar daca Google le accepta pe amandoua in robots.txt, s-ar putea sa se bata cap in cap, exact asa cum e in cazul in care pui meta-robots noindex, follow de exemplu si in acelasi timp pui Disallow in robots.txt pe acele pagini cu meta-robots (meta-robots de pe acele pagini nu mai este citit pentru ca nu se mai face crawl pe ele).
Momentan este/sunt 1 utilizator(i) care navighează în acest subiect. (0 membrii și 1 vizitatori)