Vad, abia, azi ca site-uri care au puse pe pagini duplicate sau inutile <meta name="robots" content="noindex,follow" /> sint indexate in G. N-ar fi trebuit sa se intample asa ceva, meta-ul specifica in clar ce trebuie sa faca G.
Acum, intrebarea e ce fac cu paginile astea? Daca le restrictionez din robots.txt spiderii nu vor mai trece pe ele si deci nu imi pot corela internal linking ptr spideri.
Pot raporta undeva problema asta? Aveti experiente de genul asta?

