Un script folosit de mine a avut o eroare de programare, eroare ce a permis indexare unui numar foarte mare de pagini "goale" pe modelul &pagina=x. Astfel pe site exista doar sa zicem 3 pagini insa crawler-ul a putut indexa cateva zeci ajungand pana pe la &pagina=xx toate paginile de la 4 la xx avand acelasi continut (empty in afara de meniurile incluse default) si fiind considerate duplicate content.
Masura luata de mine a fost sa scot link-urile care permiteau spider-ului sa ajunga la paginile inexistentesi o redirectare de tip 301 pentru paginile cu "x" mai mare decat numarul maxim de pagini. Astfel la click pe un link deja indexat de forma &pagina=12 se face redirect la &pagina=3 dupa ex de mai sus.
Problema pe care o vad este ca in viitor voi ajunge cu acel &pagina=x la una dintre valorile pentru care acum fac redirect. Ce se va intampla cu aceea pagina ? Nu va mai fi indexata niciodata pentru ca am folosit redirect 301 in momentul cand ea nu exista? Credeti ca un redirect 302 temporar ar fi mai util ?
Multumesc.