Diferenta este ca eu nu preiau agentul cand mi se acceseaza robots.txt, ci adresa de IP. Astfel imi creez o lista cu ip-uri suspecte de a fi roboti, pe care le exclud din contorizare. Daca tu imi accesezi robots-ul, eu nu exclud toti vizitatorii care folosesc acelasi browser ca si tine, ci doar pe tine si cine mai intra de la ip-ul tau, in caz ca esti intr-o retea cu gateway.
Intr-adevar, sunt roboti pe care ii doare undeva de robots.txt. Sincer la aia nu prea ai ce le face, nu de alta dar in mod sigur daca un programator e suficient de destept sa faca un spam bot, il va duce capul sa-l si mascheze ca mozilla sau ie, doar nu i-o seta agentu sa zica 'hello! i'm spam!'
In rest, numai sporuri.





Răspunde cu citat


