Salut,
Din propria experienţă, este mai rapidă indexarea via sitemap (webmasters tool panel) sau e ok să laşi spider-ul să indexeze content-ul în mod natural şi aleatoriu?
Mulţumesc,
Vladimir
Salut,
Din propria experienţă, este mai rapidă indexarea via sitemap (webmasters tool panel) sau e ok să laşi spider-ul să indexeze content-ul în mod natural şi aleatoriu?
Mulţumesc,
Vladimir
The Web Systems Engineering Blog
si eu fac sitemap la situri.
Intrebarea ta trebuie completata sau mai bine spus mai trebuie adaugat un element in ecuatie.
Pe cale naturala crawlerul te poate vizita intr-un interval de la 1 secunda la cateva zile/saptamani.
Daca situl tau are cateva zeci de mii de pagini care sunt vizitate zilnic (conform webmaster tools) si plasezi un link pe aceste pagini ai sanse foarte mari sa fie indexata pagina respectiva in maxim 1-2 ore.
Un sitemap este uplodat cam 1 data la 24 de ore in webmaster tools automat.
Daca folosesti un script de ping pt sitemap ca sa atentionezi G de noi modificari poti sa ai sansa sa ti se indexez respectiva pagina in cateva minute,ore.
Deci daca nu dispui de un site cu foarte multe pagini care sunt revizitate zilnic ,foloseste un script de ping pentru sitemap(dar nu abuza de el ca e nasol dupa)
Oricum google foloseste ambele metode! Chiar daca ai un site cu miii...miii...mii de pagini pe care le procesezi cu un site-map care dureaza 1-2 zile sa il faci si apoi il submiti la google: el se apuca de rontait la ea!
Asta ar fi primul pas! DAR
Daca tu ai un site f f traficat si ai pus o pagina noua: cu CEVA si ai avut 1000 useri ora trecuta, chiar daca nu e in sitemap-ul submis acea pagina, google ti-o indexeaza imediat si apoi continua treaba.
Faza cu sitemap-ul e ca sa fii tu sigur ca VEDE SI pagina X si Y si Z.." ca alea-s mai putin traficate".
de curiozitate.... de unde ar stii un crawler ca o pagina a aparut imediat si trebuie indexata daca singura variabila luata in calcul ar fi traficul " f f mare de 1000 useri" practicseo ?
Sitemap-ul are 2 tipuri principale:
1. standard
2. pentru stiri
Va recomand sa folositi un utilitar bun (eu sunt multumit de www.auditmypc.com pentru standard).
Importanta paginilor. In nici un caz nu mergeti pe 0.5 sau 1 pentru toate. Importanta paginilor in site-map este exact ca intr-un cuprins al unei carti
1- index, 0.7-0.9 - categorii etc. De regula este indicat sa folositi un utilitar care face automat acest lucru.
Nivel maxim de indexare sitemap: lvl 4
De evitat
- sa trimiteti sitemap pentru pagini care nu au continut sau au mesaj [ in constructie ] , [ nu exista continut ] sau alte minunatii de genul asta.
Recomandari
- folositi sitemap-ul - xml - intodeauna;
- daca domeniu este international si tintiti utilizatorii din Romania setati pentru www.numedomeniu.tld si numedomeniu.tld tinterea teritoriala Romania in Google Webmasters Tools;
- daca folositi sitemap si informat html - si aveti un numar mare de link-uri >50 -100 impartiti-l in mai multe pagini;
Succes !
solutia la intrebarea lui :deadworldisee: ar fi:
imagine: ca microsoft lanseaza windows 8, google inca nu stie de el si nici googlebot. Incepe in 10 minute tot netu sa vuiasca..zdnet, softpedia, chip, pcworld...toti. Toti pun un link catre <<www.micro...../windows8>>. Daca botu merge la zdnet si vede un link catre microsoft, merge la chip > idem, pcworld, softpedia...daca el gasesti la toti pagina aia de la microsoft zice: "e groasa frate" si o indexeaza...in favoarea unei noi pagini puse ca bug report la ...msdn 2010 (sa zicem)! Chiar daca microsoft nu da sitemap catre Google, dar GWT isi citeste radacinile din rss-urile stirilor. Crezi ca ii este indiferent daca primeste 1000 de rss-uri in juma de ora cu link-ul ala?
Momentan este/sunt 1 utilizator(i) care navighează în acest subiect. (0 membrii și 1 vizitatori)