Pentru domeniul din semnatura incepand cu prima pagina..daca ma ajuta si pe mine cineva cu un sitemap!!!
Thanks!
Versiune printabilă
Pentru domeniul din semnatura incepand cu prima pagina..daca ma ajuta si pe mine cineva cu un sitemap!!!
Thanks!
sample, luat de la google
Cod:<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.google.com/schemas/sitemap/0.84">
<url>
<loc>http://www.example.com/</loc>
<lastmod>2005-01-01</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
<url>
<loc>http://www.example.com/catalog?item=12&desc=vacation_hawaii</loc>
<changefreq>weekly</changefreq>
</url>
<url>
<loc>http://www.example.com/catalog?item=73&desc=vacation_new_zealand</loc>
<lastmod>2004-12-23</lastmod>
<changefreq>weekly</changefreq>
</url>
<url>
<loc>http://www.example.com/catalog?item=74&desc=vacation_newfoundland</loc>
<lastmod>2004-12-23T18:00:15+00:00</lastmod>
<priority>0.3</priority>
</url>
<url>
<loc>http://www.example.com/catalog?item=83&desc=vacation_usa</loc>
<lastmod>2004-11-23</lastmod>
</url>
</urlset>
De ce nu-ti faci tu singur unul? Si cred ca ai si plugin pt forum care il face automat.
Uite un tool usor de folosit: http://gsitecrawler.com/en/download/
Un alt tool , online , foarte folisitor si usor de folosit : auditmypc.com/xml-sitemap.asp . :rockon:
ideal ar fi sa ti-l creezi automat si singurel dintr-un admin, sau dintr-un cron, sau dintr-un script din site, in ideea ca daca adaugi ceva nou (intr-un modul de administrare, ex o categorie noua) ea sa se regaseasca automat in noul sitemap, eventual sa ii dai si un ping lu' nea google.
generat cu XML Sitemap Tool sper sa te ajute...
Stiu ca exista tooluri care fac asa ceva...doar ca eu nu am net pentru asa ceva..si asta ar insemna sa las compu vreo 2 zile pornit poate mai mult..pana termina!:)
Thanks bogdi99,dar siteu acela nu cred ca face complet...mai da si erori :p
Merge XML Sitemap Tool-ul dar trebuie sa ai rabdare si o oarecare conexiune. Ai optiune sa setezi cati spideri sa-ti faca site-mapul , timpul de time out , etc. Eu zic ca merge foarte bine , pana cand ramane fara memorie :)) Pe la 40.000 de pagini Not Enough Memory.....
la tine a facut la vreo 4000 si un pic de pagini fara probleme... i-am dat de la uvt sa faca.. si in 10 minute.. cu 9 spideri si-a facut treaba..
mi-a dat eroare pentru 2 pagini... care chiar nu exista.. am incercat sa le deschid si nu erau.
stiu ca am facut odata cu g-mapper si mi-a facut crawl pe 50 mii urluri cand l-am oprit...
Asadar la mine problema nu este ca nu am tool pentru asta..ci n`am net pentru asa ceva ;) Daca reuseste cineva cu mai mult de 4000 pagini .. ;)
Cea mai mare tampenie... ca la un site dinamic sa faci sitemap prin crawling.... cel mai bine un cronjob.... care iti ia din DB si iti creaza sitemap-ul odata pe zi.... odata la cateva ore... etc... sau.... daca site-ul nu e foarte foarte mare (ex. sub 5000 de pagini), poti genera sitemap-ul si on the fly, daca serverul e cat de cat capabil.
un exemplu de scripturi sau programe care fac asa ceva?:)
pai ce exemplu vrei ? doar tu stii cum e baza ta de date, si cum ti se formeaza linkurile, nu ? faci un SELECT (mysql) la toate produsele, "calculezi" linkurile corespunzatoare fiecaruia (ex: www.siteultau.ro/produs-Megabengos-1342.html), si le bagi pe toate in sitemap...
Eu folosesc GSiteCrawler si sunt foarte multumit de el. Recomand.
La GSiteCrawler se poate reduce numarul Crawlerilor ?