Dupa cum vad eu problema, sunt doua variante in ceea ce priveste optimizarea: 1. cazul fericit in care iei un site de la zero si il gandesti din start "optim"; 2. cazul nefericit in care preiei un site facut de altcineva pe care trebuie sa-l imprietenesti cu google.
Eu am trecut prin prima situatie si, desi la vremea respectiva nu stiam prea multe lucruri despre SEO, am reusit sa fac o treaba buna. Acum insa sunt pus in situatia cu numarul doi si, desi teoretic am ceva cunostinte de SEO, recunosc ca sunt total depasit de situatie, asa ca as aprecia cateva idei. O sa incerc sa fac un sumar cat mai scurt (ca sa nu plictisesc) dar totusi cuprinzator.
1. Site-ul pe care trebuie sa-l optimizez are in jur de 100.000 de pagini. Din aceasta cauza, inginerul meu de sistem imi spune ca e cam nasol si ineficient sa facem un sitemap, primul lucru care mi-a venit in minte.
2. Linkurile nu sunt deloc friendly si nici nu prea se poate face chestia asta. Selecturile din baza de date sunt de-a dreptul gretoase si este un capitol unde nu se poate interveni pentru moment.
3. In momentul de fata sunt indexate pe google doar in jur de 7000 de pagini (din 100.000!!!). Marea problema este ca nici una din paginile finale nu este indexata, adica tocmai ofertele propriu-zise (site-ul are o natura comerciala). Obiectivul numarul unu este sa aduc aceste pagini in fata utilizatorilor. Specific faptul ca acolo unde paginile sunt indexate, chiar daca optimizarea lipseste cu desavarsire, site-ul este clasat in prima pagina la google in ciuda concurentei acerbe.
4. O posibila explicatie pentru problema de la pct.3 ar putea fi faptul ca exista N pagini de oferta cu "duplicate content", intelegand prin asta ca atat continutul propriu-zis este in proportie de 99% acelasi (difera doar pretul in fiecare pagina), dar si meta tagurile (title, description, keywords). In ultimele saptamani am modificat un mare numar de astfel de pagini punand continut unic si meta taguri distincte pe fiecare dintre ele) dar fara nici un efect pentru google.
5. Cam jumatate din paginile indexate fac parte din versiuni mai vechi ale site-ului si as vrea sa scap de ele. Se merita sa fac un robots.txt pentru 4000 de linkuri?
6. Paginile de afisare folosesc multe "include"-uri, astfel incat desi sterg de pe ftp un anumit fisier, pagina generala va fi afisata in continuare si nu genereaza 404 si nici alta eroare.
7. Completare la pct.6. Paginile sunt de forma:
domeniu.com/index.php?page=pagina_1.php¶metru1¶metru2& ...parametru_n
domeniu.com/index.php?page=pagina_2.php¶metru1¶metru2& ...parametru_n
Prioritatile pentru acest site ar fi:
1. Indexarea urgenta a cat mai multor pagini, mai ales a paginilor de oferta. Acestea reprezinta cam 90% din volumul total al site-ului
2. scoaterea din index a paginilor care nu mai sunt de folos.
PS. Scuze pentru postul lung (aproape cat postul craciunului) dar face referinta la problemele de zi cu zi pe care unii dintre noi le avem.



Răspunde cu citat


