Interpretari privind rezultatele SEO GPeC 2009 – I

Prin August publicam, cu acordul celor de la GPeC, criteriile de jurizare SEO pentru GPeC 2009. Criteriile imi apartin, consider ca orice magazin online romanesc ar trebui sa indeplineasca cel putin jumate din ele.

Din punctul meu de vedere ele sint relevante pentru .ro, indeplinirea unora dintre ele ar trebui sa fie „floare la ureche”. Evident, ce e „floare la ureche” inseamna ca nu e facut, multi incearca metode mai complicate inutile de a optimiza un magazin online.

Criteriile sint simple, pe link-ul de pe Seo Romania aveti si cateva explicatii pentru fiecare. Acum vreau sa public niste date, acordate prin amabilitatea celor de la GPeC (multumesc Radu si Ciprian), prin care sa scot in evidenta unele greseli frecvente la unele magazine online.

Interpretarile/criteriile le puteti folosi ca pe un check list pentru un SEO mai bun pentru un magazin online. Jurizarea a avut 5 note pentru diferentiere, in functie de indeplinirea criteriilor site-urile au primit o nota per criteriu.

1. URL-uri rescrise – pentru cuvintele cheie din URL-uri

Un criteriu des stipulat prin recomandarile celor care fac SEO, Url-urile rescrise sint de ajutor. Punerea de cuvinte cheie in URL-uri e o metoda de a urca un site la o cautare, pozitionarea pozitiva fiind influentata si de acest lucru.

 

Site-urile au indeplinit in mare masura aceasta cerinta. A avea Url-uri rescrise e un lucru normal pentru multe din magazinele participante.

2. Structura simpla – Pentru crawling rapid al robotilor si navigare usoara a userilor
Un criteriu care tine si de UX, structura simpla faciliteaza o navigare usoara atat a robotilor cat si a oamenilor.

Citeste si:  Analiza anchor textelor pe care backlink-urile competitorilor le dezvaluie

Am vazut structuri standard pe unele magazine online, structuri pe care le vezi mai la toate magazinele online. Altele au creat structuri de navigare greoaie, greu utilizabile atat pentru oameni cat si pentru roboti.

 

 

Tinand cont de faptul ca meniul unui magazin online, cel de produse, e calea spre categorii si apoi spre paginile de produse, structura site-ului e un factor important pentru un site web.

3. Canonical url – pentru a evita paginile duble ce au titluri diferite ptr Google (exemplu: Domeniu.ro vs. Domeniu.ro/index.php vs. Domeniu.ro/oricealtceva.php)

Se pare ca pana la urma Canonical url nu prezinta un interes marit pentru cei care fac magazine online/site-uri. Au fost multe site-uri care nu tin cont de acest aspect.

 

Totusi, a avea un site cu 2 sau mai multe Url-uri nu e indicat. Multe site-uri din jurizare au neglijat aspectul asta, index.php sau index.html erau dubluri pentru site-uri. Putine au avut rel=”canonical” pus cum trebuie.

4. Harta site pentru vizitatori si roboti – ca si structura, ajuta la indexare corecta si navigarea userilor pierduti in site.

Ca si structura site-ului, harta unui site e importanta. Indiferent ca vorbim de harta pentru vizitatori sau de sitemap pentru roboti, e important sa aveti asa ceva. Nu pentru o indexare rapida, ci pentru o indexare corecta.

Citeste si:  Conversii Head sau Long tail? Identificarea prin Multi Channels

 

 

 

Relevanta e (pentru vizitatori si roboti) si pozitia hartii in site. Despre asta intr-un alt articol.

5. Robots.txt – pentru a evita indexarea unor pagini ce nu trebuie indexate

Un lucru des ignorat de catre webmasteri, Robots.txt-ul e inutil ptr multi din online. In unele cazuri Robots.txt-ul e foarte util pentru ca prin el se pot restrictiona si ajusta zone din site ce nu trebuiesc indexate.

 

 

 

 

O mare greseala privind Robots.txt-ul e facuta de multi prin faptul ca Allow:/ e folosit in forma:

User-agent: *
Allow: /

Allow: / se foloseste in momentul in care in cadrul unui folder vreti sa dati acces unui fisier sau sub folder. Adaugarea lui in forma de mai sus e fara rost, versiunea corecta in cazul in care vreti sa lasati liberi robotii sa indexeze e:

 

User-agent: *
Disallow:

Multe magazine online folosesc gresit robots.txt-ul, pagini irelevante find indexate eronat. A nu se confunda cu <meta name=”robots” content=”noindex” /> care e un alt mode de a nu indexa o pagina. Deste asta intr-un alt post.

Dupa parerea mea, robots.txt poate evita neplaceri. Evident, folosit gresit el poate crea probleme destul de mari. Prietenii stiu de ce.. 😀

Aceasta este partea I a unor interpretari privind rezultatele SEO GPeC 2009, partea a II-a in zilele ce urmeaza.

Sharing is caring!

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *