Nimicul lui Krumel

Continut mult dar fara trafic organic. De ce?

Cu cat sunt mai multe pagini indexate, cu atat mai popular site-ul si cu atat mai multe sanse de a genera mai mult trafic organic….

E opinia multor detinatori de site-uri care considera ca a indexa cat mai multe pagini in indexul Google e un lucru pozitiv. Ca e vorba de filtre interne, rezultate la cautari facute de vizitatori pe propriul site, paginatii de categorii sau chiar tag-uri de pe bloguri (link intern, se deschide in aceeasi pagina), toate sunt considerate pagini bune de indexat.

In realitate, ar trebui ca indexarea si crawling-ul robotilor sa fie controlate astfel incat in index sa apara doar pagini relevante, utile. Multi nu stiu ca prin controlarea continutului indexat salveaza resurse, cresc sansele de a urca la cautari, genereaza o experienta mai buna pe site.

Sa detaliem putin, zic:

Technical guidelines
…….
Use robots.txt to prevent crawling of search results pages or other auto-generated pages that don’t add much value for users coming from search engines.

……

… zic cei de la Google in Webmaster Guidelines. Nu ar trebui ca rezultatele la cautarile interne facute de vizitatorii sa fie indexate chiar daca unii mai mari o fac (1, 2, 3 – spre exemplu (link extern, se deschide intr-o pagina noua)).

Pentru a scapa de bounce rate marit, pentru a da o sansa paginilor importante sa urce la cautari, pentru a oferi rezultate relevante vizitatorilor ar trebui sa controlam indexarea in Google si o prioritizam folosind metode omologate. Astfel vei putea scapa de fluctuatiile inutile din cautari si vei oferi rezultate relevante vizitatorilor.

Cum evaluam continutul inutil indexat?

Sint destul de multe metode pentru a verifica paginile care nu mai genereaza trafic organic si deci care ajung sa devina inutile. Dupa ce reusesti sa aplici cele de mai sus, privind controlul indexarii si a crawling-ului, poti scana site-ul cu diferite unelte specifice. Faptul ca o pagina nu are trafic nu inseamna ca acea pagina nu e indexata, de multe ori paginile sint prost optimizate sau cautarile nu mai sint de actualitate.

De curand cei de la Screaming Frog ofera 2 optiuni prin care puteti vedea paginile care au date si care nu. Prin conectarea la Google Analytics si Google Search Console (vechiul Google Webmaster Tools) puteti corela paginile detinute de catre site cu date privind traficul organic. Datele din Google Search Console sunt momentan limitate prin API-ul detinut, cel din Google Analytics ofera ceva mai multe date. Cu toate astea, unealta e buna pentru a evalua continutul indexat in Google si controla paginile pe care robotii le verifica.

Si pentru a vedea un rezultat al unui scan, am luat random un site si l-am evaluat.

Mic studiu de caz

Dupa scanare reiese ca aproximativ 75% din paginile scanate nu au date in Google Analytics pentru ultimele 30 de zile. Perioada de timp poate fi extinsa, dar riscati sa generati doar o parte (sample) din date.

In cazul de fata, 75% din pagini care nu au trafic organic e foarte mult in conditiile in care site-ul controleaza bine paginile indexate in Google. In plus, cu Screaming Frog puteti identifica paginile cu bounce rate mare. Le puteti exporta, analiza si puteti incerca rezolvarea unor probleme pentru aceste pagini.

Din Google Search Console lucrurile sint ceva mai blande, dar oarecum nerelevante din moment ce doar o parte din date sint aduse spre analiza prin API. Cu toate astea e o metoda buna de a identifica “pagini moarte”.

Pentru o evaluare si mai buna, urmariti optiunea Blocked By Robots.txt unde veti putea vedea ce pagini sint restrictionate de Robots.txt.

Solutia?

Iar ca rezultat final, revenirea la vechiul trafic dupa ce site-ul a fost penalizat datorita indexarii de pagini inutile.

Site-ul in cauza genera mii de pagini ce creau duplicate content sau care ajungeau sa canibalizeze pagini importante. Evident a venit si penalizarea care a redus la jumatate traficul organic. Dupa lupte seculare cu clientul, am reusit implementarea unui sistem prin care site-ul sa nu mai indexeze pagini inutile, lucru ce a generat nu doar revenirea la cautari ci chiar o crestere considerabila de trafic. Din practica, pot spune ca aceste lucruri “rezista” pana la urmatoarea modificare/actualizare in site, de obicei “se uita” de aceste specificatii de prioritizarea si controlarea continutului indexat.

“Ghinion!” cum ar spune cineva care a ajuns presedinte. 🙂