text-bait

Cu cat sunt mai multe pagini indexate, cu atat mai popular site-ul si cu atat mai multe sanse de a genera mai mult trafic organic….

E opinia multor detinatori de site-uri care considera ca a indexa cat mai multe pagini in indexul Google e un lucru pozitiv. Ca e vorba de filtre interne, rezultate la cautari facute de vizitatori pe propriul site, paginatii de categorii sau chiar tag-uri de pe bloguri(link intern, se deschide in aceeasi pagina), toate sunt considerate pagini bune de indexat.

In realitate, ar trebui ca indexarea si crawling-ul robotilor sa fie controlate astfel incat in index sa apara doar pagini relevante, utile. Multi nu stiu ca prin controlarea continutului indexat salveaza resurse, cresc sansele de a urca la cautari, genereaza o experienta mai buna pe site.

Sa detaliem putin, zic:

Technical guidelines
…….

  • Use robots.txt to prevent crawling of search results pages or other auto-generated pages that don’t add much value for users coming from search engines.
  • ……

    … zic cei de la Google in Webmaster Guidelines. Nu ar trebui ca rezultatele la cautarile interne facute de vizitatorii sa fie indexate chiar daca unii mai mari o fac (1, 2, 3 – spre exemplu (link extern, se deschide intr-o pagina noua)).

    Pentru a scapa de bounce rate marit, pentru a da o sansa paginilor importante sa urce la cautari, pentru a oferi rezultate relevante vizitatorilor ar trebui sa controlam indexarea in Google si o prioritizam folosind metode omologate. Astfel vei putea scapa de fluctuatiile inutile din cautari si vei oferi rezultate relevante vizitatorilor.

    Cum evaluam continutul inutil indexat?

    Sint destul de multe metode pentru a verifica paginile care nu mai genereaza trafic organic si deci care ajung sa devina inutile. Dupa ce reusesti sa aplici cele de mai sus, privind controlul indexarii si a crawling-ului, poti scana site-ul cu diferite unelte specifice. Faptul ca o pagina nu are trafic nu inseamna ca acea pagina nu e indexata, de multe ori paginile sint prost optimizate sau cautarile nu mai sint de actualitate.

    Citeste si:  Despre link exchange ca modalitate de link building

    De curand cei de la Screaming Frog ofera 2 optiuni prin care puteti vedea paginile care au date si care nu. Prin conectarea la Google Analytics si Google Search Console (vechiul Google Webmaster Tools) puteti corela paginile detinute de catre site cu date privind traficul organic. Datele din Google Search Console sunt momentan limitate prin API-ul detinut, cel din Google Analytics ofera ceva mai multe date. Cu toate astea, unealta e buna pentru a evalua continutul indexat in Google si controla paginile pe care robotii le verifica.

    Si pentru a vedea un rezultat al unui scan, am luat random un site si l-am evaluat.

    Mic studiu de caz

    Dupa scanare reiese ca aproximativ 75% din paginile scanate nu au date in Google Analytics pentru ultimele 30 de zile. Perioada de timp poate fi extinsa, dar riscati sa generati doar o parte (sample) din date.

    no_GA_data

    In cazul de fata, 75% din pagini care nu au trafic organic e foarte mult in conditiile in care site-ul controleaza bine paginile indexate in Google. In plus, cu Screaming Frog puteti identifica paginile cu bounce rate mare. Le puteti exporta, analiza si puteti incerca rezolvarea unor probleme pentru aceste pagini.

    Din Google Search Console lucrurile sint ceva mai blande, dar oarecum nerelevante din moment ce doar o parte din date sint aduse spre analiza prin API. Cu toate astea e o metoda buna de a identifica “pagini moarte”.

    No_Search_Console_data

    Pentru o evaluare si mai buna, urmariti optiunea Blocked By Robots.txt unde veti putea vedea ce pagini sint restrictionate de Robots.txt.

    Solutia?

    • Optimizati si prioritizati indexarea si crawling-ul paginilor in Google. Astfel veti scapa de pagini duplicate, pagini inutile spre indexare, pagini care se canibalizeaza si genereaza fluctuatii la cautarile in Google.
    • Dupa, scanati site-ul si evaluati paginile care nu genereaza trafic organic. Exportati paginile si verificati amanuntit situatia lor.
    • Incercati sa reoptimizati paginile cu probleme. Multe din ele sint pagini vechi care au fost optimizate conform metodelor din anii trecuti. Google intre timp si-a reevaluat algoritmii motiv pentru care acele pagini ar putea fi penalizate. Reoptimizarea nu inseamna rescrierea textului, ci mai degraba refacerea titlurilor si a descrierilor, refacerea link-urilor interne, reajustare densitatii de cuvinte cheie, inserarea unor cuvinte ce pot ajuta prin semantica lor, diversificarea unor cuvinte cu variatii sau inselesuri asemanatoare.
    • Scanati constant site-ul cu Screaming Frog ptr a va asigura ca paginile “vazute” de roboti sint cele care trebuie. Verificati titlurile si descrierile, structura, timpii de incarcare a paginilor. In mare parte problema onpage ar trebui sa fie rezolvata, site-ul indexand pagini relevante.
    Citeste si:  Google Https - o problema creata, nu rezolvata

    Iar ca rezultat final, revenirea la vechiul trafic dupa ce site-ul a fost penalizat datorita indexarii de pagini inutile.

    penalizare-onpage-google

    Site-ul in cauza genera mii de pagini ce creau duplicate content sau care ajungeau sa canibalizeze pagini importante. Evident a venit si penalizarea care a redus la jumatate traficul organic. Dupa lupte seculare cu clientul, am reusit implementarea unui sistem prin care site-ul sa nu mai indexeze pagini inutile, lucru ce a generat nu doar revenirea la cautari ci chiar o crestere considerabila de trafic. Din practica, pot spune ca aceste lucruri “rezista” pana la urmatoarea modificare/actualizare in site, de obicei “se uita” de aceste specificatii de prioritizarea si controlarea continutului indexat.

    “Ghinion!” cum ar spune cineva care a ajuns presedinte. 🙂