Cu cat sunt mai multe pagini indexate in Google, cu atat mai popular site-ul si cu atat mai multe sanse de a genera mai mult trafic organic….
E opinia multor detinatori de site-uri care considera ca a indexa cat mai multe pagini in indexul Google e un lucru pozitiv. Ca e vorba de filtre interne, rezultate la cautari facute de vizitatori pe propriul site, paginatii de categorii sau chiar tag-uri de pe bloguri (link intern, se deschide in aceeasi pagina), toate sunt considerate pagini bune de indexat.
In realitate, ar trebui ca indexarea si crawling-ul robotilor sa fie controlate astfel incat in indexul Google sa apara doar pagini relevante, utile. Multi nu stiu ca prin controlarea continutului indexat salveaza resurse, cresc sansele de a urca la cautari, genereaza o experienta mai buna pe site, cu alte cuvinte, fac SEO de calitate, pe termen mediu si lung.
Sa detaliem putin, zic:
Technical guidelines
…….
Use robots.txt to prevent crawling of search results pages or other auto-generated pages that don’t add much value for users coming from search engines.……
… zic cei de la Google in Webmaster Guidelines. Nu ar trebui ca rezultatele la cautarile interne facute de vizitatorii sa fie indexate chiar daca unii mai mari o fac (1, 2, 3 – spre exemplu (link extern, se deschide intr-o pagina noua)).
Pentru a scapa de bounce rate marit, pentru a da o sansa paginilor importante sa urce la cautari, pentru a oferi rezultate relevante vizitatorilor ar trebui sa controlam indexarea in Google si o prioritizam folosind metode omologate. Astfel vei putea scapa de fluctuatiile inutile din cautari si vei oferi rezultate relevante vizitatorilor.
Cum evaluam continutul inutil indexat?
Sint destul de multe metode pentru a verifica paginile care nu mai genereaza trafic organic si deci care ajung sa devina inutile. Dupa ce reusesti sa aplici cele de mai sus, privind controlul indexarii si a crawling-ului, poti scana site-ul cu diferite unelte specifice. Faptul ca o pagina nu are trafic nu inseamna ca acea pagina nu e indexata, de multe ori paginile sint prost optimizate sau cautarile nu mai sint de actualitate.
De curand cei de la Screaming Frog ofera 2 optiuni prin care puteti vedea paginile care au date si care nu. Prin conectarea la Google Analytics si Google Search Console (vechiul Google Webmaster Tools) puteti corela paginile detinute de catre site cu date privind traficul organic. Datele din Google Search Console sunt momentan limitate prin API-ul detinut, cel din Google Analytics ofera ceva mai multe date. Cu toate astea, unealta e buna pentru a evalua continutul indexat in Google si controla paginile pe care robotii le verifica.
Si pentru a vedea un rezultat al unui scan, am luat random un site si l-am evaluat.
Mic studiu de caz
Dupa scanare reiese ca aproximativ 75% din paginile scanate nu au date in Google Analytics pentru ultimele 30 de zile. Perioada de timp poate fi extinsa, dar riscati sa generati doar o parte (sample) din date.
In cazul de fata, 75% din pagini care nu au trafic organic e foarte mult in conditiile in care site-ul controleaza bine paginile indexate in Google. In plus, cu Screaming Frog puteti identifica paginile cu bounce rate mare. Le puteti exporta, analiza si puteti incerca rezolvarea unor probleme pentru aceste pagini.
Din Google Search Console lucrurile sint ceva mai blande, dar oarecum nerelevante din moment ce doar o parte din date sint aduse spre analiza prin API. Cu toate astea e o metoda buna de a identifica „pagini moarte”.
Pentru o evaluare si mai buna, urmariti optiunea Blocked By Robots.txt unde veti putea vedea ce pagini sint restrictionate de Robots.txt.
Solutia?
- Optimizati si prioritizati indexarea si crawling-ul paginilor in Google. Astfel veti scapa de pagini duplicate, pagini inutile spre indexare, pagini care se canibalizeaza si genereaza fluctuatii la cautarile in Google.
- Dupa, scanati site-ul si evaluati paginile care nu genereaza trafic organic. Exportati paginile si verificati amanuntit situatia lor.
- Incercati sa reoptimizati paginile cu probleme. Multe din ele sint pagini vechi care au fost optimizate conform metodelor din anii trecuti. Google intre timp si-a reevaluat algoritmii motiv pentru care acele pagini ar putea fi penalizate. Reoptimizarea nu inseamna rescrierea textului, ci mai degraba refacerea titlurilor si a descrierilor, refacerea link-urilor interne, reajustare densitatii de cuvinte cheie, inserarea unor cuvinte ce pot ajuta prin semantica lor, diversificarea unor cuvinte cu variatii sau inselesuri asemanatoare.
- Scanati constant site-ul cu Screaming Frog ptr a va asigura ca paginile „vazute” de roboti sint cele care trebuie. Verificati titlurile si descrierile, structura, timpii de incarcare a paginilor. In mare parte problema onpage ar trebui sa fie rezolvata, site-ul indexand pagini relevante.
Iar ca rezultat final, revenirea la vechiul trafic dupa ce site-ul a fost penalizat datorita indexarii de pagini inutile.
Site-ul in cauza genera mii de pagini ce creau duplicate content sau care ajungeau sa canibalizeze pagini importante. Evident a venit si penalizarea care a redus la jumatate traficul organic. Dupa lupte seculare cu clientul, am reusit implementarea unui sistem prin care site-ul sa nu mai indexeze pagini inutile, lucru ce a generat nu doar revenirea la cautari ci chiar o crestere considerabila de trafic. Din practica, pot spune ca aceste lucruri „rezista” pana la urmatoarea modificare/actualizare in site, de obicei „se uita” de aceste specificatii de prioritizarea si controlarea continutului indexat.
„Ghinion!” cum ar spune cineva care a ajuns presedinte. 🙂
100% de acord cu ce zici! E foarte greu sa-i explici unui site owner chestia asta.. desi unii specialisti ar trebui sa faca exact ce ai zis tu, ca sa previna panda. O intrebare totusi: penalizarea de care vorbesti la final s-a intamplat pe un site romanesc?
Da Liviu, e vorba de un site romanesc. Site-ul indexa mult continut preluat si structurat eronat. Am prioritizat indexare, curatat paginile junk sint index prin scoaterea lor, am cerut reanalizarea si site-ul si-a revenit.
Desi clientul a crezut ca prin pierderea unor pagini indexate pierde si trafic, intr-un final a castigat trafic mai mult. Bounce rate revenit la cote normale, conversii mai multe, trafic stabil pe o perioada mai mare de timp, site-ul si acum sta bine in Google.
Comentariile sunt închise.