Printre problemele legate de indexarea de continut si fluctuatiile la cautari exista una pe care destul de putini o stiu si o controleaza: canibalizarea de continut si subiecte. Multi se gandesc la canibalizarea cuvintelor cheie sau paginile duplicate din site. Titlurile, descrierile unor pagini ajung sa aiba aceleasi cuvinte cheie motiv pentru care ele ajung sa se canibalizeze la cautari.
De ceva timp Google tine cont si de continutul unei pagini nefiind indeajuns doar similitudinea titlurilor si descrierilor ci si a continutului sau a subiectului pe care o pagina o abordeaza. Ca e vorba de un site de publicare articole informative sau de un magazin online, problema asta de SEO exista cam la toti.
Multe site-uri se autoconcureaza pe anumite subiecte fara a-si da seama, paginile care fac lucrul asta ajung sa se canibalizeze generand astfel fluctuatii in cautari. Nu tot timpul problema fluctuatiilor in cautari tine de partea onpage; backlink-urile si anchor textele genereaza la randul lor astfel de fluctuatii. Ca sa nu mai zicem de asa zisul „over optimisation” care ar trebui sa fie un subiect expirat.
Prin 2013 scriam un articol despre fluctuatiile la cautari generate de paginile proprii. La acea vreme algoritmii Google erau creati sa tina cont mai mult de titluri si descrieri, acum continutul ajunge sa isi provoace singur neplaceri in cautari.
Tot atunci era vremea cand oamenii obisnuiau sa foloseasca rank trackere ptr a vedea pozitiile la cautari, putini foloseau metoda pentru a vedea daca Google ajunge sa alterneze paginile proprii si deci sa identifice o eventuala problema. A urmat un val de „nu mai folositi rank track-urile ca sint inutile” pana cand Google si-a adaugat in propriul Search Console (fostul Webmaster Tools) o optiune privind pozitiile la cautari dar si un istoric pentru cel putin 90 de zile. Cu alte cuvinte, un rank tracker. Putina ipocrizie nu strica nimanui.
O parte din canibalizare se datoreaza continutului duplicat asa cum chiar Google spune.
Minimize similar content: If you have many pages that are similar, consider expanding each page or consolidating the pages into one. For instance, if you have a travel site with separate pages for two cities, but the same information on both pages, you could either merge the pages into one page about both cities or you could expand each page to contain unique content about each city.
Tot cei de la Google spun ca nu exista o penalizare pentru duplicate content, dar acest duplicate content poate afecta modul cum paginile ies la cautari:
Duplicate content on a site is not grounds for action on that site unless it appears that the intent of the duplicate content is to be deceptive and manipulate search engine results. If your site suffers from duplicate content issues, and you don’t follow the advice listed above, we do a good job of choosing a version of the content to show in our search results.
Da, stiu.. e din 2008 dar se pare ca sint fosti angajati Google care inca fac referire la acel articol. In termenii Google, „penalizare” inseamna o actiune (manuala) luata de ei. In termenii detinatorilor de site-uri, „penalizare” inseamna orice scadere in trafic organic sau pozitii la cautari. Ad literam, Google are dreptate.
Cum detectam canibalizarea de continut sau de subiect
Din fericire exista cateva optiuni de a identifica eventuale pagini ce se suprapun ca subiect si se poate chiar vedea daca lucrul asta se intampla.
- o simpla cautare in Google dupa site:domeniu.ro „cuvinte cheie sau fraze de cautari generale” care ar trebui sa returneze paginile indexate ce fac referire la acele cuvinte cheie dar si la continutul ce trateaza acest subiect
- o optiune ceva mai buna e cea din Google Search Console unde la Search Analytics exista o structurare dupa cautare, landing page si perioada de timp. In plus, daca adaugati si pozitia la cautari ar trebui sa vedeti daca pentru o perioada de 90 de zile, pentru o anumita cautare ati avut listate mai mult de o pagina.
O mostra pentru exemplificare:
Sint doua optiuni de identificare a continutului ce se canibalizeaza oferite de cei de la Google, fluctuatiile la cautari fiind explicate mult mai usor acum.
De ce se canibalizeaza propriul continut?
De cele mai multe ori continutul se canibalizeaza datorita unor eventimente repetative (pentru publicatii online) sau aparitia unor produse care in principiu acopera acelasi tip de produs, de la acelasi brand. E un lucru inevitabil, e destul de dificil de controlat continutul duplicat si deci canibalizarea de subiect.
Alte motive tin de sustinerea externa sau interna a acelor pagini. Pagini vechi sint sustinute de link-uri care in timp au generat autoritate pentru acea pagina, paginile noi ajung sa dea motive de „actualizare” a rezultatelor la cautari. Dar poate cel mai important motiv tine de link-urile interne catre acele pagini. Intr-o structura interna a unui site paginile vechi ajung sa fie publicate in paginatii ale unor categorii, subcategorii sau filtre pentru magazinele online, iar pentru publicatii aceste pagini ajung sa fie puse in diferite arhive si tag-uri specifice.
Aceste link-uri (externe sau interne) sustin paginile, ceea ce inseamna ca fluctuatiile sint inevitabile. Puteti verifica pentru fiecare pagina in parte link-urile externe si valoare lor, dar si link-urile interne. Pentru link-urile interne puteti chiar identifica faptul ca paginile noi sint mai bine sustinute sau nu. Faceti asta folosind Google Search Console in sectiunea Internal Links.
Ce facem cu acest continut duplicat care se canibalizeaza?
Sint recomandari facute privind rezolvarea lor prin transformarea acestor pagini in pagini 404. Altii recomanda redirectionarea catre pagina noua astfel incat link-urile externe sa redirectioneze metricii SEO catre noua pagina, cedand astfel autoritatea capatata in timp.
Recomandarea mea e sa analizati daca aceste pagini mai sint valabile ca subiect. Pagini vechi ajung sa nu mai apara la rezultate, Google favorizand paginile noi, continutul proaspat. Multe din pagini sint menite sa moara, redirectionarea lor catre subiectul nou creat nu e o solutie (cel putin nu pe site-urile ce publica articole informative). Ele ajung sa moara, sa sustina intern pagini asemanatoare, sa transmita si sa cedeze metrici SEO. Asta e si motivul pentru care continutul mult nu genereaza tot timpul trafic organic.
In cazul magazinelor online, multe din aceste pagini vechi contin oferte inexistente, produse care nu vor mai fi aduse pe stoc datorita vietii pe care un produs o are. Un produs din 2011 sigur nu mai e de actualitate, dar un produs asemanator, actual, are sanse mai mari sa genereze interes.
Dupa caz, dupa o analiza detaliata a ceea se se intampla, puteti lua decizia de a redirectiona sau nu aceste pagini catre pagini noi, actuale. Nu le-as face 404, ele au un istoric si niste metrici SEO ce pot fi cedati unor pagini noi. Pentru paginile de publicatii online nu ar strica reoptimizarea lor. De multe ori merge, desi sint sanse ca duplicarea si canibalizarea subiectului sa ramana.
Am cautat sa vad daca exista unelte prin care sa se poata structura continutul dupa topicuri dar nu am gasit. Clasificarea nu ar trebui facuta doar dupa titluri si descrieri ci si dupa continutul acestor pagini. Ele au un vocabular bogat si diferit, variatiile de cuvinte folosite, semantica, alte elemente care pot ajuta la clasificarea continutului.
Voi stiti metode de a identifica si controla continutul duplicat si canibalizarea de subiecte? 🙂