X
    Categories: SEO

Kolejne trzęsienie w Google.

No i kolejny raz Google zafundowało pozycjonerom trzęsienie SERPów. W nocy z 24 na 25 kwietnia, nastąpiły zmiany w wynikach. Pozycje wielu witryn zostały obniżone, niektórych znacznie poniżej 50 miejsca.
Oczywiście od razu zaczęły się spekulacje dlaczego się tak stało, i który czynnik jest odpowiedzialny na perturbacje.
Na oficjalnym blogu Google Polska ukazała się informacja o tytule Kolejny krok w kierunku promowania witryn wysokiej jakości.
We wpisie tym przeczytamy, że zmiany oczywiście mają na celu poprawę wyników i dotkną witryny, które stosują techniki rodem z SEO Przedszkola.

Swoją drogą gratuluje pomysłu na SEO twórcom przykładów użytych w tym wpisie.

Niestety o czym wiem ja i chyba wszyscy pozycjonerzy, nie tylko w Polsce, zmiany dotknęły nie tylko witryny, które są „be” ale i te dobre dostały po łapach.
I nie ma co dywagować czy aby na pewno te witryny, których pozycje zostały obniżone są OK. Na forach lament podnoszą ludzie, którzy używają tylko technik poznanych na oficjalnym forum Google a to już pokazuje jak szerokie tsunami przewaliło się przez SERPy.

Tym razem, na szczęście, mimo, że „SEO Polska” oczywiście ma najwyższy wskaźnik zmian, sprawa komentowana jest na Świecie bo i poza naszymi granicami nie jest dobrze.
W wielu krajach Europejskich ludzie narzekają tak mocno, że możemy się zacząć zastanawiać czy u nas naprawdę jest źle.

Choć u mnie oraz w witrynach, które obserwuje niewiele się zmieniło, przeanalizowałem witryny, których dotknęła „karząca ręka Google” i doszedłem do wniosku, że spadki często dotyczą witryn, które mają powieloną treść.

Tzn nie musi być wcale tak, że to te witryny powielają, najczęściej jest tak, że to od nich zostało coś powielone.
Nie chcę wskazywać powielenia jako jedynego czynnika, na pewno tak nie jest ale zostało to wzięte pod uwagę przy wyznaczaniu pozycji. Od razu dodam, że synonimizacja to też forma powielenia.

Niestety, dzięki przykładom jakie mogłem w minionych miesiącach obserwować, doszedłem do wniosku, że Google nie radzi sobie z powieleniem treści. I nie chodzi mi o to, że nie wyłapuje takiego stanu rzeczy, bo wyłapuje świetnie.
Nie radzi sobie bo łatwo traci albo w ogóle nie umie określić, która witryna to ta witryna z oryginalną treścią.
Analizy wczorajszych zmian jedynie mnie w tym utwierdziły.

Polecam przeanalizować witryny ze spadkami pod tym kątem, zwłaszcza te witryny, które poleciały mocno w dół.

A Ty co o tym sądzisz, jaki Twoim zdaniem czynnik jest był powodem spadków ?

View Comments (25)

  • Ciężko tutaj cokolwiek wyłapać. Jeżeli powielanie treści ma być wskaźnikiem jakości strony, to jak dla mnie jest to strzał nietrafiony. Oczywiście, nie mam na myśli tutaj typowego ctrl-c, ctrl-v. Ale weźmy np. strony producentów leków na gardło. Każdy lek jest inny, ale stosowany w tych samych przypadkach. Producenci na stronie opisują na jakie objawy lek się nadaje, co pozwala leczyć, co zawiera, komu pomaga. Ale, ale! Jak się przyjrzymy, to bardzo często jest podobna treść - no bo co tu innego napisać? Strony agencji SEO przedstawiają proces pozycjonowania klientom i wyjaśniają dlaczego jest to takie ważne i... i właściwie wszystkie mają bardzo zbliżony do siebie opis. No bo jak inaczej opisać to samo zjawisko, tą samą rzecz, tą samą czynność? Gdzie jest granica powielonej treści w przypadku gdy mamy miliony stron w internecie, a setki tysięcy opisuje ten sam problem używając podobnych słów (bo innych po prostu nie ma)?

  • Teskt od kolegi:

    Na Searchmetrics SEO Blogu przeprowadzono coś więcej niż tylko dywagacje – oparto się na suchych faktach; przeanalizowano 50.000 fraz dla pozycji od 1 do 100 – a następnie sprawdzono, jakie serwisy znajdowały się tutaj – i jak bardzo zmieniła się ich widoczność w SERPach w stosunku do poprzedniego tygodnia.

    Na podstawie analizy autor zauważył, że najwięcej straciły te serwisy, które

    są agregatorami treści – „zdobywają ją” na wszelkie możliwe sposób
    bazują na podobnych treściach, przez co mało się od siebie odróżniają – różnego rodzaju serwisy informacyjne
    są „ciężkie” (jeszcze większy wpływ szybkości wczytywania się strony na pozycje)
    przerabiają treści już istniejące i publikują je „na swój sposób”

    • umocniły się porównywarki, więc tyle z tematem walki z nieunikalnośicą.

      No nie bardzo, porównywarki, te największe "kradną" unikalność i to, że pojawiły się wyżej nie wyklucza niczego.

1 2 3
Related Post