Kolejne trzęsienie w Google.

No i kolejny raz Google zafundowało pozycjonerom trzęsienie SERPów. W nocy z 24 na 25 kwietnia, nastąpiły zmiany w wynikach. Pozycje wielu witryn zostały obniżone, niektórych znacznie poniżej 50 miejsca.
Oczywiście od razu zaczęły się spekulacje dlaczego się tak stało, i który czynnik jest odpowiedzialny na perturbacje.
Na oficjalnym blogu Google Polska ukazała się informacja o tytule Kolejny krok w kierunku promowania witryn wysokiej jakości.
We wpisie tym przeczytamy, że zmiany oczywiście mają na celu poprawę wyników i dotkną witryny, które stosują techniki rodem z SEO Przedszkola.

Swoją drogą gratuluje pomysłu na SEO twórcom przykładów użytych w tym wpisie.

Niestety o czym wiem ja i chyba wszyscy pozycjonerzy, nie tylko w Polsce, zmiany dotknęły nie tylko witryny, które są „be” ale i te dobre dostały po łapach.
I nie ma co dywagować czy aby na pewno te witryny, których pozycje zostały obniżone są OK. Na forach lament podnoszą ludzie, którzy używają tylko technik poznanych na oficjalnym forum Google a to już pokazuje jak szerokie tsunami przewaliło się przez SERPy.

Tym razem, na szczęście, mimo, że „SEO Polska” oczywiście ma najwyższy wskaźnik zmian, sprawa komentowana jest na Świecie bo i poza naszymi granicami nie jest dobrze.
W wielu krajach Europejskich ludzie narzekają tak mocno, że możemy się zacząć zastanawiać czy u nas naprawdę jest źle.

Choć u mnie oraz w witrynach, które obserwuje niewiele się zmieniło, przeanalizowałem witryny, których dotknęła „karząca ręka Google” i doszedłem do wniosku, że spadki często dotyczą witryn, które mają powieloną treść.

Tzn nie musi być wcale tak, że to te witryny powielają, najczęściej jest tak, że to od nich zostało coś powielone.
Nie chcę wskazywać powielenia jako jedynego czynnika, na pewno tak nie jest ale zostało to wzięte pod uwagę przy wyznaczaniu pozycji. Od razu dodam, że synonimizacja to też forma powielenia.

Niestety, dzięki przykładom jakie mogłem w minionych miesiącach obserwować, doszedłem do wniosku, że Google nie radzi sobie z powieleniem treści. I nie chodzi mi o to, że nie wyłapuje takiego stanu rzeczy, bo wyłapuje świetnie.
Nie radzi sobie bo łatwo traci albo w ogóle nie umie określić, która witryna to ta witryna z oryginalną treścią.
Analizy wczorajszych zmian jedynie mnie w tym utwierdziły.

Polecam przeanalizować witryny ze spadkami pod tym kątem, zwłaszcza te witryny, które poleciały mocno w dół.

A Ty co o tym sądzisz, jaki Twoim zdaniem czynnik jest był powodem spadków ?

25 komentarzy

  1. Autor Jolie dodany 26 kwiecień, 2012

    U mnie podobnie, też niewielkie zmiany, ale to dobrze :D

  2. Autor cbdss dodany 27 kwiecień, 2012

    Ciężko tutaj cokolwiek wyłapać. Jeżeli powielanie treści ma być wskaźnikiem jakości strony, to jak dla mnie jest to strzał nietrafiony. Oczywiście, nie mam na myśli tutaj typowego ctrl-c, ctrl-v. Ale weźmy np. strony producentów leków na gardło. Każdy lek jest inny, ale stosowany w tych samych przypadkach. Producenci na stronie opisują na jakie objawy lek się nadaje, co pozwala leczyć, co zawiera, komu pomaga. Ale, ale! Jak się przyjrzymy, to bardzo często jest podobna treść – no bo co tu innego napisać? Strony agencji SEO przedstawiają proces pozycjonowania klientom i wyjaśniają dlaczego jest to takie ważne i… i właściwie wszystkie mają bardzo zbliżony do siebie opis. No bo jak inaczej opisać to samo zjawisko, tą samą rzecz, tą samą czynność? Gdzie jest granica powielonej treści w przypadku gdy mamy miliony stron w internecie, a setki tysięcy opisuje ten sam problem używając podobnych słów (bo innych po prostu nie ma)?

  3. Autor mkane dodany 27 kwiecień, 2012

    Teskt od kolegi:

    Na Searchmetrics SEO Blogu przeprowadzono coś więcej niż tylko dywagacje – oparto się na suchych faktach; przeanalizowano 50.000 fraz dla pozycji od 1 do 100 – a następnie sprawdzono, jakie serwisy znajdowały się tutaj – i jak bardzo zmieniła się ich widoczność w SERPach w stosunku do poprzedniego tygodnia.

    Na podstawie analizy autor zauważył, że najwięcej straciły te serwisy, które

    są agregatorami treści – „zdobywają ją” na wszelkie możliwe sposób
    bazują na podobnych treściach, przez co mało się od siebie odróżniają – różnego rodzaju serwisy informacyjne
    są „ciężkie” (jeszcze większy wpływ szybkości wczytywania się strony na pozycje)
    przerabiają treści już istniejące i publikują je „na swój sposób”

  4. Autor Wilk dodany 27 kwiecień, 2012

    Tia, tylko na niektórych hasłach po 25 umocniły się porównywarki, więc tyle z tematem walki z nieunikalnośicą.

  5. Autor Kornelia dodany 27 kwiecień, 2012

    Myślę że teraz musimy poczekać aż się „przeżre” wsio w serpach i wtedy ocenimy co i jak :)

  6. Autor Kalisz dodany 27 kwiecień, 2012

    Na razie na wnioski jest za wcześnie. Na razie królują spamy w SERP-ach, ale pewnie i na nie przyjdzie czas.

  7. Autor Asia dodany 30 kwiecień, 2012

    Jedna aktualizacja a cala blogsfera w panice… To już chyba z 10 artykuł na ten temat który dzisiaj czytam :)

  8. Autor mkane dodany 30 kwiecień, 2012

    umocniły się porównywarki, więc tyle z tematem walki z nieunikalnośicą.

    No nie bardzo, porównywarki, te największe „kradną” unikalność i to, że pojawiły się wyżej nie wyklucza niczego.

  9. Autor Sławek dodany 2 maj, 2012

    Jak tam po tygodniu? u mnie wraca do normy :)

  10. Autor Marian dodany 4 maj, 2012

    Dokładnie Asiu… Bynajmniej SeoBlogsfera ma o czym pisać :D

  11. Autor Sylwester dodany 4 maj, 2012

    Taa… Tydzień miną i na blogach cisza :D

  12. Autor Benek dodany 7 maj, 2012

    Pingwinek przyniósł ze sobą prezent… Aktualizację PR… Nie wiem jak wy ale ja dostałem mocno po 4 literach… Wiem że pr niema znaczenia ale byłem w trakcie przygotować do dodania się na dużą listę katalogów gdzie za free jest o 4… a ja z 5 spadłem na 3 :/

  13. Autor Grzesiek dodany 7 maj, 2012

    Faktycznie ten PR to teraz o kant tyłka robić… Ale do katalogów się przydaje :D

  14. Autor Mateusz dodany 7 maj, 2012

    PR to tylko taki graficzny bajerek dla nieznających się na SEO :) Jedyny tak bardzo graficzny wskaźnik :)

  15. Autor mkane dodany 8 maj, 2012

    Jak tam po tygodniu? u mnie wraca do normy :)

    U mnie to co spadło, parę oczek w górę. żadnych rewelacji ale też żadnych negatywów.

  16. Autor Kasia dodany 9 maj, 2012

    Mi poleciało kilka fraz w kosmos z top10 w tym tytułowa :O

  17. Autor pozycjonowanie stron dodany 30 maj, 2012

    Moja jedna strona około 17 maja zaliczyła spadek, teraz staram się odrobić.

  18. Autor Paweł dodany 4 czerwiec, 2012

    Tak to z Google będzie, od czasu do czasu będzie fundował „niespodzianki” – w sumie, to chyba dobrze, bo czasami to aż nudno się robi i tylko największe firmy mogą się przebić (budżet), tak to da po łapkach np. dużemu graczowi z branży finansowej czy telekomunikacyjnej i robi się małe zamieszanie :)

  19. Autor Marek dodany 5 czerwiec, 2012

    Trzęsienie w serpach – podoba mi się to określenie :) Osobiście nie odczułem negatywnych skutków ostatniego update, z czegoś się niezmiernie cieszę. Słyszałem jednak od kilku znajomych, że pomimo stosowania white lub grey SEO Google ich dosyć surowo ukarało. Albo mi coś kręcą, albo Google się myli…

  20. Autor mkane dodany 11 czerwiec, 2012

    Albo mi coś kręcą, albo Google się myli…

    Witryny były karane niezależnie od sposobu pozycjonowania.

  21. Autor Pablo dodany 12 czerwiec, 2012

    Mnie też kary Google nie ominęły. Może SEO – aniołkiem nie jestem, ale w co najmniej dwóch przypadkach przetarłem oczy ze zdziwienia. Stronki pozycjonowane chciało by się rzec – elegancko a tu spadki, spadki…

  22. Autor pesymista dodany 12 czerwiec, 2012

    Niestety google walczy z pozycjonerami od dawna, ale dopiero teraz cierpią na tym wszyscy oprócz spamerów. Ale widać taka polityka wujka G. Mi pierwsza strona poleciała w kwietni teraz druga…

  23. Autor Dawid dodany 17 czerwiec, 2012

    @Pesymista: A jaki model seo stosujesz?

  24. Autor buzz marketing dodany 17 czerwiec, 2012

    zgadzam się że „google nie radzi sobie z powielaniem treści”, i powiem więcej, google być może nie radzi sobie z tylkoma czynnikami seo jakie wytworzyli, po dwóch stronach barykady są ludzie, google niestety musi być wyżej ponieważ odgrywa w roli policjanta, ma ku temu powody, ma zaplecze techniczne, ale matematyka i złożoność obliczeniowa jest nieubłagalna => może właśnie osiągneli limity co do policzalnośći różnych aspektów serisów w sieci, jeżeli teraz tak jest to google będzie się bawić nie w nowsze rozwiązania tylko w zmienianie wag w dotychczasowych algorytmach, pod płaszczykiem pingwinów, pand i innych pseudo nowości.. ot takie moje zdanie

  25. Autor pesymista dodany 18 czerwiec, 2012

    Do tej pory linkowałem tam gdzie normalni ludzie umieszczają linki czyli na blogach, w komentarzach, na forach, profilach web 2.0, i lekko katalogowałem. Niestety to nie pomogło ustrzec się przed pingwinem…