Kolejne trzęsienie w Google.
No i kolejny raz Google zafundowało pozycjonerom trzęsienie SERPów. W nocy z 24 na 25 kwietnia, nastąpiły zmiany w wynikach. Pozycje wielu witryn zostały obniżone, niektórych znacznie poniżej 50 miejsca.
Oczywiście od razu zaczęły się spekulacje dlaczego się tak stało, i który czynnik jest odpowiedzialny na perturbacje.
Na oficjalnym blogu Google Polska ukazała się informacja o tytule Kolejny krok w kierunku promowania witryn wysokiej jakości.
We wpisie tym przeczytamy, że zmiany oczywiście mają na celu poprawę wyników i dotkną witryny, które stosują techniki rodem z SEO Przedszkola.
Swoją drogą gratuluje pomysłu na SEO twórcom przykładów użytych w tym wpisie.
Niestety o czym wiem ja i chyba wszyscy pozycjonerzy, nie tylko w Polsce, zmiany dotknęły nie tylko witryny, które są „be” ale i te dobre dostały po łapach.
I nie ma co dywagować czy aby na pewno te witryny, których pozycje zostały obniżone są OK. Na forach lament podnoszą ludzie, którzy używają tylko technik poznanych na oficjalnym forum Google a to już pokazuje jak szerokie tsunami przewaliło się przez SERPy.
Tym razem, na szczęście, mimo, że „SEO Polska” oczywiście ma najwyższy wskaźnik zmian, sprawa komentowana jest na Świecie bo i poza naszymi granicami nie jest dobrze.
W wielu krajach Europejskich ludzie narzekają tak mocno, że możemy się zacząć zastanawiać czy u nas naprawdę jest źle.
Choć u mnie oraz w witrynach, które obserwuje niewiele się zmieniło, przeanalizowałem witryny, których dotknęła „karząca ręka Google” i doszedłem do wniosku, że spadki często dotyczą witryn, które mają powieloną treść.
Tzn nie musi być wcale tak, że to te witryny powielają, najczęściej jest tak, że to od nich zostało coś powielone.
Nie chcę wskazywać powielenia jako jedynego czynnika, na pewno tak nie jest ale zostało to wzięte pod uwagę przy wyznaczaniu pozycji. Od razu dodam, że synonimizacja to też forma powielenia.
Niestety, dzięki przykładom jakie mogłem w minionych miesiącach obserwować, doszedłem do wniosku, że Google nie radzi sobie z powieleniem treści. I nie chodzi mi o to, że nie wyłapuje takiego stanu rzeczy, bo wyłapuje świetnie.
Nie radzi sobie bo łatwo traci albo w ogóle nie umie określić, która witryna to ta witryna z oryginalną treścią.
Analizy wczorajszych zmian jedynie mnie w tym utwierdziły.
Polecam przeanalizować witryny ze spadkami pod tym kątem, zwłaszcza te witryny, które poleciały mocno w dół.
A Ty co o tym sądzisz, jaki Twoim zdaniem czynnik jest był powodem spadków ?
U mnie podobnie, też niewielkie zmiany, ale to dobrze :D
Ciężko tutaj cokolwiek wyłapać. Jeżeli powielanie treści ma być wskaźnikiem jakości strony, to jak dla mnie jest to strzał nietrafiony. Oczywiście, nie mam na myśli tutaj typowego ctrl-c, ctrl-v. Ale weźmy np. strony producentów leków na gardło. Każdy lek jest inny, ale stosowany w tych samych przypadkach. Producenci na stronie opisują na jakie objawy lek się nadaje, co pozwala leczyć, co zawiera, komu pomaga. Ale, ale! Jak się przyjrzymy, to bardzo często jest podobna treść – no bo co tu innego napisać? Strony agencji SEO przedstawiają proces pozycjonowania klientom i wyjaśniają dlaczego jest to takie ważne i… i właściwie wszystkie mają bardzo zbliżony do siebie opis. No bo jak inaczej opisać to samo zjawisko, tą samą rzecz, tą samą czynność? Gdzie jest granica powielonej treści w przypadku gdy mamy miliony stron w internecie, a setki tysięcy opisuje ten sam problem używając podobnych słów (bo innych po prostu nie ma)?
Teskt od kolegi:
Na Searchmetrics SEO Blogu przeprowadzono coś więcej niż tylko dywagacje – oparto się na suchych faktach; przeanalizowano 50.000 fraz dla pozycji od 1 do 100 – a następnie sprawdzono, jakie serwisy znajdowały się tutaj – i jak bardzo zmieniła się ich widoczność w SERPach w stosunku do poprzedniego tygodnia.
Na podstawie analizy autor zauważył, że najwięcej straciły te serwisy, które
są agregatorami treści – „zdobywają ją” na wszelkie możliwe sposób
bazują na podobnych treściach, przez co mało się od siebie odróżniają – różnego rodzaju serwisy informacyjne
są „ciężkie” (jeszcze większy wpływ szybkości wczytywania się strony na pozycje)
przerabiają treści już istniejące i publikują je „na swój sposób”
Tia, tylko na niektórych hasłach po 25 umocniły się porównywarki, więc tyle z tematem walki z nieunikalnośicą.
Myślę że teraz musimy poczekać aż się „przeżre” wsio w serpach i wtedy ocenimy co i jak :)
Na razie na wnioski jest za wcześnie. Na razie królują spamy w SERP-ach, ale pewnie i na nie przyjdzie czas.
Jedna aktualizacja a cala blogsfera w panice… To już chyba z 10 artykuł na ten temat który dzisiaj czytam :)
No nie bardzo, porównywarki, te największe „kradną” unikalność i to, że pojawiły się wyżej nie wyklucza niczego.
Jak tam po tygodniu? u mnie wraca do normy :)
Dokładnie Asiu… Bynajmniej SeoBlogsfera ma o czym pisać :D
Taa… Tydzień miną i na blogach cisza :D
Pingwinek przyniósł ze sobą prezent… Aktualizację PR… Nie wiem jak wy ale ja dostałem mocno po 4 literach… Wiem że pr niema znaczenia ale byłem w trakcie przygotować do dodania się na dużą listę katalogów gdzie za free jest o 4… a ja z 5 spadłem na 3 :/
Faktycznie ten PR to teraz o kant tyłka robić… Ale do katalogów się przydaje :D
PR to tylko taki graficzny bajerek dla nieznających się na SEO :) Jedyny tak bardzo graficzny wskaźnik :)
U mnie to co spadło, parę oczek w górę. żadnych rewelacji ale też żadnych negatywów.
Mi poleciało kilka fraz w kosmos z top10 w tym tytułowa :O
Moja jedna strona około 17 maja zaliczyła spadek, teraz staram się odrobić.
Tak to z Google będzie, od czasu do czasu będzie fundował „niespodzianki” – w sumie, to chyba dobrze, bo czasami to aż nudno się robi i tylko największe firmy mogą się przebić (budżet), tak to da po łapkach np. dużemu graczowi z branży finansowej czy telekomunikacyjnej i robi się małe zamieszanie :)
Trzęsienie w serpach – podoba mi się to określenie :) Osobiście nie odczułem negatywnych skutków ostatniego update, z czegoś się niezmiernie cieszę. Słyszałem jednak od kilku znajomych, że pomimo stosowania white lub grey SEO Google ich dosyć surowo ukarało. Albo mi coś kręcą, albo Google się myli…
Witryny były karane niezależnie od sposobu pozycjonowania.
Mnie też kary Google nie ominęły. Może SEO – aniołkiem nie jestem, ale w co najmniej dwóch przypadkach przetarłem oczy ze zdziwienia. Stronki pozycjonowane chciało by się rzec – elegancko a tu spadki, spadki…
Niestety google walczy z pozycjonerami od dawna, ale dopiero teraz cierpią na tym wszyscy oprócz spamerów. Ale widać taka polityka wujka G. Mi pierwsza strona poleciała w kwietni teraz druga…
@Pesymista: A jaki model seo stosujesz?
zgadzam się że „google nie radzi sobie z powielaniem treści”, i powiem więcej, google być może nie radzi sobie z tylkoma czynnikami seo jakie wytworzyli, po dwóch stronach barykady są ludzie, google niestety musi być wyżej ponieważ odgrywa w roli policjanta, ma ku temu powody, ma zaplecze techniczne, ale matematyka i złożoność obliczeniowa jest nieubłagalna => może właśnie osiągneli limity co do policzalnośći różnych aspektów serisów w sieci, jeżeli teraz tak jest to google będzie się bawić nie w nowsze rozwiązania tylko w zmienianie wag w dotychczasowych algorytmach, pod płaszczykiem pingwinów, pand i innych pseudo nowości.. ot takie moje zdanie
Do tej pory linkowałem tam gdzie normalni ludzie umieszczają linki czyli na blogach, w komentarzach, na forach, profilach web 2.0, i lekko katalogowałem. Niestety to nie pomogło ustrzec się przed pingwinem…