Google – moje przemyślenia o ostatnich wydarzeniach
Jak wiemy w tamtym tygodniu w Google znowu nastąpiło trzęsienie ziemi w wynikach wyszukiwania.
Niektórym pozycje spadły innym wzrosły, nie byłoby w tym nic dziwnego jakby nie skala zjawiska.
Jest ona tak duża, że na forach rozpoczął się swoisty lament.
Co się stało? Dlaczego tak się dzieje? Google oszalała? Znowu w Google jest gemela! :) itp itd.
Nadchodzącego kataklizmu mogliśmy się spodziewać. Już dwa razy na jeden dzień w poprzednich tygodniach wyniki mocno rotowały. Pozycjonerzy obstawiali problemy w Google albo nadchodzące zmiany.
Jak już pisałem, kilka dni temu te zmiany weszły na stałe w życie. Od tego dnia trwa swoiste dochodzenie dlaczego tak jest i co teraz wpływa na pozycje. Co spowodowało gwałtowne spadki i jak tego uniknąć…
Wiele osób wskazuje losować skoków pozycji, a przez to brak możliwości wskazania dlaczego tak się dzieje.
Moim jednak zdaniem, spadki spowodował mechanizm Google, który po prostu przestał brać pod uwagę (w jakieś części) linki z miejsc o nikłej wartości.
Dziś na blogu Google Polska ukazał się wpis o wydaje mi się nietrafionym tytule
„Dlaczego SWLe przekazujące PageRank mogą zaszkodzić pozycji Twojej witryny„
Dlaczego nietrafionym ? Otóż dlatego, że w treści dowiadujemy się, że linki nie szkodzą, mogą jedynie nie być brane pod uwagę i pozycje mogą spaść. Nie branie ich pod uwagę nie jest jednak szkodzeniem….
Nie o tytule chciałem jednak pisać, z tekstu możemy się dowiedzieć, że Google wzięło się do roboty i ….
przestało brać pod uwagę linki z systemów wymianów linków, które przekazują Page Rank. Po polsku pisząc, z systemów które emitują normalne linki.
Możemy się oczywiście spierać czy w 100% tak jest, patrząc na TOP10 na frazę „pozycjonowanie” i czołowe miejsce pewnej witryny, która opisuje w jaki sposób (kilkaset tys. punktów w SWL) znalazła się w czołówce stron na tą frazę.
Jednak moim zdaniem Kaspar napisał w dużej części prawdę. Jak napisałem kilka zdań prędzej, prawdopodobnie Google przestało brać pod uwagę linki o zerowej prawie wartości, które spełniają pewne dodatkowe czynniki.
Niestety a może fajnie że, te czynniki dodatkowe zbiegają się ze standardami w SWLach.
Jak można, moim zdaniem, można wykryć linkowanie z SWLi ?
Rotacyjne – 99,99% linków nie istnieje przy ponownej wizycie (prawdopodobnie wylosowania tego samego linka jednak istnieje). Witryny emitujące te linki są miernej najczęściej jakości (nie wszystkie) oraz następujące stała rotacja linków wychodzących. Mała liczba linków przychodzących albo o słabej jakości (ping – jako metoda indeksacji). Schematyczność anchorów i miejsc docelowych.
Stałe – duża liczba linków wychodzących z serwisów. Stałe miejsca emisji linków, na każdej prawie podstronie inne linki. Prawdopodobnie otoczenie linków (linki sąsiadujące) nie jest też dobre. W przypadku systemów stałych i tu witryny bardzo często są miernej jakości z mała liczbą linków przychodzących w stosunku do wychodzących. Schematyczność anchorów i miejsc docelowych.
Teraz wystarczy wyliczyć stosunek procentowy linków z SWLi i innych witryn o minimalnej wartości by oznaczyć daną witrynę flagą jakościową pod kątem Page Rank i linków.
Jeśli taka witryna dalej linkuje, jej linki znowu nie mają wartości….
Mam nadzieje, że tego nie zagmatwałem i rozumiecie mój tok rozumowania.
Przemyślenia, takie jak moje, zostały przez Google spisane i opatentowane. (no niestety nie wpadłem na to pierwszy i nie opatentowałem (kurcze!) )
Patent nr US7509344 „Method for detecting link spam in hyperlinked databases”
Od strony 9 możemy przeczytać że:
– wyłapanie złych linków jest dużym problemem
– manipulacja następuje wtedy, najprościej pisać, gdy do jednego miejsca (urla) prowadzą linki z naprawdę dużej ilości miejsc (urli) jednoznacznie wskazujące próbę manipulacji rankingiem (myślę, że chodzi o anchor)
– schematyczność działań, określenie pewnej struktury, której najczęściej nie ma w naturalnym linkowaniu.
– spam linki mają nikłą jakość w odróżnieniu od naturalnych linków (przykład z Yahoo)
– może się zdarzyć naturalne linkowanie zbliżone do manipulacji.
Z patentu można wyłapać jeszcze więcej (piszę jedynie o pewnych zdaniach na stronach 9 i 10) ale konkluzja jest taka „złe linki najczęściej pochodzą ze stron o niskim rankingu (Page Rank) i prowadzą w dużej ilości do tego samego miejsca„.
Moim zdaniem spokojnie te zdanie opisuje linkowanie z SWL (nie tylko oczywiście).
Wystarczy tylko wprowadzić, takie założenia w życie, pozbawić te linki jakiejkolwiek mocy i mamy kolejne tsunami w SERPach…
Kilka razy porównywałem SWLe do kazirodztwa, mieszamy linki w zapleczach tak, że moc rozwodniła się maksymalnie i popsuła tak jak w porównaniu…
Wyłapanie tych linków i witryn nie stanowi moim zdaniem kłopotu.
Dlaczego akurat teraz to się stało mimo, że patent ma ponad rok? Możliwe, że wprowadzenie Caffeine, który to algorytm przyśpieszył indeksowanie oraz niedawne wprowadzenie Google Percolator do aktualizacji przyrostowych indeksu, pozwoliło na szybszą reakcję i wyłapywanie tych linków, które nie powinny przynosić żadnych korzyści.
W 100% nie poradzą sobie na pewno z problemem ale moim zdaniem wymuszą na nas pozycjonerach pewne zmiany w zachowaniu. Może odejdą do lamusa witryny pod SWL, które nabijają tylko punkty poprzez pustą indeksacje (ping), może po prostu będziemy musieli teraz zadbać jeszcze bardziej o zaplecze.
Osobiście nie jestem tymi zmianami przerażony a nieraz nawet uśmiechnę się czytając żale innych pozycjonerów.
U mnie sytuacja nie jest tragiczna, minimalne spadki a frazy, z którymi miałem problemy i naprawdę mocno nad nimi pracowałem, mega skok w górę (najczęściej do top5).
Jak dla mnie – oby tak juz zostało. To co spadło prędzej czy później i tak wróci na swoje miejsce, wystarczy tylko zakasać rękawy i wziąć się do pracy – samodzielnej z minimalną pomocą zewnętrznych automatów…
Ciekawy jest fakt, że zmiany są na razie widoczne tylko w Polsce, czyli albo na nas testują albo gdzie indziej nie używa się SWLi ani słabych stron do linkowania i schematów, co nie jest, jak wiemy, zgodne z prawdą.
A wy co o tym wszystkich myślicie ?
Aktualizacja: Link do patentu US7509344 został usunięty, brak podstrony.
Ta „pewna witryna” na 1 pozycji na frazę „pozycjonowanie” używała akurat statycznego SWLa :P No i do tego jeszcze najgorszej spamiarki dostępnej na rynku – Xrumera. Jakoś nie wzbudza to we mnie wiary w nową jakość SERPów ;)
Oczywiście, że statycznego a nie rotacyjnego -poprawione, jak i to, że używała kilkuset punktów :) a nie jak jest w rzeczywistości kilkusety tysięcy punktów
Weź jednak pod uwagę, że nie wszystko kieruje bezpośrednio do tej witryny. Nie wiemy jaki jest stosunek tych „dobrych” linków do tych „złych”.
Kiedyś zrobiłem doświadczenie, zrobiłem subdomenę, skopiowałem tekst z wikipedi i dałem kilka tys. punktów z e-weba.
Poczekałem 2 tygodnie, żadnych efektów, zrobiłem 301 na nową subdomenę, przeniosłem w 100% witrynę i zminiłem urla w SWLu.
Robiłem tak jeszcze 4 razy, aż nagle 5 klon (6 subdomena) wskoczył do top 10, odczekałem miesiąc i zrobiłem 301 na inną witrynę, która wskoczyła na miejsce mojego klona i jest tam do dziś.
Piszę to tylko po to by pokazać, że może akurat tym razem współczynniki zgadzały się i Google dlatego ją promuje. Jednocześnie obnażając słabość swoich alogrytmów albo możliwość łatwego ich oszukania :/.
Ale to by było bez sensu z ich strony – to by oznaczało, że bardziej są napaleni na wycięcie SWLi, niż rzeczywistego spamu w postaci blastów Xrumera.
A propos jakości SERPów – to jeżeli w TOP 10 pojawiają się od dawna zaparkowane domeny albo strony z błędem 404, to coś jest wyraźnie nie tak.
Mimo ostatniego „zachwycenia” się na PiO Xrumerem, wydaje mi się, że i te narzędzie może nie być skuteczne.
Cała „skuteczność” tego narzędzia opiera się na tysiącach linków umieszcoznych na wielu witrynach w ciągu maksymalnie krótkiego czasu.
Linki jakie można pozyskać są często bardziej wartościowe linki niż z niejednego SWLa…
Te linki jednak dość szybko znikają i utrzymać osiągniete z tego korzysci jest trudno.
Do tego dochodzi fakt, że do pozycjonowania poważnych witryn nie uzywa się tego narzędzia, za to SWLe tak.
Poza tym w Polsce popularność SWL w strosunku do blastów to 99,99999999999999>reszty.
Tu się wiele nie wypowiadam, nie mam ostatnio czasu na przeglądanie SERPów, swoje przejrzałem i jest w miarę OK. A śmieci w TOPach były od zawsze…..
wg moich informacji Polska (zaraz po USA) jest krajem jednym z najwiekszych na świecie zagęszczeń SWLi.
W USA na razie spokojnie jeśli chodzi o SWLe ale był lata, gdy u nich było nie fajnie a u nas cisza..
Coś w tym może być, że z bardzo wielu miejsc do jednego adresu prowadzi dużo tak samo opisanych linków. Jednak nie jest to takie proste, to musi być złożona zależność.
Możecie podać jakieś zagraniczne SWLe?
Oczywiście, w patencie Google jes tnapisane, że bardzo trudno to wykryć. Dlatego też skutecznosć jest taka jaka jest.
Adresów nie będę podawał ale sprawdz top50 na tą frazę oraz tą
Ja jestem jak najbardziej na tak zmianom które wprowadziło Google. Teraz będzie trochę uczciwiej w walce o pozycje.
Zgadzam się z tekstem w 100%. Szczególnie końcówka oddaje moje przemyślenia. Do roboty i będzie dobrze.
Ważne będą teraz najbliższe tygodnie, czy ludzie wyjdą z e-weba. Zauważymy to pewnie po wszechobecności Xanna na wszelkich forach reklamującego e-weba ;)
Myślę, że znaczącego exodusu nie będzie, co innego jakby napisali, że te linki szkodzą.
Z tego co wiem Tomek nie będzie miał chyba na to czasu.
[…] Google – moje przemyślenia o ostatnich wydarzeniach – komentarz mkane […]
Takie posunięcie było do przewidzenia i czasem nasuwała się myśl dlaczego jeszcze nie zostało wykonane. Ciekawy tekst dzięki.