Google – przyszło nowe

Ostatnie dni obfitowały w zmiany w  Google oraz jedną katastrofę.

Niektóre zmiany już się dokonały, na inne poczekamy do czasu wejścia nowego silnika w życie.

Patrząc po wypowiedziach na forach lub innych blogach tematem numer jeden jest:

1. Personalizacja wyników dla osób nie zalogowach w Google

W tamtym tygodniu nagle podniosła się wrzawa, że koniec pozycjonowania już blisko bo Google zaczęło personalizować wyniki wyszukiwania dla wszystkich…

historia online

…. i zapanowała jakaś swoista panika wśród pozycjonerów. Że to będzie SEO killer, bo teraz wyniki same się będą ustawiały pod usera więc SERPy będą różne dla każdego. Że tylko duże witryny będą miały lepiej. Że już widać spadki w ruchu bo długi ogon leci…

Trochę prawdy w tym co piszą jest, lecz mam wrażenie jakby piszący na dzień dzisiejszy trochę przesadzali.

Sama idea personalizacji wyników dla każdego nie podoba mi się.  Uważam, że powinien mieć wybór czy chce taką funkcje.

Mimo, że zostaliśmy uszczęśliwieni tym na siłę, może jednak zmienimy o tym zdanie tak jak wielu zmieniło zdanie o podpowiedziach słów przy wyszukiwaniu.

Ale do rzeczy:

W personalizacji na pewno mamy mechanizm, który sprawia, że odwiedzone strony będą wyżej w wynikach niż te które pominęliśmy. Przy wyszukiwaniach na inne słowa kluczowe, odwiedzone witryny będą miały bonus w pozycjach.

Niby ważny jest czas jaki spędzimy na danej witrynie. Te, na których jesteśmy dłużej pną się wyżej w naszym prywatnym rankingu.

Wielu w tym widzi zagrożenie bo przecież będą dość wielkie roszady w SERPach. Zapominają jednak, że będą to zmiany lokalne dla jednego usera (przynajmniej na dzień dzisiejszy), więc dla wielu innych użytkowników wyszukiwarki, pozycje będą takie jak ustawiają im pozycjonerzy (albo wyszukiwarka hehe).

Nie zapominajmy też o tym, że jeśli wyłączanie personalizacji nie jest w 100% poprawne,  to możemy zakładać, że i personalizacja będzie co jakiś czas  ustawiana od nowa.

Innym mechanizmem, który według mnie będzie w personalizacji lub już jest to wyświetlanie behawioralnych wyników w SERPach. Jeśli tego nie będzie, moim zdaniem, zostanie zatracona cała idea personalizacji.

Mechanizm ten miałby dobierać wyniki do aktualnych zainteresowań szukającego.

Dla przykładu wpisując „drzwi Poznań” po chwili wyszukiwania dostaje tylko wyniki z drzwiami wewnętrznymi bo tylko takie linki klikam i przeglądam. Wpisując „foteliki dziecięce” wyniki ustawiają mi się głównie pod kątem samochodowych fotelików a nie np fotelików do domu dla lalek.

Uważam, że ten mechanizm wpłynie bardziej na ruch w witrynach niż proste podbijanie pozycji odwiedzonych witryn.

Jednak wprowadzenie przez Google jakiejkolwiek personalizacji daje sygnały na przyszłość, że wyniki naprawdę mogą być ustawianie w dużej mierze przez użytkowników a nie algorytm i matematykę.

Po prostu próbka danych jaką Google otrzymuje to piękna podstawa do analizy, które witryny są OK a które już takie nie są.

Wiele nie trzeba myśleć by dojść do wniosku, że prędzej czy później Google tą wiedzę wykorzysta a wtedy pozycjonowanie rzeczywiście będzie zagrożone.

Na zagranicznych formach już teraz można przeczytać opinię, że pozycje są uśredniane poprzez odwiedziny użytkowników. Tzn, że już teraz wejście pewnej ilości ludzi ma wpływ na pozycje dla tych, którzy szukają.

Osobiście uważam, że po kilku dosłownie dniach lepiej takich opinii nie przedstawiać, jak i z innymi sprawami, w pozycjonowaniu lepiej poczekać i obserwować.

2. W SERPach pojawiały się wypowiedzi z mikroblogów bez opóźnienia w czasie.

To jest nowa funkcja, która mało zainteresowała pozycjonerów bo i z pozycjonowaniem niewiele ma wspólnego.

W Google światowym podczas wyszukiwania można się natknąć na wpisy z Twittera. Są one wyświetlane w czasie rzeczywistym bez opóźnień związanych z indeksacją.

Z tego co na razie widzę, mechanizm ten jest już testowany przez spamerów.

szukane - pozycjonowanie

wyszukanie - "pozycjonowanie" z opcją "najnowsze"

„Wyniki live” (nie wiem czemu tak to niektórzy nazywają) jak widać mogę być  niesamowitym narzędziem SEM.

Umiejętnie napisany wpis pojawia się na pierwszej stronie wyników danej frazy = potężna liczba wejść za niewielkie pieniądze lub za darmo.

Na razie z tego co czytałem, mechanizm wymaga dopracowania bo można przemycić w wyświetlanych wpisach treści, które nie powinny się tam pojawiać.

3. Biedny parametr „site”

Ten punkt powinien rozbić na dwa podpunkty.

a)

Pojawiała się informacja, że w nowym silniku Google, nie będzie wyświetlana ilość wyników używając tego operatora.

Do tej pory cyferka ta służyła nam pozycjonerom,  do określania ilości zaindeksowanych podstron w wyszukiwarce.

Była to wielce przydatna informacja bo można było z niej wyciągnąć wiele wniosków.  Pośrednio można było poznać moc linków jakie prowadziły do sprawdzanej witryny, ogólne tendencje w Google (indeksowanie), filtry, szybkość rozrostu witryny, problemy z nawigacją itp itd.

Można napisać, że od zawsze to było a teraz prawdopodobnie zniknie – no trudno.

Jest jednak jeden problem, dotyczy on w mniejszym lub większym stopniu większości pozycjonerów. Dla większości systemów wywiany linków parametr ten jest głównym modyfikatorem ilości punktów.

Wrzawa się podniosła, co teraz?

Do tej pory było łatwo. Dużo zaindeksowanych podstron = dużo podstron do emisji linków.  Wystarczyło dodać do tego jakieś plusy lub minusy za różne rzeczy związane z witryną i po kłopocie.

Nie jest to mechanizm sprawiedliwy ale dzięki tej  prostej metodzie wyliczano ile ktoś daje do systemu a ile może zabrać.

Niedługo jednak to zniknie…..

Co dużo pisać jeśli tak się stanie systemy będą musiały wymyślić nowy sposób oceny witryn a może to spowodować zmiany na podium liderów. Wszystko zależy od tego co zostanie wdrożone po zniknięciu tych cyferek.

b)

Kilka miesięcy temu w Google nagle zwiększyła się ilość wskazywanych zaindeksowanych podstron. Od razu odbiło się to w ilościach punktów będących w obiegu w SWLach.

W miniony weekend wśród użytkowników  e-Weblinka zapanowało poruszenie bo nagle site zaczął wyparowywać.

Jak pokazuje systemowy wykres w ciągu dwóch dni ilość podstron systemie spadła o około 190 mln (około 60% całości).

Na razie „tragedia” ta dotknęła tylko ten system. Prawdopodobnie dlatego, że używa on ogólnoświatowych DC a nie polskich.

Moje narzędzia, które codziennie sprawdzają mi ilość zaindeksowanych podstron także pokazują niezłe spadki (także korzystam z DC dla google.com).

Co ciekawe spadki te nie przełożyły się w widoczny sposób na zmniejszenie  ruchu, więc można założyć, że Google odfiltrowuje to co jest niepotrzebne. Ruch oczywiście spada ale uważam, że jest to wynik handlowego weekendu przed Świętami.

Na dzień dzisiejszy sprawa trochę się uspokaja, spadki się ustabilizowały na pewnym poziomie.

Tak się zastanawiam czy nie jest to celowe działanie Google polegające na wyczyszczeniu podstron przez przełączeniem na nowy silnik?

Do Świąt został tydzień, więc na pewno wykonują już jakieś działania przygotowujące Google do takiej zmiany.

Ciekawy koniec roku mamy, ciekawe co nas jeszcze czeka…..

Google vs Webmini

W poprzednim tygodniu w jednym z wątków na PiO przeczytałem o tym, że wykorzystywane przez pozycjonerów skrypt Webmini przestał być lubiany w Google.

Nasza „kochana” wyszukiwarka postanowiła rozstać się z bliżej nieokreśloną ilością witryn opartych na tym skrypcie.

WebMini to skrypt prostego katalogu stron, został on udostępniony przez ekipę jednego z systemów (e-weblink) dla swoich użytkowników.

W odróżnieniu od paru „białych SEO blogerów” nie oceniam źle tego, że ekipa SWLa udostępnia skrypt, który może służyć za zaplecze w tym systemie. Uważam to za całkiem logiczny ruch i dziwie się, że inne SWLe nie podłapały jeszcze tego pomysłu.

Ale nie o tym chciałem pisać…

Jakiś miesiąc temu zrobiłem sobie listę ponad 300 WebMini. Listę budowałem wyszukując je w Google i w spisach katalogów.

Po aferze z banowaniem tego skyptu sprawdziłem o ile skurczyła się moja lista.  Byłem dość zdziwony wynikiem sprawdzenia site: zapisanych przeze mnie adresów.

Na około 300 szt. zostało usuniętych z Google 67 katalogów. Całkiem nieźle, ponad 20% witryn jakie miał zapisane Google ukarał.

Nie wydaje mi się aby moja lista była jakaś szczególna, mogę więc założyć, że te 20% odnosi się do wszystkich witryn.

Po dokładnym sprawdzeniu zostało mi 208szt., z czego 9 jest w tempie bo nie działają. Skąd ta różnica – 300-20% to nie jest 208.. Od razu usunąłem te, które miały site mniejszy niż 10, zgłaszały 403 lub na stronach był inny skrypt niż WebMini.

Nie byłbym sobą jakbym nie sprawdził tych, które zostały na liście. Interesowało mnie co robią pozycjonerzy, gdy dostaną coś gotowego do ręki. Tak naprawdę jednak, już na początku sprawdzania wiedziałem jaka będzie odpowiedź na to pytanie.

Nie robią nic! Po prostu wrzucają takowy skrypt na serwer, linkują albo i nie, i zapominają. Prawie wszystkie katalog jakie odwiedziłem miały standardowy wygląd – były po prostu takie same.

Tylko kilku włascicieli pokusiło sie o zmiane desingu lub inne modyfikacje.

Ok, zmiana wyglądu to już wyższa szkoła jazdy, trzeba znać się na tworzeniu stron i mieć czas. No ale Panowie i Panie zmienić title to już chyba każdy umie … albo nie…

56 katalogów ma title „WebMini katalog stron internetowych” – 20szt. ma „WebMini katalog stron”

Dziwne, ludzie nie rozumieją, że jeśli w SEO bierze się coś napisanego dla wszystkich to trzeba coś w tym zmienić …

Natchnęło mnie to by postawić sobie taki jeden katalog i sprawdzić ile pracy i czasu zajmnie mi zmiana tego co mogę zmienić nie znając się na tworzeniu stron. Użyłem tylko wiedzy jaką pozyska każdy instalując parę skryptów.

Lista zmian:

– usunąłem logo

– dodałem trochę tekstu, w stopce i w prawej kolumnie.

– zmieniłem title, dopisałem meta description, usunąłem meta keywords (bo po co ma to być)

– usunąłem wszelkie reklamy i linki do produktów twórcy, na co zezwala licencja (sorry Tomek :) )

– zmieniłem wszystkie teskty, które mogłem zmienić, wyszukując „Ostatnio dodane”, „reklama”, „wiecej” itp itd

– zmieniłem ilości wyświetlanych elementów w konfiguracji.

– przemieszałem lekko kolejność wyświetlania się elementów strony zamieniając miejscami divy

– zmieniłem konstrukcje wszystkich adresów podstron

– dodałem nofollow w paru miejscach i usunąłem linki, które wydawały mi się niepotrzebne ( np zaloguj)

– zmieniłem css na inny kolor, zmieniłłem nazwę pliku css oraz zmieniłem nazwy paru klas.

– zmianiłem lub usunąłem wszelkie <h..> </h..>

W planach miałem jeszcze usunięcię wszelkich komentrzy typu <–start … –> <– end..–> jednak zablakło mi na to czasu.

Całość „instalacji” zajęła mi około godziny. Trochę długo ale okazało się, że muszę doinstalować sterownik od sqlite oraz rozwiazać problem z uprawnieniami do pliku bazy.

Zmiany jakie zrobiłem nie są rewolucyjne ale usunąłem większość cech wspólnych po jakich można odnaleźć ten katalog.

Oczywiście najlepiej byłoby go przebudować i dodać nowy wygląd ale zapewniam Was lepsze takie moje zmiany niż żadne.

Pierwszy katalog zrobiłem przedwczoraj a drugi wczoraj. Już zabierałem się za dodanie do nich linki z mojego zaplecza gdy wpadłem na pomysła sprawdzania jaką moc indeksacji maja ta sieć katalogów.

Dodałem więc szybko obydwa katalogi do około 30 losowych Webmini, dziś już obydwa mają zaindeskowaną jedną podstronę. Fajnie, zobaczę co się z nimi będzie działo dalej…

Jak myślicie, zmiany jakie zrobiłem wpłyną pozytywniena te witryny czy tylko niepotrzebnie traciłem czas?

Adrenalina po Świętach?

Jak pewnie już niektórzy wiedzą szykuje nam się gorący koniec roku.

W jakiś czasie po uruchomieniu Binga przez Microsoft, świat obiegła informacja od Google, że nie zasypują oni gruszek w popiele i jeszcze temu Bingowi pokażą.

Odpowiedzią (jakąś taką nerwową) na poczynania M$ ma być nowy algorytm Google: Caffeine. Dzięki temu panująca nam wyszukiwarka ma być szybsza a wyniki mają być jeszcze lepsze i ma być w nich mniej spamu. Kusi mnie by napisać po prostu – „szybka, zwinna i ponętna”.

Google dało nam możliwość testowania nowego algorytmu, jednocześnie prosząc o komentarze i sugestie.

Od jakiegoś czasu jednak, przy próbie wejścia na adres z testową wyszukiwarką, zamiast niej pojawia się informacja, że testy się skończyły i już niedługo algorytm zostanie zdrożony.

Przez chwilę pozycjonerzy i cały „Internet” zastanawiał się kiedy to będzie, na chwilę obecną już to wiemy.

Nowy algorytm w pełni zostanie wdrożony po Świętach Bożego Narodzenia by zminimalizować problemy z handlem w tak gorącym okresie. Do tego czasu algorytm będzie powoli wdrażany dla części Internautów tak by mogli zareagować jakby okazało się, że testy są jednak dalej potrzebne.

Nie ukrywam, że czekam na wprowadzenie zmian z niecierpliwością. Sprawdzając w testowej wyszukiwarce parę fraz nie widziałem żadnych różnic na minus, nie widziałem też wielu plusów jeśli chodzi o pozycje.

Wiem jednak, że każda taka zmiana w Google powoduje mniejsze lub większe perturbacje i konieczność wzmożonej pracy po dokonaniu się zmian. Dlatego też chciałym mieć już to za sobą.

W grudniu do wszystkich moich klientów na pewno wyślę informację o zmianach jakie mogę nastąpić w pozycjach. Lepiej by byli na to przygotowani i nie dzwonili od razu w przypadku jakiś negatywnych zmian :)

Sam już zrezygnowałem ze wszelkich wyjazdów pod koniec roku by po powrocie nie zastać sytuacji zgoła odmiennej niż przed wyjazdem.

Jedno co wiem to fakt, że mimo wieszczenia w rożnych artykułach algorytm ten nie będzie gwoździem do trumny branży zajmującej się pozycjonowaniem stron.

Zasadnicze zmiany są za małe by tak się stało, przetasowania mogą jednak być… a to może wielu podnieść poziom adrenaliny…

Linki + treść = dziwne frazy

Mateusz w komentarzu o Wikipedii na wp.pl napisał:

Aż dziw pomyśleć, że trafiłem na Twój blog szukając hasła:
pozycjonowanie viagra komentarze blog

wklepane aby pokazać znajomemu blog na który do komentów trafiły roboty spamerów… ot niespodzianka.

Odpowiadając Ci Mateuszu, muszę napisać, że nie jest to takie dziwne jakby ktoś mógł sądzić.
Jak sam zauważyłeś, spamowanie poprzez komentarze na blogach jest zjawiskiem bardzo popularnym.
Niestety i na moim blogu taki spamik pojawia się notorycznie, w mniejszych lub większych falach.
Pomiędzy twoim komentarzem a poprzednim było 49 śmieci, które tak naprawdę nie wiem po co ktoś z premedytacją próbuje umieścić na tym blogu.
Wszystkie komentarze u mnie mają atrybut „nofollow” w linkach a jak dowodziłem w poprzednim wpisie (już włączyłem komentowanie :) ) takie linki niewiele pomagają a prawdopodobnie wcale…

Zdaję sobie jednak sprawę z tego, że na kilkadziesiąt tysięcy blogów, które obleci taki spamer, jakiś procent będzie miał aktywne linki, więc będzie pewnie jakiś chwilowy plus ze śmiecenia na blogach.

Dlaczego jednak pojawiam się na taki wyszukiwanie jak Twoje?
Niewiele trzeba się mojemu blogowi przyglądać by zauważyć, że frazy „pozycjonowanie” mam w topie a „blog” też jest w topie oraz dodatkowo w tytule. Fraza „komentarze” pojawia się przy urlach do poszczególnych wpisów, jeśli jest ich więcej 1szt.

Oprócz faktu, że mam te trzy frazy w treści, mój blog posiada znaczną ilość linków na frazy zwierające „pozycjonowanie” oraz „blog”, dzięki czemu jestem widoczny przy zapytanie „pozycjonowanie blog” i odwrotnie. Oczywiste więc jest, że będę też wysoko na frazę pozycjonowanie komentarze blog

Ostatnim elementem mojego wyjaśnienie niech będzie ten o to przed chwilą zrobiony screen

Jest to „kawałek” kopii (cache:) jaką wykonało Google. Pojawienie się mojego bloga na taką frazę wyjaśnia widniejące tam zdanie „Znalezione tyko w linkach do …” (pisownia oryginalna :) )
Jak widzimy ta nieszczęsna fraza, której staram się nie pisać :) znajduje się jako anchor, w linkach do mojego bloga.

Mechanizm jest więc prosty, ktoś sieje po blogach spamem w komentarzach a później linkuje do tych blogów by wypozycjonować jakiś swój spamik. Wszystko jest robione automatycznie więc ten ktoś nie wie nawet, że spamerskich komentarzy u mnie nie ma.

Jest też drugie wyjaśnienie tego zjawiska, mam nadzieję, że bardzo nieprawdopodobne. Jakiś „życzliwy pozycjoner” testuje sobie coś na moim blogu lub próbuje……

Ech sami wiecie co się ostatnio w naszej branży dzieje…

Tym razem komentarze na pewno włączyłem :)

Indeksacja – linki nofollow

Ostatnimi czasami o „nofollow” wiele się mówi i pisze, dlatego też po pytaniu jakie zadał mi pewien pozycjoner postanowiłem przetestować czy można zaindeksować coś linkami oznaczonymi rel=”nofollow”.
Na PiO dawno temu był przedstawiony wynik takiego testu, który wskazywał, że takie linki nie są dla nas przydatne przy pozycjonowaniu.

Ciekawy byłem czy coś się zmieniło przez ten czas, tym bardziej, że od mojego prywatnego testu dotyczącego tego zagadnienia minęło już ponad 2 lata.

Test rozpocząłem 20.07.2009r. Utworzyłem dwie subdomeny poprzez wpisy w DNS. Zawartość tych domen patrząc pod kątem treści i struktury linkowania wewnętrznego była taka sama.

Test trwał do 3.09.2006. godziny 16.00, kiedy to z moich linków usunąłem rel=”nofollow”.

Po usunięciu sprawdziłem ile linków wskazuje Yahoo.

Dla pierwszej domeny Yahoo pokazywało, że linków jest

dla drugiej było ich trochę wiecej

Od razu dopowiem, że podczas linkowania na początku testu wydawało mi się, że moc domen, na których umieszczam linki jest podobna. Jak widać Yahoo inaczej to widzi i może być to wielce mylące o czym napiszę na końcu.

Przez cały okres testu bot Google nie pojawił się ani razu na żadnej z witryn.
Za to częstymi gośćmi były boty:
– Yandex/1.01.001 – odwiedzał tylko stronę główną
– Gaisbot/3.0+ – jak powyżej
– OOZBOT/0.20 – jak powyżej
– Tagoobot/3.0 – jak powyżej
– Baiduspider+ – a ten gagatek odwiedził naprawdę niezłą ilość podstron.

Podsumowując, co już chyba jest oczywiste – żadna z domen w chwili zakończenia testu nie miała zaindeksowanej podstrony w Google, nie nadają się więc te linki dla nas pozycjonerów.

Wydaje mi się, że opinie ludzi o zliczaniu ich do PR jest to tylko pobożne życzenie lub mylne wyciąganiem wniosków.
Wydaje mi się, że jeśli miałby one jakąś moc to Google przynajmniej odwiedzałoby te domeny.

Drugą częścią mojego testu była chęć sprawdzenia co się stanie po ściągnięciu nofollow.
Dokładnie o 16.00 linki zostały zmienione.
Na domenę o mniejszej ilości linków (by Yahoo) Google weszło o 18.05 a na drugą o 18.08. Jak widać tak jakby tylko bot czekał na pozwolenie by wejść i sprawdzić co na tych domenach jest.

Jednak na zaindeksowanie tych subdomen musiałem trochę poczekać. Pierwsza w indeksie Google pojawiała się domena, której znowu Yahoo wskazywał mniej linków, pojawiała się 15.09.2009 0 ilośc widocznych podstron – 47szt.
Druga domena pojawiłą się dzień później czyli 16.09.2009 z ilością zaindeksowanych podstron równą 1.

Jak dla mnie trochę długo trwało zanim pojawiały sie te domeny w indeksie. Czekając na nie zaindeksowałem parę domen, średnio trwało to 3-5 dni a tutaj trzeba było aż 12 dni.
Może tym razem to przypadek ale wydaje mi się, że po ściągnięciu nofollow Google musi jakby „zatrybić”, że już nie ma tego atrybutu i można wyświetlać.
Oczywiście bym był tego pewien musiałbym wykonać jeszcze raz taki test i sprawdzić czas od usunięcia nofollow do pojawienia się w indeksie.

Dziś dla pierwszej domeny Yahoo twierdzi, że ilość linków to:

a Google w swoim indeksie ma 6090 podstron.
Druga domena to

linków i 3280 podstron w Google.

Na koniec jeszcze jedna uwaga, bo chciałbym byście to zauważyli.

Mimo, że linki były nofollow Yahoo ładnie je pokazywało. Dziś zaś domena, która ma niby według tej wyszukiwarki ponad 30 razy więcej linków, ma prawie dwa razy mniej zaindeksowanych podstron w Google.

Nie chcę pisać gdzie można informację o zliczaniu przez Yahoo linków nofollow wykorzystać, sami się pewnie domyślicie.

Na tym przykładzie ładnie też widać, że to co wskazuje Yahoo może nie mieć odzwierciedlenia w Google.

Może wyciągam za daleko idące wnioski ale jak widać pozycjonowanie stron lub nawet sama indeksacja takimi linkami to chyba nie bardzo trafiona inwestycja.

« Poprzednia stronaNastępna strona »