Google wie więcej niż pokazuje – znowu site:

Ostatni wpis na blogu był o operatorze site:. Postanowiłem pójść za ciosem i dziś także będę o nim pisał.
Nie będę jednak znowu zastawiał się nad umiejętnościami matematycznymi wyszukiwarki.
Dziś chciałbym napisać parę słów o tym, że Google pokazuje nam „jedno” a w swych trzewiach mieli coś innego.

Czy pokazuje wszystko co wie?

Od zawsze pozycjonerzy zastanawiają się co wyszukiwarka wie o danej witrynie w kontekście tego co nam o niej pokazuje.
Jak wiemy, teoretycznie możemy sprawdzać wiele parametrów analizując witrynę. Od zawsze najważniejsze parametry to ilość linków przychodzących (pomijając ich jakość) oraz ilość zindeksowanych podstron.

Operator link: już kilka lat temu niestety przestał poprawnie funkcjonować. Pokazywane ilości mają się nijak do stanu rzeczywistego i są bardzo mylące.
Więcej informacji możemy uzyskać w GWT ale musimy się najpierw autoryzować a to może zrobić jedynie ktoś kto ma dostęp do serwera.

Operator site: do dziś używany przez wszystkich by sprawdzić czy Google nas lubi i premiuje nas dużą cyferką czy też nie i cyferka jest mała.
Ogół ludzi zajmujących się SEO przyjął, że jak jest dużo to dobrze a jak mało to źle. Lepiej przecież mieć link z witryny, która jest dobrze zaindeksowana bo wtedy szybciej i więcej tego linka zostanie dostrzeżone.

Wszystko wydaje się logiczne i oczywiste. Do czasu…..
…Czytaj dalej »

Dziwny ten operator – site:

O tym, że korzystając z tego operatora trzeba uważać, wie chyba każdy zajmujący się pozycjonowaniem.
Od przynajmniej dwóch lat sprawdzając ilość podstron w indeksie wyszukiwarki można dostać różne wyniki np w zależności od podstrony, na której jesteśmy.

Po ostatnich aktualizacjach sytuacja zmieniła się bardzo, niestety na gorsze.

Wczoraj przeglądając moje narzędzia do kontroli serwisów w zapleczu zauważyłem, że nasza domena firmowa antygen.pl została przez Google wyindeksowana do jednej podstrony.

Sprawdzając to ręcznie w wyszukiwarce moim oczom ukazała się dziwna informacja.

ilość zaindeksowanych podstron w Google

Tak – uważny obserwator zauważy, że Google twierdzi, iż zindeksowana jest jedna podstrona by poniżej pokazać kilka podstron jakie ma w indeksie.

W dniu dzisiejszym sytuacja stała się jeszcze bardziej dziwna.
…Czytaj dalej »

Google – przyszło nowe

Ostatnie dni obfitowały w zmiany w  Google oraz jedną katastrofę.

Niektóre zmiany już się dokonały, na inne poczekamy do czasu wejścia nowego silnika w życie.

Patrząc po wypowiedziach na forach lub innych blogach tematem numer jeden jest:

1. Personalizacja wyników dla osób nie zalogowach w Google

W tamtym tygodniu nagle podniosła się wrzawa, że koniec pozycjonowania już blisko bo Google zaczęło personalizować wyniki wyszukiwania dla wszystkich…

historia online

…. i zapanowała jakaś swoista panika wśród pozycjonerów. Że to będzie SEO killer, bo teraz wyniki same się będą ustawiały pod usera więc SERPy będą różne dla każdego. Że tylko duże witryny będą miały lepiej. Że już widać spadki w ruchu bo długi ogon leci…

Trochę prawdy w tym co piszą jest, lecz mam wrażenie jakby piszący na dzień dzisiejszy trochę przesadzali.

Sama idea personalizacji wyników dla każdego nie podoba mi się.  Uważam, że powinien mieć wybór czy chce taką funkcje.

Mimo, że zostaliśmy uszczęśliwieni tym na siłę, może jednak zmienimy o tym zdanie tak jak wielu zmieniło zdanie o podpowiedziach słów przy wyszukiwaniu.

Ale do rzeczy:

W personalizacji na pewno mamy mechanizm, który sprawia, że odwiedzone strony będą wyżej w wynikach niż te które pominęliśmy. Przy wyszukiwaniach na inne słowa kluczowe, odwiedzone witryny będą miały bonus w pozycjach.

Niby ważny jest czas jaki spędzimy na danej witrynie. Te, na których jesteśmy dłużej pną się wyżej w naszym prywatnym rankingu.

Wielu w tym widzi zagrożenie bo przecież będą dość wielkie roszady w SERPach. Zapominają jednak, że będą to zmiany lokalne dla jednego usera (przynajmniej na dzień dzisiejszy), więc dla wielu innych użytkowników wyszukiwarki, pozycje będą takie jak ustawiają im pozycjonerzy (albo wyszukiwarka hehe).

Nie zapominajmy też o tym, że jeśli wyłączanie personalizacji nie jest w 100% poprawne,  to możemy zakładać, że i personalizacja będzie co jakiś czas  ustawiana od nowa.

Innym mechanizmem, który według mnie będzie w personalizacji lub już jest to wyświetlanie behawioralnych wyników w SERPach. Jeśli tego nie będzie, moim zdaniem, zostanie zatracona cała idea personalizacji.

Mechanizm ten miałby dobierać wyniki do aktualnych zainteresowań szukającego.

Dla przykładu wpisując „drzwi Poznań” po chwili wyszukiwania dostaje tylko wyniki z drzwiami wewnętrznymi bo tylko takie linki klikam i przeglądam. Wpisując „foteliki dziecięce” wyniki ustawiają mi się głównie pod kątem samochodowych fotelików a nie np fotelików do domu dla lalek.

Uważam, że ten mechanizm wpłynie bardziej na ruch w witrynach niż proste podbijanie pozycji odwiedzonych witryn.

Jednak wprowadzenie przez Google jakiejkolwiek personalizacji daje sygnały na przyszłość, że wyniki naprawdę mogą być ustawianie w dużej mierze przez użytkowników a nie algorytm i matematykę.

Po prostu próbka danych jaką Google otrzymuje to piękna podstawa do analizy, które witryny są OK a które już takie nie są.

Wiele nie trzeba myśleć by dojść do wniosku, że prędzej czy później Google tą wiedzę wykorzysta a wtedy pozycjonowanie rzeczywiście będzie zagrożone.

Na zagranicznych formach już teraz można przeczytać opinię, że pozycje są uśredniane poprzez odwiedziny użytkowników. Tzn, że już teraz wejście pewnej ilości ludzi ma wpływ na pozycje dla tych, którzy szukają.

Osobiście uważam, że po kilku dosłownie dniach lepiej takich opinii nie przedstawiać, jak i z innymi sprawami, w pozycjonowaniu lepiej poczekać i obserwować.

2. W SERPach pojawiały się wypowiedzi z mikroblogów bez opóźnienia w czasie.

To jest nowa funkcja, która mało zainteresowała pozycjonerów bo i z pozycjonowaniem niewiele ma wspólnego.

W Google światowym podczas wyszukiwania można się natknąć na wpisy z Twittera. Są one wyświetlane w czasie rzeczywistym bez opóźnień związanych z indeksacją.

Z tego co na razie widzę, mechanizm ten jest już testowany przez spamerów.

szukane - pozycjonowanie

wyszukanie - "pozycjonowanie" z opcją "najnowsze"

„Wyniki live” (nie wiem czemu tak to niektórzy nazywają) jak widać mogę być  niesamowitym narzędziem SEM.

Umiejętnie napisany wpis pojawia się na pierwszej stronie wyników danej frazy = potężna liczba wejść za niewielkie pieniądze lub za darmo.

Na razie z tego co czytałem, mechanizm wymaga dopracowania bo można przemycić w wyświetlanych wpisach treści, które nie powinny się tam pojawiać.

3. Biedny parametr „site”

Ten punkt powinien rozbić na dwa podpunkty.

a)

Pojawiała się informacja, że w nowym silniku Google, nie będzie wyświetlana ilość wyników używając tego operatora.

Do tej pory cyferka ta służyła nam pozycjonerom,  do określania ilości zaindeksowanych podstron w wyszukiwarce.

Była to wielce przydatna informacja bo można było z niej wyciągnąć wiele wniosków.  Pośrednio można było poznać moc linków jakie prowadziły do sprawdzanej witryny, ogólne tendencje w Google (indeksowanie), filtry, szybkość rozrostu witryny, problemy z nawigacją itp itd.

Można napisać, że od zawsze to było a teraz prawdopodobnie zniknie – no trudno.

Jest jednak jeden problem, dotyczy on w mniejszym lub większym stopniu większości pozycjonerów. Dla większości systemów wywiany linków parametr ten jest głównym modyfikatorem ilości punktów.

Wrzawa się podniosła, co teraz?

Do tej pory było łatwo. Dużo zaindeksowanych podstron = dużo podstron do emisji linków.  Wystarczyło dodać do tego jakieś plusy lub minusy za różne rzeczy związane z witryną i po kłopocie.

Nie jest to mechanizm sprawiedliwy ale dzięki tej  prostej metodzie wyliczano ile ktoś daje do systemu a ile może zabrać.

Niedługo jednak to zniknie…..

Co dużo pisać jeśli tak się stanie systemy będą musiały wymyślić nowy sposób oceny witryn a może to spowodować zmiany na podium liderów. Wszystko zależy od tego co zostanie wdrożone po zniknięciu tych cyferek.

b)

Kilka miesięcy temu w Google nagle zwiększyła się ilość wskazywanych zaindeksowanych podstron. Od razu odbiło się to w ilościach punktów będących w obiegu w SWLach.

W miniony weekend wśród użytkowników  e-Weblinka zapanowało poruszenie bo nagle site zaczął wyparowywać.

Jak pokazuje systemowy wykres w ciągu dwóch dni ilość podstron systemie spadła o około 190 mln (około 60% całości).

Na razie „tragedia” ta dotknęła tylko ten system. Prawdopodobnie dlatego, że używa on ogólnoświatowych DC a nie polskich.

Moje narzędzia, które codziennie sprawdzają mi ilość zaindeksowanych podstron także pokazują niezłe spadki (także korzystam z DC dla google.com).

Co ciekawe spadki te nie przełożyły się w widoczny sposób na zmniejszenie  ruchu, więc można założyć, że Google odfiltrowuje to co jest niepotrzebne. Ruch oczywiście spada ale uważam, że jest to wynik handlowego weekendu przed Świętami.

Na dzień dzisiejszy sprawa trochę się uspokaja, spadki się ustabilizowały na pewnym poziomie.

Tak się zastanawiam czy nie jest to celowe działanie Google polegające na wyczyszczeniu podstron przez przełączeniem na nowy silnik?

Do Świąt został tydzień, więc na pewno wykonują już jakieś działania przygotowujące Google do takiej zmiany.

Ciekawy koniec roku mamy, ciekawe co nas jeszcze czeka…..

Test – indeksacja bez linków

Przy okazji kilku projektów postanowiłem sprawdzić plotkę, o jakiej czytałem jakiś rok temu na paru stronach.

Sprawa dotyczyła samodzielnego indeksowania się domen w Google, bez pomocy w postaci linków.

Jak wiemy algorytm Google aby dostrzec jakąś stronę, w teorii, potrzebuje pewnej zachęty w postaci linków.

Czy aby na pewno ?

Około trzy miesiące temu umieściłem na serwerach pewną liczbę domen. Nie napisze dokładnie ile :) było ich jednak więcej niż sto.

Stwierdziłem, że taka ilość jest dobrą próbką na testowanie czy pozostawione odłogiem domeny, bez linkowania pokażą się w indeksach wyszukiwarek.

Jakiś miesiąc temu chciałem już napisać, że opowieści o stronach, które wyszukiwarki wyszperały bez żadnej zachęty, można włożyć między bajki. Miesiąc temu z całej puli testowych domen Google zaindeksował tylko jedną domenę. Po początkowym zdziwieniu okazało się, że Yahoo pokazuje jeden link do tej strony.

Wpis na blogu nie powstał z różnych przyczyn, domeny dalej są nie linkowane bo trwają prace nad stronami, które mają je wypełnić :/. Powoli przymierzałem się do rozpoczęcia procesu indeksowania tych domen by lekko je postarzyć zanim strony zostaną uruchomione.

Dziś podczas przeglądania logów na serwerach (tak, tak robie to sukcesywnie :) ) zauważyłem dość dużą aktywność bota Google na tych domenach. Trochę się zdziwiłem tym faktem bo do tej pory w logach widziałem głównie jakieś nieznane boty oraz whois.sc czyli SurveyBot.

Inwazja Googlebota, bo tak można to nazwać patrząc w logi, rozpoczęła się na te domeny 19.06 i trwa do dziś.

Postanowiłem sprawdzić jak wejścia mają się do pojawienia się tych domen w wyszukiwarce. Narzędzie, którego używam sprawdza mi site automatycznie dla wszystkich interesujących mnie wyszukiwarek plus parę innych rzeczy :)

Jakież było moje zdziwienie, gdy okazało się, że ponad 55% tych domen zostało zaindeksowanych !!

Yahoo ani MSN nie poszło śladem Google i dalej nic sobie nie robi z mojego testu :)

Ciekawe jest to, że część domen w indeksie jest widoczna (site:) bez www. a część zaindeksowana została podwójnie czyli z www oraz bez tej subdomeny.

Każda z wyszukiwarek dalej twierdzi, że do tych domen nie prowadzą żadne linki. Nawet jeśli założe, że do powiedzmy 10% są jednak linki to 45% skuteczność na dzień dzisiejszy jest oszałamiająca. Nazwy domen są na tyle unikalne aby ryzyko linkowania „z palca” (bdfdfgdfg.com) lub kupienia używanej już domeny w tym przypadku było minimalne.

Tak naprawdę nie mam pomysłu dlaczego Google zaindeksowało te domeny. Myślałem, że to może być wina whois.sc, której to strony bot atakuje moje domeny dość intensywnie. Jednak na tej stronie nie znalazłem aktywnych linków. Jesli nie tu to może aboutus.org ale losowe 10 domen nie miało artykułu o sobie. Możliwe, że to współpraca Google z Godaddy.com jest powodem, lecz nie chciał bym tworzyć nowych teorii.

Niestety nie mam wytłumaczenia – dlaczego? Nie o to jednak chodziło w moim teście.

Dziś już wiem, że pozostawiona sobie domena, która jest czynna na jakimkolwiek serwerze może być zaindeksowana. Z jednej strony fajnie, przynajmniej te zapomniane powoli się starzeją.

Drugą stroną medalu są domeny wszelkiego typu paneli lub urządzeń. Wiele osób wykupuje sobie domenę, ustawia ją powiedzmy na rejestrator video, bo tak łatwiej zapamiętać lub przekazać komuś, gdzie ma wejść by coś zrobić.

Trzeba więc pamiętać, że jeśli nie chce się swojej domeny mieć w Google to jedynie deny załatwi sprawę.

Xanth

Nie wiem czemu ale ostatnie kilka miesięcy poczynań Mości Panującej nam Wyszukiwarki kojarzą mi się jednoznacznie z Obszarem Szaleństwa w Xanth.

W kwietniu Google wyindeksowało potworną ilość podstron. W maju zaczęły się masowe bany na wszelkiego typu kopie wiki czy dmoz`a.

Te działania trwają do dziś. O ile banami się nie przejmuję bo nie mam żadnej strony z kategorii „zerżnięte zaplecze duplicate + 1000 x kopiuj/wklej” o tyle wyindeksowaniem zaczynam sie martwić.

W kwietniu i maju, gdy wszyscy pozycjonerzy rozpaczali, że tracą podstrony a co za tym idzie punkty w systemach, siedziałem spokojnie przed monitorem i nie reagował. Po prostu szaleństwo mnie nie dotknęło. Jednak pod koniec Maja i moim stronom sie dostało.

Nie robiłem z tego afery, no trudno, jednak dziś po miesiącu wyindeksowywania zaczynam się martwić.

Martwię się nie tym, że stracę podstrony (systemy nie są główną siła mojego pozycjonowania), martwię się tym, że nie są indeksowane nowe.

Jak w każdym miesiącu uruchomiłem pewną ilość nowych stron. Jeszcze 3 miesiące temu po uruchomieniu nowej strony byłem spokojnie w stanie zaindeksować pomiędzy 5-10 tysięcy podstron w pierwszym tygodniu.

Dziś moje domeny, które mają 2-3 tygodnie mają maksymalnie 800 podstron w indeksie.

Mam przedziwne wrażenie jakby Google jakoś ręcznie ustawiło zmienne tak, że nowe podstrony się po prostu nie indeksują.

Mógłbym to ścierpieć ponieważ nie tylko u mnie tak jest. Problem jaki widzę to fakt, że boty Google nie zwolniły. Ma moich serwerach radośnie buszują w setkach podstron, transfer leci, serwery obciążone a efekt niemiłosiernie żałosny :/

Czyżby „Wielki brat” chciał dorównać upadającej Firmie jaką jest Yahoo? Czy może chce się do tej, w Polsce nie znanej prawie wyszukiwarki, tak upodobnić by po zakupie tej Firmy byli jej pracownicy czuli się jak u siebie w domu….

Ciekawe co z tego wyindeksowania wyjdzie i kiedy te szaleństwo wróci do swojej normalnej postaci. Bo to, że prędzej czy później znowu zapanuje „normalne szaleństwo” jest pewne.