Moje linki w SWLach 2 – poletko pozycjonera

W sierpniu 2007 we wpisie Systemy – gdzie moje linki?, przedstawiłem Wam za ile linków „płacicie”, w systemach wymiany linków stałych, choć ich brak.

Po tym wpisie właściciel pewnego systemu, wziął się do roboty a po jej zakończeniu poprosił mnie o ponowne ich sprawdzenie. Oczywiście obiecałem, że to zrobię, nigdzie jednak nie podałem kiedy to uczynię :). Zajmuje się pozycjonowaniem, cierpliwość to moje drugie imię :).

Co tu ukrywać zabierałem się do tego od jesieni. Kilka dni temu usuwałem kilka moich serwisów z systemów i w jednym „zabrakło” mi punktów. Postanowiłem sprawdzić ile punktów tracę, „płacąc” za coś czego nie ma.

Według zasady „jak coś robisz, rób to dobrze”, postanowiłem wykonać sprawdzenie dla wszystkich systemów.

W początkowej fazie planowałem sprawdzić 500 linków z każdego SWL, jednak już przy pierwszym (Linkme), zwiększyłem tą liczbę do 1000szt. by wynik był jak najbardziej miarodajny.

Myślę, że jest to odpowiednia liczba linków by pokazać dokładnie co się dzieje w danym systemie.

Niestety podczas sprawdzania Linkme, przy założeniu 500szt., czekając aż automat skończy swoją pracę, ręcznie sprawdzałem dużą liczbę od razu wysyłając raporty. Po zmianie decyzji o ilości linków do sprawdzenia okazało się, że nie uzbieram w Linkme Elite 1000 szt. dlatego włączyłem do testu wersje SLIM.

Tym razem mój test obejmował pięć systemów a nie trzy jak poprzednio. Cztery polskie – LinkMe Elite i SLIM, Livelink, LinujPro oraz Linkorn.

Linkorna mogłem sprawdzić jedynie dzięki pomocy Jankiela z Tenso.pl, który udostępnił mi linki do sprawdzenia. W tym systemie nie mam konta i prawdopodobnie nigdy mieć nie będę, z wiadomych chyba powodów.

Ostatni, piąty system to zagraniczny SWL- Link-Vault.

Tym razem sprawdzenie przebiegało w trzech etapach.

Pierwszy etap – sprawdzenie linków automatem (z poprzedniego razu). Skrypt sprawdza obecność danego adresu w kodzie, zgłasza się jako “Mozilla/4.0 (compatible; MSIE 5.0; Windows NT), timeout ustawiony na 30 sekund.

Drugi etap – ponowne sprawdzenie skryptem, wykonane w dniu kolejnym.

Trzeci etap – sprawdzenie ręczne adresów, które wg skryptu nie emitowały moich linków.
W tym miejscu muszę dodać, że tylko w jednym przypadku okazało się, że skryptu monitował brak, mimo, że link był na stronie.

Dla adresów, które się nie otwierały lub widniał na nich error 500 sprawdzałem cache w Google. Jeśli go nie było sprawdzałem stopień zaindeksowania domeny i cache strony głównej. Jeśli był z tego miesiąca, oznaczałem link jako istniejący. Jeśli jednak był z tamtego roku a stopień zaindeksowania serwisu nikły, uznawałem, że link nie istnieje.
Adresy z error 404 i 403 na początku sprawdzałem cache oraz czy reszta serwisu też daje taki błąd. Jednak po kilkunastu oznaczonych w ten sposób adresach, postanowiłem zaliczać je od razu jako nie istniejące. Powód był prosty, zawsze reszta serwisu działała poprawnie a podstrona po prostu została skasowana.

Do testu wybrałem najdłużej linkowane strony. Wydaje mi się, że link umieszczony kilka tygodni temu częściej będzie emitowany niż taki, który „wisi” już od roku.

Przejdźmy do wyników…

LinkMe

Elite – sprawdziłem 885 linków, nie znalazłem 83 szt. w 52 domenach, co daje 6,55%
Slim – tutaj mogłem sprawdzić tylko 237 lokalizacji (wszystkie linki jakie posiadam :) ) z czego nie znalazłem linka w 25 miejscach, na 25 domenach, co daje 10,55%.

Patrząc na Elite i Slim jako całość sprawdzone zostały 1122 adresy – odnotowałem brak 83szt., na 77 domenach, co daje 7,4%.

Oczywiście podczas sprawdzania ręcznego znalazłem jedną zaparkowaną domenę i dwie zbanowane.
Jedna z domen zaś miała w indeksie tylko dwie podstrony z kopią z początków listopada 2008.

Stosunek braku linków na nie otwierających się stronach lub z 404 do tych, które po prostu ich nie emitują to około 50/50.

Zwróćcie też uwagę, że brakowało 83 szt. na 77 domenach. Ta informacja wydaje mi się dość istotna bo pokazuje jak przydziela ten system. Podejrzewam, że priorytetem jest rozmieszczenie linków na jak największej ilości domen. Za tym idzie prawdopodobnie fakt, że Googlowi łatwiej znaleźć naszego linka. Czytając dalej domyślicie się dlaczego o tym piszę.

Dla przypomnienia ostatnio Linkme tracił 13,33% naszych linków- jest jakaś poprawa :)

LiveLink

Sprawdziłem 1000 lokalizacji, nie znalazłem 146 szt. na 53 domenach – procentowo 14,6%.
Tak naprawę w tym przypadku niewiele jest to opisania. Stosunek nie otwierających się serwisów i 404 do braku linków wynosi około 10/90.
Niestety w tym systemie maksymalnie kuleje sprawdzanie czy linki są emitowane przez serwisy w systemie.
146 szt. i 53 domeny, możliwe, że to efekt małej ilości serwisów w systemie. Wydaje mi się jednak, że system tak losuje.

W poprzednim teście w tym systemie brakowało 20,83% – jest poprawa :)

LinkujPro

Ten zapomniany przez wielu system linków stałych naprawdę mnie zadziwił.
Sprawdzone było 1000 adresów, nie znalazłem 50szt. na 28 domenach.
Nie trzeba być matematykiem by określić, że uciekło gdzieś 5% linków.

50/50 to stosunek serwisów, które się nie otwierały lub dawały 404 do tych, które nie emitowały linków.

Naprawdę, w tym przypadku, jestem pozytywnie zaskoczony, myślałem, że ten zapomniany przez Boga SWL będzie w bardziej opłakanym stanie. Punkty tutaj są tanie, podobnie jak w LiveLinku i wydawało mi sie, że są na podobnym poziomie a tu proszę jaka niespodzianka.

Linkorn

Jak już pisałem ten system nie jest w moim kręgu zainteresowań i nie brałem go pod uwagę rozpoczynając ten test. Nie mam tam konta, więc nie miałem potrzebnych mi danych.
Udało się jednak przeprowadzić sprawdzenie tego systemu.

Ponownie sprawdzone zostało 1000 linków nie znalazłem 156szt. na 63 domenach.
Jak łatwo policzyć 15,6% to linki, które nie istnieją.

Stosunek nie otwierających sie stron i 404 do serwisów gdzie nie znalazłem linków to około 20/80.

Przyznam się, że ręce mi opadły jak policzyłem braki. I to jest ten system, który był niby jednym z najlepszych w Polsce, porównywany do LinkMe ? To jest ten system trącony boską ręką Mości Pana Anioła vel DirElite tudzież Paweł K., który ma doktorat z zakresu marketingu oraz ukończone studia doktoranckie obejmujące problematykę pozycjonowania (w Stanach Zjednoczonych i Wielkiej Brytanii). wg PWN :)
Dobrze, że się chłop ukrywa bo kolejny raz nie wytrzymałbym i napisał mu parę jakże „pochlebnych” słów.
LiveLink – rozumiem, Linkorn – a fe, niedobry linkorn….może Igthorn (pamiętacie tą bajkę? :) )

Link-Vault

Ojoj coś czuję, że ktoś mi zarzuci matactwo :)

Sprawdziłem oczywiście 1000 linków, nie znalazłem ich aż 7 razy (słownie: siedem razy) na 3 domenach co daje nam 0,7%.
W tym jedna domena nie działa a miała emitować 5 linków, na pozostałych dwóch linków po prostu nie było.

Podczas pierwszego sprawdzania skryptem, nie zostało znalezionych 28 szt. Pomyślałem sobie, że jest i tak nieźle. Po drugim sprawdzeniu zgłupiałem na tyle by sprawdzić ręcznie cała ilość nie dowierzając skryptowi.

W ostatnim teście brakowało w LV 5,31% linków – tak dla informacji.

I co tu pisać ? Że twórcy polskich systemów mogliby być „podnóżkiem” (Tołdi i jego Księciunio :)) dla twórców LV patrząc pod tym kątem mechanizmu sprawdzania emitowanych linków….
Zobaczcie jak wiele macie do zrobienia i jak wiele jeszcze macie do roboty, a jak nie to przyjdzie kiedyś ktoś kto zrobi to lepiej i……..

Ranking systemów pod kątem poprawności emitowania linków by mkane :).

  • 1. Link-Vault – 0,7%
  • 2. LinkujPro – 5%
  • 3. LinkMe – 7,4%
  • 4. LiveLink – 14,6%
  • 5. Linkorn – 15,6%

Według mojej oceny, trzy pierwsze pozycje to stan, który można zaakceptować, jednak 4 i 5 pozycja to tragedia. Na każde użyte 10k pkt w kosmos idzie około 1500 szt. mało ?
Potwornie dużo bo tą ilością można naprawdę wiele fraz zrobić, bez wielkiego myślenia nad tym.

Gorąco zachęcam wszystkich do kontroli swoich linków w SWLach.
Zwłaszcza tych, którzy pozycjonowanie wykonują głównie poprzez systemy.
Wyjdzie Wam to naprawdę na dobre….

Podsumowanie roku – pozycjonowanie i nie tylko

I kolejny rok nam mija..
Jak zawsze o tej porze, kilka słów refleksji.

Pozycjonowanie – niewątpliwie tematem roku z naszej branży są dziwne działania Google w zakresie obdarowywania serwisów rożnej maści filtrami.
Kilka ironicznych słów, w tym temacie, napisałem we wpisie o „depozycjonowaniu„.
Niestety nie wszyscy zrozumieli sens mojej wypowiedzi, o czym mogłem sie przekonać w mailach jakie otrzymałem.
Sytuacja z filtrami trwa od sierpnia i choć ostatnio coraz mniej się ludzie żalą to niestety zjawisko to cały czas istnieje o czym przekonałem sie 23 grudnia, podczas swoistego kolejnego „rzutu”.

Parę słów, jakże oczekiwanego wyjaśnienia, pojawiło się na oficjalnym blogu Google. Nie omieszkałem oczywiście skomentować to w tym wpisie.
Dalej uważam, że część z tej wypowiedzi to swoiste brednie i pobożne życzenia ekipy Google.

Pozycjonowanie stron, na pierwszy rzut oka, nie jest mechanizmem skomplikowanym.
Wykorzystujemy algorytm wyszukiwarek, dodając plusiki tak by uzbierana miarka była „cięższa” od wagi konkurencji.

Nie dziwi mnie przeto zapał szerokiej publiki to samodzielnych prób pozycjonowania.

Niektórym to nawet nieźle wychodzi, szkoda tylko, że ośmieleni sukcesem często podejmują się pozycjonowania stron swoich klientów a z tym bywa już gorzej.
Nie wszyscy bowiem klienci przyjmują do wiadomości, że coś jest niezależne od pozycjonera, zwłaszcza po przeczytaniu mniej lub bardziej udanych wypocin pracowników Google.

Muszę też tutaj wspomnieć o „poradniku SEO” udostępnionym przez Google. Był to dobry krok by wskazać webmasterom podstawy, jeśli chodzi o korzyści z odpowiedniej budowy serwisu.
Dla pozycjonera powyższy spis reguł powinien być znany od podszewki, jeśli ktoś przeczytał w tym dokumencie jakąś sensacyjną informację to powinien się zastanowić nad swoją wiedzą.
Tak czy inaczej – „Google dziękujemy Ci” :).

Nie wiem czy możemy dziękować za nowe funkcje w wyszukiwarce Google, jakimi są podpowiedzi fraz oraz możliwość podbijania pozycji poprzez głosy użytkowników.
Podpowiedzi, mimo, że mają pomóc, powoli prawdopodobnie niszczą tzw „długi ogon”. Nie mam, w tym temacie, jeszcze 100% opinii, ponieważ wprowadzenie tego mechanizmu w czasie zbliżających się Świąt, moim zdaniem zafałszowało możliwość wyciągnięcia wniosków. Zobaczymy jak będzie w kolejnym roku.

Funkcja umożliwiająca głosowanie, na razie jest dostępna tylko zarejestrowanym użytkownikom, do tego z pewnych krajów. Powstał lekki szum w branży, jednak wydaje mi sie, że niewiele to zmieni sedno pozycjonowania. Najwyżej zmienią się narzędzia. Jeśli to wejdzie w standard to może się nawet okazać, że pozycjonowanie będzie prostsze niż było, bo takie mechanizmy jest naprawdę łatwo oszukać.

Czarnym koniem w branży pozycjonowania okazały się wszelkiego rodzaj listy stron zaplecza SWLi, tworzone przez teoretycznie „kolegów” z branży i wysyłanie owych list do Google.
Nie rozumiem do dziś po co te afery były i komu miały się przysłużyć. Tym bardziej, że skutek miały nijaki, SWLe stoją i mają się dobrze.

Porażką roku, w naszej branży jest SEODopalacz, system, który miał niby zrewolucjonizować naszą branże a dołączył do wielu mniej niż pośrednich systemów, które dają jakieś plusy jedynie właścicielom (jeśli dają).
Sorry Jeżu, pomysł w założeniach może OK ale wykonanie tragiczne o czym dobrze niestety wiesz.
Gratuluje za to PR`u, podbiłeś swoją ocenę w oczach wielu, tak niewiele od siebie dając.

O innych „nowych” systemach nie mam co pisać bo nauczony powyższym doświadczeniem jeszcze innych nie testowałem.

Będąc pozycjonerem, nie byłbym sobą jakbym nie wspomniał o pierwszym w Polsce procesie sądowym, w którym padło stwierdzenie „pozycjonowanie stron”. W procesie tym skazany został prawdopodobnie pozycjoner, który obraził w wyszukiwarce głowę naszego państwa. Obraza polegała na wypozycjonowaniu serwisu na obraźliwe słowo.
Swoją droga uśmiałem się słuchając „stworzył program komputerowy” i inne tego typu stwierdzenia ludzi, którzy tak naprawdę nie wiedzieli o co chodzi.

Patrząc na ten kończący już się rok, widzę, że branża pozycjonowania stron, poczyniła kolejne ważne kroki by wyjść z cienia i zająć odpowiednie miejsce w torcie reklamowym w Internecie.
Pojawia się coraz więcej firm pozycjonerskich, które mają na tyle dużą siłę przebicia by być zauważone przez innych dużych graczy internetowych. Przykładem niech będzie nawiązanie współpracy między Home.pl a Performance Media.
Oczywiście sama akcja była biciem piany ale nie można o tym fakcie zapomnieć. To nie jest jedyna współpraca jaką można było zauważyć, inni registratorzy też proponują usługi pozycjonowania.

Jeśli chodzi o reklamę i „bicie piany” to nie mogę pominąć majstersztyku jakim jest kampania na prezydenta USA – czarnoskórego Baracka Obamy. Niewątpliwie jest to najlepsza kampania marketingowa mijającego roku. Połączenie wszystkich dostępnych kanałów reklamowych, gry i internet, TV i prasa dała efekt, w postaci czarnoskórego prezydenta USA – czy ktoś podejrzewał kilka lat temu, że jest to w ogóle możliwe ?
Na szczęście u nas w Polsce politycy moją dużego laga w wyciąganiu wniosków, bo bałbym się co będzie w kolejnych wyborach prezydenckich u nas.

Podsumowując, mimo tego co tu napisałem, mijający rok nie był zły. Można nawet powiedzieć, że był to jeden z lepszych jakie ostatnio mieliśmy.
Lepszy patrząc branżę pozycjonowania i patrząc na życie w Polsce.

Oby nadchodzący rok nie był gorszy niż ten, który prawie już minął.
Tylko tego Wam życzę!

Start-up – finansowanie

Wczoraj odwiedziłem w Poznaniu warsztaty, organizowane przez ekipę Barcampu, o tym jak można pozyskać finansowanie swoich projektów.
Temat mnie średnio interesuje ale podejrzewam, że prędzej czy później moje zainteresowanie wzrośnie.
W warsztatach brało udział plus/minus z 50 osób.
Cztery prezentacje to niewiele ale i tak zajęło to około 2,5 godziny.

Dzięki tym warsztatom dowiedziałem się że:

– jeśli chciałbym dofinansowanie z PARPu (801) to muszę ich oszukać zakładając nową firmę pod projekt, nie ma jednak co się trudzić bo i tak nie zdarzę bo przyjmowanie wniosków będzie prawdopodobnie tylko w styczniu i koniec pieniędzy, wiec zostaje finansowanie z własnych zasobów.

– PARP i fundusz 802 jest dla „starszych” firm na poprawę „relacji” pomiędzy firmą a klientami, poprzez np zbudowanie odpowiednich e-narzędzi do tego. Jednak najpierw trzeba te e-narzędzia zbudować i sfinansować z własnych środków finansowych,  a później liczyć na to, że część zrefundują. No i najważniejsze, nie trzeba ich oszukiwać bo wystarczą dwie umowy o współpracy jakiekolwiek i z kimkolwiek, nawet z firmą z Laponii bo i tak tego nie sprawdzą.

– jeśli chciałbym porozmawiać z jakimś funduszem to najlepiej bym wiedział od razu za ile będzie projekt można sprzedać za jakiś czas. Jeśli bym, o zgrozo, przyszedł i powiedział, że chcę pieniądze i nie będę tego wiedział to zostanę zaliczony do grupy głupców, którzy tylko chcą pieniądze na projekt i musiałbym finansować wszystko z własnych środków.

– jeśli jednak wiem, ile wart może być projekt po 2-3 latach dziłalności ale nie jest to 40-50 milionów to prawdopodobnie czekałoby mnie finansowanie z własnych środków.

– jeśli model zarobkowy projektu to reklamy, to mogę zapomnieć o finansowaniu z innych funduszy niż z USA lub UK bo tylko tam są głupcy, którzy na to zwracają uwagę. Jeśli więc by tak było to musiałbym o wszystko zadbać z własnych środków.

– zanim w ogóle przyjdę do funduszu to powinien zbadać czy projekt ma sens. Mnie, moim współpracownikom i znajomym może zdawać, że jest OK i projekt będzie hitem. Jednak jak się przeprowadzi badania na grupie docelowej np na swoich znajomych z serwisów społecznościowych to może wyjść, że jednak nie jest tak różowo. Wtedy taki projekt czeka finansowanie z własnych środków a najlepiej to wcale nie zaczynać bo po co je tracić. Ta część jest dość skomplikowana i bardzo ważna, ja chyba nie dałbym rady tego zrealizować.

– niektóre fundusze, już podczas pierwszych rozmów chcą znać tzw „strategię wyjścia” czyli po polsku „sprzedajemy projekt”. To jest ważne bo fundusz wie, co właściciel będzie robił jakby nagle dostali dobrą ofertę. Jak strategia jest zła to czeka taki projekt finansowanie z własnych środków.

– większość funduszy nie ma nic przeciwko 100% kopii serwisu, który odniósł sukces w innym kraju. Jednak ta kopia musi być unikalna, no w ostateczności muszą być w niej zawarte jakieś unikalne funkcje bo inaczej czeka go finansowanie z własnych środków.

– w Polsce nie ma „Business Angel” z prawdziwego zdarzenia, więc prawdopodobnie pozostają własne środki, choć zawsze warto spróbować z jakimiś funduszami.

– jeden z prelegentów, próbował pozyskać dofinansowanie z różnych funduszy, niestety nie dogadał się z żadnym, dlatego finansuje swoje projekty z własnych środków.

– nie ma co liczyć, że ktokolwiek będzie zabiegał o to by finansować akurat Twój czy mój projekt, bez odzwu do nich trzeba mieć własne środki finansowe. No chyba, że to kolejny projekt typu Spryciarze.peel, wtedy mamy szansę poczuć się niczym gwiazda.

No i najważniejsze przesłanie jakie płynęło od rozmówców, prawdopodobnie jest to prawidło na całym Świecie, wszyscy prelegenci, oprócz Pana z PARP, o tym mówili.

Zastanów sie dwa razy czy potrzebna Ci pomoc finansowa. Jeśli tak naprawdę jest ona niepotrzebna to finansuj wszystko z własnych środków!

Na koniec, mimo wszystko, wiem dziś dużo więcej niż wczoraj przed warsztatami, i na coś się jednak może kiedyś ta wiedza przydać.

PS

Pozycjonowanie stron zostało przytoczone, na spotkaniu, jako przykład umowy o współpracy pomiedzy firmami :). Żeby było weselej, ten ktoś kto o tym wspmniał dorzucił „..i umawiamy się na jakąś pozycję pomiędzy jeden a dziesięć”. To ja chcę …hhmm… cyferkę siedem i proszę gwarancję utrzmania pozycji na piśmie :)

Zapytanie w wyszukiwarce – podpowiedź Google

Jakież było moje zdziwienie, gdy przed kilkoma minutami chciałem użyć naszego (nie)kochanego Google a wyszukiwarka z wdzięczności zaczęła mi podpowiadać frazy wraz z ilością wyników.

google podpowiada frazy

Sam mechanizm nie jest ni obcy, testowałem go jakieś dwa lata temu, w którymś z projektów Google Labs.
Zastosowanie takiego mechanizmu jednak przy normalnych wyszukiwaniu, polskiej wersji wyszukiwarki, jest pewną nowością. Oczywiście jest możliwość, że „włączyli” to tylko na jakiś czas.

Czy taki mechanizm jest przydatny? Wydaje mi się, że tylko w niektórych przypadkach np wtedy, gdy ktoś tak naprawdę nie wie jak sformułować zapytanie.

Zauważyłem też ciekawą rzecz otwierając wyszukiwarkę w Internet Explorer 7 i FireFox 2.
Zaczynam wpisywać frazę (w tym przypadku wpisać chciałem „dom”)
W IE podpowiada mi

Google podpowiedź Internet Explorer

A w FF niestety to nie działa poprawnie, dopiero po kilku minutach podpowiedź ukaząła się moim oczom. Coś mają problem z FF.

Nie wiem czy to jest jakiś błąd u mnie czy też FF coś robi inaczej, jednak jeśli tak jest nie tylko u mnie to część użytkowników Internetu nie skorzysta wiele na tej funkcji.

Hmm… na koniec….czy nie lepiej by było aby zajęli się wynikami a nie dodawali kolejne gadgety ? Kolejny raz mam wrażenie, że kosmetyka wychodzi im najlepiej.

PS
Dodam jeszcze, ze wpisując „dom” podpowiedzi niewiele nam dadzą :/.
Jeśli szukamy coś związanego z tym słowem, za to możemy sie wiele dowiedzieć o domino day, domenach czy też Dominikanie a dopiero na końcu domach z bali.

Zwróćcie też uwagę, na podpowiedź „dopalacze” w moich przykładach (d). Jak ktoś nie wiedział, że coś takiego można kupić to już wie, do tego szukając czegoś innego :/

Czyszczenie indeksu przez wyszukiwarki – kilka przypadków

Ostatnio miałem parę pytań typu

„zapomniałem przedłużyć domenę, zrobiłem to po X dniach, nie ma mnie na poprzednich pozycjach, co teraz..”

W październiku jeden z moich klientów też jakimś cudem zapomniał przedłużyć domenę. Oczywiście o tym fakcie poinformowałem Go, w chwili kiedy znikły mi pozycje na frazy jakie były pozycjonowane dla tej domeny.
Domena powinna być opłacona do 4 października. W dniu 12 października zauważyłem brak określenia pozycji dla strony głównej. Podczas sprawdzania co się dzieje, okazało się, że została wyindeksowana strona główna tego serwisu. Wszystkie podstrony były w indeksie, niestety w tym przypadku pozycjonowanie odbywało się na stronę główną dlatego nie wiem jakby wyglądały pozycje podstron.
15 października, co tu ukrywać po moim monicie dlaczego przez 3 dni nie zostało to zapłacone, poszedł przelew i domena ponownie została uruchomiona rankiem 16.10.
Strona główna pojawiła się w Google 22.10 i pozycje prawie wróciły na swoje miejsce.
Dlaczego „prawie” ? Z prostego powodu, tylko jedna z fraz zachowała swoją pozycję (top1) powroty całej reszty wyszły na plus czyli pozycje były wyższe niż przed całym zdarzeniem.
Nie będę ukrywał, że spodziewałem się spadków a tu proszę, jaka niespodzianka.

Podsumowując, znikniecie strony głównej nastąpiło po 8 dniach, powrót po 6, z jednym małym „ale”. Podejrzewam, że przy zniknięciu domena działała jeszcze 2 dni po dacie do przedłużenia, podobnie jak w przypadku, który opiszę poniżej.

Ciekawi mnie ta zbieżność 6 dni na wylot i 6 dni na powrót. Dodam, że w przypadku problemów z serwerem działającej domeny, nie zauważyłem takich działań. Miałem jedną stronę wyłączoną przez 14 dni i pozycje stały na swoim miejscu.

Chciałbym jeszcze opisać dwie sytuacje w tym wpisie, pierwsza to odpuszczenie sobie domeny, poprzez nie przedłużenie oraz wyindeksowanie domeny po 301 na inną.

Miałem takie dwie dziwne domeny, które gdy kupiłem były zbanowane, moje prośby o ponowne rozpatrzenie nie skutkowały na początku, wróciły jednak do indeksu po ponad 6 miesiącach od zakupu, gdy już myślałem, że nic z nich nie będzie.
Moja radość była przedwczesna, jak się okazał, mimo przekazania odpowiedniej mocy na serwisy w tych domenach, indeksowały się niestety do maksymalnego poziomu około 20 podstron. Cokolwiek nie robiłem, a wierzcie mi, że w pewnym momencie naprawdę było dużo linków do tych domen, moje wysiłki spełzały na niczym.
Ruch organiczny na tych stronach nie istniał, indeksacja żadna dlatego postanowiłem je nie przedłużać.

Domeny „działały” jeszcze przez dwa dni po dniu, w którym miałem je przedłużyć. W tym czasie można jeszcze było normalnie wchodzić na te strony.
Te dwa dni to chyba standard, choć nie jestem tego pewien, jak ktoś ma w tym większe niż ja doświadczenie to będę wdzięczny za informację potwierdzającą lub negującą.

Wracając do tego przypadku.
Domeny znikły z Google tego samego dnia, po 16 dniach od dnia, w którym przestały działać. Pisząc domeny mam na myśli całkowite wyindeksowanie ich wraz z podstronami czyli site=0.

Msn akurat w następnym dniu, po tym jak przestały działać, zwiększył dla jednej z nich site około 10 razy. Jednak już po 12 dniach, tak jakby zauważył swój błąd, zredukował ilość w swoim indeksie podstron nieistniejących już domen do kilkunastu sztuk. Dziś mimo, że minęło już kilka miesięcy cały czas jest widoczna jedna podstrona dla obydwóch domen.

Za to Yahoo, to naprawdę chyba nie liczy się z mocą obliczeniową. Od dnia gdy znikły te domeny do dziś site dla nich wzrósł około 6 razy. Żeby było śmieszniej od tygodnia obserwuję codziennie coraz większe cyferki dla nieistniejących przecież domen.
Zastanawia mnie to trochę i mniemam, że to zwykły cykl parsowania danych w tej wyszukiwarce, co np źle rzutuje na obraz liczenia się z BL w tej wyszukiwarce…

Kolejny temat to 301 istniejących domen/subdomen na inną domenę.
Jeden z moich klientów postanowił zmienić domenę. Na początku września zrobione zostało 301 wszystkich starych podstron na nowy podstrony i głównej na główna.
Po 3 dniach od zrobienia 301 dla nowej domenie zaczęły pojawiać podstrony w indeksie Google i Yahoo. Oczywiście w Yahoo od razu kilka tysięcy podstron, w Google kilkaset, MSN zareagował dwa tygodnie później.
Do dnia dzisiejszego nowa domena nie uzyskała takiej liczby zaindeksowanych podstron jak stara, ruch jednak jest lepszy niż był. Za to „stara” ciągle istnieje w indeksie wszystkich trzech wyszukiwarek.
W Google jest około 100 podstron, MSN około tysiąca a Yahoo jak to Yahoo ma ich ponad 75 tysięcy (ciekawe :/)

Dodam tutaj jeszcze, ze serwis był pozycjonowany na dużą ilość fraz z czego tylko około 10% na stronę główna, reszta na podstrony.

Podczas przenoszenia się mocy ze starej na nową domenę, zauważyłem w Google ciekawe zjawisko.
Miałem wrażenie jakby ta wyszukiwarka za wszelką cenę chciała utrzymać pozycje na pewne frazy dla tej domeny, jednocześnie umieszczając nową domenę często wyżej niż starą.
W pierwszym miesiącu, kiedy bacznie się temu przyglądałem widziałem sytuacje gdy nowa domena była powiedzmy na 2 miejscu na frazę a stara na 5. Ciekawe jednak było to, że pozycje dla starej były określane dla coraz to nowych podstron. Tak jak napisałem, jakby wyszukiwarka ta próbowała za wszelką cenę utrzymać starą domenę, zmieniając co chwilę podstrony jakie umieszczała w indeksie na daną frazę.
Miałem już z takim mechanizmem styczność w przypadku chwilowych filtrów na podstrony, gdy jej miejsce zajmowała inna podstrona ale nie na taką skalę.

Drugi przypadek to jedna z moich subdomen z zaplecza. Niestety dostała ona ten słynny filtr z końca lipca obniżający pozycję dla wszystkich fraz. Miałem już od jakiegoś czasu kupioną i zaindeksowaną domenę, na którą chciałem przenieść ten serwis ale jakoś czasu brakło. Filtr przyśpieszył tylko moje działania.
301 było zrobione w drugiej połowie sierpnia. Po 3 dniach zauważyłem wzrost ruchu i początkowe podstrony nowej domeny w indeksie a filtr się nie przeniósł, z czego się cieszyłem.
Początkowo subdomena była ładnie i sukcesywnie usuwana z indeksu Google. 7 listopada miała już tylko 8 podstron. Dzień później jednak, prawdopodobnie Google przywróciło stare indeksy, znowu było tych podstron 1,5 tys.
Dzisiejszego dnia W Google jest 1050 podstron w MSN 82 a w Yahoo… 17 tys. :)
Przyznam się, że akurat w tym przypadku zależało mi aby ta subdomena w miarę szybko zniknęła z indeksów.

Reasumując, jeśli zapomnisz przedłużyć domenę, nie musisz się tym martwić aż tak bardzo. Masz kilka dni na wpłatę a pozycje powinny być takie same.
Jeśli chcesz kupić jakaś nieużywana domenę z zaindeksowanymi podstronami pod Google, to możesz mieć problem. Jeśli Twoim targetem jest Yahoo to możesz się nie śpieszyć.
Przy 301 zaś, wyindeksowanie przekierowanej domeny może zając miesiące, więc jeśli robisz to po to by coś ukryć/usunąć to lepiej chyba najpierw wyindeksować podstrony w Google Sitemaps a później zrobić przekierowanie.

« Poprzednia stronaNastępna strona »

mkane blog
Przegląd prywatności

Ta strona używa plików cookie, abyśmy mogli zapewnić Ci jak najlepsze wrażenia z użytkowania. Informacje z plików cookie są przechowywane w przeglądarce użytkownika i pełnią takie funkcje, jak rozpoznawanie użytkownika przy ponownym wejściu na naszą stronę internetową oraz pomagają naszemu zespołowi zrozumieć, które sekcje strony internetowej są dla użytkownika najbardziej interesujące i przydatne.