Archiwum kategorii 'SEO'

Pozycjonowanie i optymalizacja – oficjalny poradnik Google PL

Kilka miesięcy temu pisałem o poradniku SEO dotyczącym optymalizacji a także pozycjonowania, jaki wyszedł z pod palca pracowników Google.

Kilka dni temu „Podręcznik startowy optymalizacji pod kątem wyszukiwarki Google” doczekał się tłumaczenia na nasz rodzimy język oraz 39 innych.

Podręcznik jest tylko przetłumaczony bez żadnych uaktualnień (a szkoda) i można go ściągnąć tutaj.

Zachęcam wszystkich do przeczytania tego podręcznika, niektórym przypomni parę informacji a innym dostarczy nowej wiedzy.

Ponownie nie będę opisywał jego zawartości, jeśli jednak ktoś chciałby bym ustosunkował się do któregoś z punktów to proszę o maila lub informację w komentarzu.

Wiosenne porządki – katalogi

Średnio dwa-trzy razy do roku siadam przed laptopem i sam dodaje parę serwisów do katalogów.
Jak wiemy kilka lat temu pozycjonowanie odbywało się głównie przez katalogi, później przyszedł nieszczęsny Adder, który zabił QlWeba, to samo robi teraz z Otwartym.mini (a może już zrobił..?).
Dziś traktuję katalogi jako źródło stałych, najczęściej słabych linków, na wielu IP. W katalogach najczęściej umieszczam linki o dość zróżnicowanych, przemieszanych, a niektórych stworzonych z ułańska fantazję anchorach.
Niektóre katalogi oczywiście traktuje jako pewne medium reklamowe, jednak głównie myślę o pozycjonowaniu.

Przy dodawaniu wspieram się pewnym programem, który wypełnia za mnie pola, o tym gdzie strona będzie dodana , decyduje moja skromna osoba.
W bazie miałem około 2000 katalogów. Dodawałem do bazy tylko katalogi na skryptach mniej popularnych, autorskich oraz Otwarty.mini, który mi się to kiedyś bardzo podobał.

To tyle tytułem wstępu :)

Moje narzędzie pokazuje mi PR danego katalogu, podczas dodawania. Niestety ostatnimi czasy, większość katalogów ma PR 0 a nawet N/A. W tamtym roku sprawdziłem kilkadziesiąt takich katalogów z N/A i najczęściej było one zaindeksowane i to całkiem nieźle.
Niestety wczoraj podczas dodawania sprawdziłem kilka w Google i okazało się, że nie ma ich tam..

Standardowo postanowiłem sprowadzić od razu wszystkie by niepotrzebnie nie dodawać do katalogów, których nie ma w Google.
Trochę to czasu trwało bo każdy sprawdziłem ręcznie, zmieniając wiele razy IP :) (oj Google mnie nie lubiło coś).
Wynik trochę mnie zaskoczył, pamiętajmy o tym że sprawdzałem katalogi, które działają i można do nich dodać stronę.

Usunąłem z bazy:

  • 8% kat. na skrypcie CNCat
  • 10% kat. autorskich
  • 11% kat. na mało popularnych i fajnych skryptach np IndexU, FreeGlobes itp
  • 27,5% kat. na skrypcie otwarty.pl mini

Dodatkowo 10 katalogów zostało usuniętych bo mnie ładnie Google ostrzegł, że mogą mi zrobić krzywdę a niestety najczęściej to prawda. Kilkanaście sztuk miało zaindeksowaną tylko jedną, jakąś głęboką podstronę – „pechowców nie potrzebujemy” :).
Tradycyjnie kilka katalogów było zaparkowanych, więc z nimi też się rozstałem.

Na oko patrząc 1/3 katalogów jakie przejrzałem ma site do 300 podstron, większość ma 300-1000 podstron w indeksie. Oczywiście są katalogi z 3,5 czy też 15k site w Google. Niestety to najczęściej nie jest cały katalog.
Można więc założyć, że albo dodajemy do powiedzmy 200 katalogów i dostajemy jakaś moc w miarę szybko co widać w pozycjonowaniu. Lub dodajemy do większej ilości ale wtedy na pozycjonowanie ma to często nikły wpływ do tego rozciągnięty w czasie.
Ostatnio Google nie lubi katalogów, wyindeksowuje je dość znacznie niezależnie prawie do mocy jaka jest na nie skierowana.
Trochę to dziwne bo znam fajne, branżowe katalogi, które naprawdę na takiej polityce cierpią i nic z tym nie można zrobić.

Podsumowując, jeśli i Wy macie takie bazy to proponuję sprawdzić je przynajmniej raz w roku by niepotrzebnie się nie męczyć z dodawaniem tam gdzie już to nie ma sensu..

rel=”canonical”

W dniu wczorajszym Google poinformowało nas o wprowadzeniu nowego tagu rel=”canonical”.
Co ciekawe tag ten będzie używany przez największą konkurencję Firmy Google – MSN oraz Yahoo, czyli wchodzi do standardu, który trzeba uwzględnić przy optymalizacji SEO danego serwisu.

Po co nam to ? Wg słów Pana Joachima Kupke dostaliśmy niesamowity zaszczyt decydowania o tym, które podstrony w naszym serwisie serwują daną treść, a które ją duplikują.

Jak wiemy od czasu objawienia się mechanizmu SI, duplikowana treść w obrębie witryny jest w pewnym stopniu problemem. Co widać często obserwując potężną liczbę zaindeksowanych podstron i nikły ruch generowany dzięki nim.

Przykładem niech będą serwisy działające na źle skonfigurowanych serwerach, które doklejają sesje do adresów. W takich serwisach bardzo często zaindeksowana jest ta sama podstrona kilkukrotnie.

Jak to używać?
Na podstawowej podstronie z treścią umieszczamy w sekcji < head > informację dla botów wyszukiwarek o treści :
< link rel="canonical" href="adres_właściwej_podstrony" />.

Czytając oficjalną informację od razu zacząłem się zastanawiać czy czasem nie będzie to oddziaływać na inne domeny. Wg informacji na blogu Google, nie będzie to działało ale z przekory dodałem rel=”canonical” do linków wychodzących z tego wpisu :)

Teraz pozostaje przetestować ten tag i jego prawdziwy wpływ na boty wyszukiwarki internetowe. Może będzie można wspomóc tym pozycjonowanie stron…

Moje linki w SWLach 2 – poletko pozycjonera

W sierpniu 2007 we wpisie Systemy – gdzie moje linki?, przedstawiłem Wam za ile linków „płacicie”, w systemach wymiany linków stałych, choć ich brak.

Po tym wpisie właściciel pewnego systemu, wziął się do roboty a po jej zakończeniu poprosił mnie o ponowne ich sprawdzenie. Oczywiście obiecałem, że to zrobię, nigdzie jednak nie podałem kiedy to uczynię :). Zajmuje się pozycjonowaniem, cierpliwość to moje drugie imię :).

Co tu ukrywać zabierałem się do tego od jesieni. Kilka dni temu usuwałem kilka moich serwisów z systemów i w jednym „zabrakło” mi punktów. Postanowiłem sprawdzić ile punktów tracę, „płacąc” za coś czego nie ma.

Według zasady „jak coś robisz, rób to dobrze”, postanowiłem wykonać sprawdzenie dla wszystkich systemów.

W początkowej fazie planowałem sprawdzić 500 linków z każdego SWL, jednak już przy pierwszym (Linkme), zwiększyłem tą liczbę do 1000szt. by wynik był jak najbardziej miarodajny.

Myślę, że jest to odpowiednia liczba linków by pokazać dokładnie co się dzieje w danym systemie.

Niestety podczas sprawdzania Linkme, przy założeniu 500szt., czekając aż automat skończy swoją pracę, ręcznie sprawdzałem dużą liczbę od razu wysyłając raporty. Po zmianie decyzji o ilości linków do sprawdzenia okazało się, że nie uzbieram w Linkme Elite 1000 szt. dlatego włączyłem do testu wersje SLIM.

Tym razem mój test obejmował pięć systemów a nie trzy jak poprzednio. Cztery polskie – LinkMe Elite i SLIM, Livelink, LinujPro oraz Linkorn.

Linkorna mogłem sprawdzić jedynie dzięki pomocy Jankiela z Tenso.pl, który udostępnił mi linki do sprawdzenia. W tym systemie nie mam konta i prawdopodobnie nigdy mieć nie będę, z wiadomych chyba powodów.

Ostatni, piąty system to zagraniczny SWL- Link-Vault.

Tym razem sprawdzenie przebiegało w trzech etapach.

Pierwszy etap – sprawdzenie linków automatem (z poprzedniego razu). Skrypt sprawdza obecność danego adresu w kodzie, zgłasza się jako “Mozilla/4.0 (compatible; MSIE 5.0; Windows NT), timeout ustawiony na 30 sekund.

Drugi etap – ponowne sprawdzenie skryptem, wykonane w dniu kolejnym.

Trzeci etap – sprawdzenie ręczne adresów, które wg skryptu nie emitowały moich linków.
W tym miejscu muszę dodać, że tylko w jednym przypadku okazało się, że skryptu monitował brak, mimo, że link był na stronie.

Dla adresów, które się nie otwierały lub widniał na nich error 500 sprawdzałem cache w Google. Jeśli go nie było sprawdzałem stopień zaindeksowania domeny i cache strony głównej. Jeśli był z tego miesiąca, oznaczałem link jako istniejący. Jeśli jednak był z tamtego roku a stopień zaindeksowania serwisu nikły, uznawałem, że link nie istnieje.
Adresy z error 404 i 403 na początku sprawdzałem cache oraz czy reszta serwisu też daje taki błąd. Jednak po kilkunastu oznaczonych w ten sposób adresach, postanowiłem zaliczać je od razu jako nie istniejące. Powód był prosty, zawsze reszta serwisu działała poprawnie a podstrona po prostu została skasowana.

Do testu wybrałem najdłużej linkowane strony. Wydaje mi się, że link umieszczony kilka tygodni temu częściej będzie emitowany niż taki, który „wisi” już od roku.

Przejdźmy do wyników…

LinkMe

Elite – sprawdziłem 885 linków, nie znalazłem 83 szt. w 52 domenach, co daje 6,55%
Slim – tutaj mogłem sprawdzić tylko 237 lokalizacji (wszystkie linki jakie posiadam :) ) z czego nie znalazłem linka w 25 miejscach, na 25 domenach, co daje 10,55%.

Patrząc na Elite i Slim jako całość sprawdzone zostały 1122 adresy – odnotowałem brak 83szt., na 77 domenach, co daje 7,4%.

Oczywiście podczas sprawdzania ręcznego znalazłem jedną zaparkowaną domenę i dwie zbanowane.
Jedna z domen zaś miała w indeksie tylko dwie podstrony z kopią z początków listopada 2008.

Stosunek braku linków na nie otwierających się stronach lub z 404 do tych, które po prostu ich nie emitują to około 50/50.

Zwróćcie też uwagę, że brakowało 83 szt. na 77 domenach. Ta informacja wydaje mi się dość istotna bo pokazuje jak przydziela ten system. Podejrzewam, że priorytetem jest rozmieszczenie linków na jak największej ilości domen. Za tym idzie prawdopodobnie fakt, że Googlowi łatwiej znaleźć naszego linka. Czytając dalej domyślicie się dlaczego o tym piszę.

Dla przypomnienia ostatnio Linkme tracił 13,33% naszych linków- jest jakaś poprawa :)

LiveLink

Sprawdziłem 1000 lokalizacji, nie znalazłem 146 szt. na 53 domenach – procentowo 14,6%.
Tak naprawę w tym przypadku niewiele jest to opisania. Stosunek nie otwierających się serwisów i 404 do braku linków wynosi około 10/90.
Niestety w tym systemie maksymalnie kuleje sprawdzanie czy linki są emitowane przez serwisy w systemie.
146 szt. i 53 domeny, możliwe, że to efekt małej ilości serwisów w systemie. Wydaje mi się jednak, że system tak losuje.

W poprzednim teście w tym systemie brakowało 20,83% – jest poprawa :)

LinkujPro

Ten zapomniany przez wielu system linków stałych naprawdę mnie zadziwił.
Sprawdzone było 1000 adresów, nie znalazłem 50szt. na 28 domenach.
Nie trzeba być matematykiem by określić, że uciekło gdzieś 5% linków.

50/50 to stosunek serwisów, które się nie otwierały lub dawały 404 do tych, które nie emitowały linków.

Naprawdę, w tym przypadku, jestem pozytywnie zaskoczony, myślałem, że ten zapomniany przez Boga SWL będzie w bardziej opłakanym stanie. Punkty tutaj są tanie, podobnie jak w LiveLinku i wydawało mi sie, że są na podobnym poziomie a tu proszę jaka niespodzianka.

Linkorn

Jak już pisałem ten system nie jest w moim kręgu zainteresowań i nie brałem go pod uwagę rozpoczynając ten test. Nie mam tam konta, więc nie miałem potrzebnych mi danych.
Udało się jednak przeprowadzić sprawdzenie tego systemu.

Ponownie sprawdzone zostało 1000 linków nie znalazłem 156szt. na 63 domenach.
Jak łatwo policzyć 15,6% to linki, które nie istnieją.

Stosunek nie otwierających sie stron i 404 do serwisów gdzie nie znalazłem linków to około 20/80.

Przyznam się, że ręce mi opadły jak policzyłem braki. I to jest ten system, który był niby jednym z najlepszych w Polsce, porównywany do LinkMe ? To jest ten system trącony boską ręką Mości Pana Anioła vel DirElite tudzież Paweł K., który ma doktorat z zakresu marketingu oraz ukończone studia doktoranckie obejmujące problematykę pozycjonowania (w Stanach Zjednoczonych i Wielkiej Brytanii). wg PWN :)
Dobrze, że się chłop ukrywa bo kolejny raz nie wytrzymałbym i napisał mu parę jakże „pochlebnych” słów.
LiveLink – rozumiem, Linkorn – a fe, niedobry linkorn….może Igthorn (pamiętacie tą bajkę? :) )

Link-Vault

Ojoj coś czuję, że ktoś mi zarzuci matactwo :)

Sprawdziłem oczywiście 1000 linków, nie znalazłem ich aż 7 razy (słownie: siedem razy) na 3 domenach co daje nam 0,7%.
W tym jedna domena nie działa a miała emitować 5 linków, na pozostałych dwóch linków po prostu nie było.

Podczas pierwszego sprawdzania skryptem, nie zostało znalezionych 28 szt. Pomyślałem sobie, że jest i tak nieźle. Po drugim sprawdzeniu zgłupiałem na tyle by sprawdzić ręcznie cała ilość nie dowierzając skryptowi.

W ostatnim teście brakowało w LV 5,31% linków – tak dla informacji.

I co tu pisać ? Że twórcy polskich systemów mogliby być „podnóżkiem” (Tołdi i jego Księciunio :)) dla twórców LV patrząc pod tym kątem mechanizmu sprawdzania emitowanych linków….
Zobaczcie jak wiele macie do zrobienia i jak wiele jeszcze macie do roboty, a jak nie to przyjdzie kiedyś ktoś kto zrobi to lepiej i……..

Ranking systemów pod kątem poprawności emitowania linków by mkane :).

  • 1. Link-Vault – 0,7%
  • 2. LinkujPro – 5%
  • 3. LinkMe – 7,4%
  • 4. LiveLink – 14,6%
  • 5. Linkorn – 15,6%

Według mojej oceny, trzy pierwsze pozycje to stan, który można zaakceptować, jednak 4 i 5 pozycja to tragedia. Na każde użyte 10k pkt w kosmos idzie około 1500 szt. mało ?
Potwornie dużo bo tą ilością można naprawdę wiele fraz zrobić, bez wielkiego myślenia nad tym.

Gorąco zachęcam wszystkich do kontroli swoich linków w SWLach.
Zwłaszcza tych, którzy pozycjonowanie wykonują głównie poprzez systemy.
Wyjdzie Wam to naprawdę na dobre….

Czyszczenie indeksu przez wyszukiwarki – kilka przypadków

Ostatnio miałem parę pytań typu

„zapomniałem przedłużyć domenę, zrobiłem to po X dniach, nie ma mnie na poprzednich pozycjach, co teraz..”

W październiku jeden z moich klientów też jakimś cudem zapomniał przedłużyć domenę. Oczywiście o tym fakcie poinformowałem Go, w chwili kiedy znikły mi pozycje na frazy jakie były pozycjonowane dla tej domeny.
Domena powinna być opłacona do 4 października. W dniu 12 października zauważyłem brak określenia pozycji dla strony głównej. Podczas sprawdzania co się dzieje, okazało się, że została wyindeksowana strona główna tego serwisu. Wszystkie podstrony były w indeksie, niestety w tym przypadku pozycjonowanie odbywało się na stronę główną dlatego nie wiem jakby wyglądały pozycje podstron.
15 października, co tu ukrywać po moim monicie dlaczego przez 3 dni nie zostało to zapłacone, poszedł przelew i domena ponownie została uruchomiona rankiem 16.10.
Strona główna pojawiła się w Google 22.10 i pozycje prawie wróciły na swoje miejsce.
Dlaczego „prawie” ? Z prostego powodu, tylko jedna z fraz zachowała swoją pozycję (top1) powroty całej reszty wyszły na plus czyli pozycje były wyższe niż przed całym zdarzeniem.
Nie będę ukrywał, że spodziewałem się spadków a tu proszę, jaka niespodzianka.

Podsumowując, znikniecie strony głównej nastąpiło po 8 dniach, powrót po 6, z jednym małym „ale”. Podejrzewam, że przy zniknięciu domena działała jeszcze 2 dni po dacie do przedłużenia, podobnie jak w przypadku, który opiszę poniżej.

Ciekawi mnie ta zbieżność 6 dni na wylot i 6 dni na powrót. Dodam, że w przypadku problemów z serwerem działającej domeny, nie zauważyłem takich działań. Miałem jedną stronę wyłączoną przez 14 dni i pozycje stały na swoim miejscu.

Chciałbym jeszcze opisać dwie sytuacje w tym wpisie, pierwsza to odpuszczenie sobie domeny, poprzez nie przedłużenie oraz wyindeksowanie domeny po 301 na inną.

Miałem takie dwie dziwne domeny, które gdy kupiłem były zbanowane, moje prośby o ponowne rozpatrzenie nie skutkowały na początku, wróciły jednak do indeksu po ponad 6 miesiącach od zakupu, gdy już myślałem, że nic z nich nie będzie.
Moja radość była przedwczesna, jak się okazał, mimo przekazania odpowiedniej mocy na serwisy w tych domenach, indeksowały się niestety do maksymalnego poziomu około 20 podstron. Cokolwiek nie robiłem, a wierzcie mi, że w pewnym momencie naprawdę było dużo linków do tych domen, moje wysiłki spełzały na niczym.
Ruch organiczny na tych stronach nie istniał, indeksacja żadna dlatego postanowiłem je nie przedłużać.

Domeny „działały” jeszcze przez dwa dni po dniu, w którym miałem je przedłużyć. W tym czasie można jeszcze było normalnie wchodzić na te strony.
Te dwa dni to chyba standard, choć nie jestem tego pewien, jak ktoś ma w tym większe niż ja doświadczenie to będę wdzięczny za informację potwierdzającą lub negującą.

Wracając do tego przypadku.
Domeny znikły z Google tego samego dnia, po 16 dniach od dnia, w którym przestały działać. Pisząc domeny mam na myśli całkowite wyindeksowanie ich wraz z podstronami czyli site=0.

Msn akurat w następnym dniu, po tym jak przestały działać, zwiększył dla jednej z nich site około 10 razy. Jednak już po 12 dniach, tak jakby zauważył swój błąd, zredukował ilość w swoim indeksie podstron nieistniejących już domen do kilkunastu sztuk. Dziś mimo, że minęło już kilka miesięcy cały czas jest widoczna jedna podstrona dla obydwóch domen.

Za to Yahoo, to naprawdę chyba nie liczy się z mocą obliczeniową. Od dnia gdy znikły te domeny do dziś site dla nich wzrósł około 6 razy. Żeby było śmieszniej od tygodnia obserwuję codziennie coraz większe cyferki dla nieistniejących przecież domen.
Zastanawia mnie to trochę i mniemam, że to zwykły cykl parsowania danych w tej wyszukiwarce, co np źle rzutuje na obraz liczenia się z BL w tej wyszukiwarce…

Kolejny temat to 301 istniejących domen/subdomen na inną domenę.
Jeden z moich klientów postanowił zmienić domenę. Na początku września zrobione zostało 301 wszystkich starych podstron na nowy podstrony i głównej na główna.
Po 3 dniach od zrobienia 301 dla nowej domenie zaczęły pojawiać podstrony w indeksie Google i Yahoo. Oczywiście w Yahoo od razu kilka tysięcy podstron, w Google kilkaset, MSN zareagował dwa tygodnie później.
Do dnia dzisiejszego nowa domena nie uzyskała takiej liczby zaindeksowanych podstron jak stara, ruch jednak jest lepszy niż był. Za to „stara” ciągle istnieje w indeksie wszystkich trzech wyszukiwarek.
W Google jest około 100 podstron, MSN około tysiąca a Yahoo jak to Yahoo ma ich ponad 75 tysięcy (ciekawe :/)

Dodam tutaj jeszcze, ze serwis był pozycjonowany na dużą ilość fraz z czego tylko około 10% na stronę główna, reszta na podstrony.

Podczas przenoszenia się mocy ze starej na nową domenę, zauważyłem w Google ciekawe zjawisko.
Miałem wrażenie jakby ta wyszukiwarka za wszelką cenę chciała utrzymać pozycje na pewne frazy dla tej domeny, jednocześnie umieszczając nową domenę często wyżej niż starą.
W pierwszym miesiącu, kiedy bacznie się temu przyglądałem widziałem sytuacje gdy nowa domena była powiedzmy na 2 miejscu na frazę a stara na 5. Ciekawe jednak było to, że pozycje dla starej były określane dla coraz to nowych podstron. Tak jak napisałem, jakby wyszukiwarka ta próbowała za wszelką cenę utrzymać starą domenę, zmieniając co chwilę podstrony jakie umieszczała w indeksie na daną frazę.
Miałem już z takim mechanizmem styczność w przypadku chwilowych filtrów na podstrony, gdy jej miejsce zajmowała inna podstrona ale nie na taką skalę.

Drugi przypadek to jedna z moich subdomen z zaplecza. Niestety dostała ona ten słynny filtr z końca lipca obniżający pozycję dla wszystkich fraz. Miałem już od jakiegoś czasu kupioną i zaindeksowaną domenę, na którą chciałem przenieść ten serwis ale jakoś czasu brakło. Filtr przyśpieszył tylko moje działania.
301 było zrobione w drugiej połowie sierpnia. Po 3 dniach zauważyłem wzrost ruchu i początkowe podstrony nowej domeny w indeksie a filtr się nie przeniósł, z czego się cieszyłem.
Początkowo subdomena była ładnie i sukcesywnie usuwana z indeksu Google. 7 listopada miała już tylko 8 podstron. Dzień później jednak, prawdopodobnie Google przywróciło stare indeksy, znowu było tych podstron 1,5 tys.
Dzisiejszego dnia W Google jest 1050 podstron w MSN 82 a w Yahoo… 17 tys. :)
Przyznam się, że akurat w tym przypadku zależało mi aby ta subdomena w miarę szybko zniknęła z indeksów.

Reasumując, jeśli zapomnisz przedłużyć domenę, nie musisz się tym martwić aż tak bardzo. Masz kilka dni na wpłatę a pozycje powinny być takie same.
Jeśli chcesz kupić jakaś nieużywana domenę z zaindeksowanymi podstronami pod Google, to możesz mieć problem. Jeśli Twoim targetem jest Yahoo to możesz się nie śpieszyć.
Przy 301 zaś, wyindeksowanie przekierowanej domeny może zając miesiące, więc jeśli robisz to po to by coś ukryć/usunąć to lepiej chyba najpierw wyindeksować podstrony w Google Sitemaps a później zrobić przekierowanie.

« Poprzednia stronaNastępna strona »

mkane blog
Przegląd prywatności

Ta strona używa plików cookie, abyśmy mogli zapewnić Ci jak najlepsze wrażenia z użytkowania. Informacje z plików cookie są przechowywane w przeglądarce użytkownika i pełnią takie funkcje, jak rozpoznawanie użytkownika przy ponownym wejściu na naszą stronę internetową oraz pomagają naszemu zespołowi zrozumieć, które sekcje strony internetowej są dla użytkownika najbardziej interesujące i przydatne.