Archiwum kategorii 'SEO'

Pozycjonowanie i nofollow vs Google

Od kilku dni na wielu blogach i forach trwa dyskusja ludzi zajmujących się pozycjonowaniem na temat informacji o tym, że Google „zmienia” politykę dotyczącą tego tagu w linkach.

Do napisania komentarza dotyczącego tej wiadomości zbierałem się kilka dni , w tym czasie trochę spraw się wyjaśniło.

Jak wiemy teoretycznie linki z nofollow nie przekazują mocy. Polemizowałbym z tym ale to nie wpis o tym.
Niektóre źródła podają, że nofollow powstało po to by oznaczać nim sprzedane linki.
Jak wiemy sprzedaż linków to coś czego Google bardzo nie lubi i jest to jeden z powodów dlaczego nie lubi ono pozycjonowania.

Stosujemy więc nofollow wtedy gdy nie chcemy przekazać gdzieś mocy (na pewno nie w sprzedanych linkach), najczęściej w stopkach do twórców skryptu/layoutu,
moja stopka z nofollow

w komentarzach na blogach, (u mnie tym atrybutem jest oznaczony link autora) oraz w treści komentarzy

komentarz nofollow

lub w treści gdy chcemy by „moc” nie wyciekała :)

nofollow w treści

Najczęściej jednak stosujemy ten znacznik w obrębie swojej witryny by tworzyć „ścieżkę SEO” czyli odpowiednio sterować mocą kierując ją do wewnątrz serwisu.

by uniknąć podwójnego linkowania do jednej podstrony lub tych, których może nie być w wyszukiwarce

nofollow - niepotrzebne podstrony oraz podwójne linki do tego samego miejsca

oraz nie wiadomo po co ale używam by później się tłumaczyć z tego (tłumaczenia nie przytaczam :) )

niedobre YouTube z nofollow

Jak widać jest to nagminnie stosowany atrybut linków przez „małych” i przez „dużych”.

Pozycjonowanie danego serwisu często wymusza takie techniki i co tu pisać często dzięki temu umożliwione jest pozycjonowanie długiego ogona.

Nadużywanie tego znacznika zdenerwowało niby Google i firma ta postanowiła zmienić algorytm by zniwelować pewne działania pozycjonerów.

Krótko o co chodzi w plotce, która stała się powodem do dyskusji

Do tej pory gdy na stronie było 5 linków wychodzących a trzy z nich miało rel=”nofollow”, cała moc niby przekazywana była poprzez te dwa nieoznaczone linki.
Po zmianie algorytmu te dwa nieoznaczone linki przekazywałby tylko 40% mocy a 60% szło by do kosza.
Czyli każdy link uczestniczy w dystrybucji mocy ale te z nofollow kierują je w otchłań, gdzie nikomu nie służy.

Trochę mnie ta informacja zdziwiła, bo Google cały czas promował ten znacznik i dalej to czyni.
W ostatnim wpisie pisałem o poradniku SEO PL by Google, tekst poniżej pozwoliłem sobie skopiować właśnie z tego dokumentu.

Kiedy jest to przydatne? Jeżeli strona zawiera blog z możliwością dodawania komentarzy, zawarte
w nich linki mogą przekazywać reputację witryny do stron, za które nie chcemy odpowiadać…..
….Ustawienie wartości „nofollow” dla
dodawanych przez użytkowników linków zapewnia, że ciężko zapracowana reputacja witryny nie
zostanie przekazana stronie ze spamem…….Innym użyciem oznaczenia „nofollow” jest sytuacja, gdy w treści mają się znaleźć odnośniki do innej witryny, ale nie ma być jej przekazana reputacja. …………….. Chcemy ostrzec innych przed witryną, więc zamieszczamy do niej link
w treści, jednakże nie chcemy oczywiście podzielić się z nią naszą reputacją. Jest to dobry moment na
użycie oznaczenia „nofollow”…..W końcu, jeśli żaden z linków na stronie nie ma być śledzony…Tę
metodę wpisuje się w postaci .

Ciekawe cały dział poświęcony temu atrybutowi, sam nie wiem co o tym myśleć….

Jak już pisałem od momentu pojawienia się tej plotki do dziś zabrał głos Matt Cutts oznajmiając nam, że się nie znamy bo te zmiany nastąpiły już ponad rok temu tylko nikt tego nie zauważył.

Przyznam się, że wcale bym się temu nie zdziwił. Po prostu jeśli w krótkim czasie zostało to zmienione w obrębie całego świata to mogliśmy to odczuć jako kolejną dużą czkawkę Google, z którą mamy do czynienia przynajmniej raz a często więcej razy każdego roku.
By wspomnieć tutaj słynne -70 z poprzednich wakacji lub nagłe wyindeksowania dużej ilości serwisów z roszadami w SERPach.

Można przetestować tą informację. By to zrobić trzeba stworzyć kilkanaście minimum serwisów. Wypozycjonować nimi jakąś prostą frazę a później sukcesywnie zwiększać na nich liczbę linków zewnętrznych okraszonych atrybutem nofollow.
Jeśli pozycje będą spadały, może to być efekt utraty mocy linków pozycjonujących z tech serwisów.

Ciekawi mnie to, więc jak znajdę czas zrobię taki test, jak wiemy taka informacja sprawdzona „organoleptyczne” może wpłynąć jedynie pozytywnie na pozycjonowenie serwisów, którymi się opiekujemy.

Na razie jednak pozostaje obserwować czy rację ma Matt i to już jest czy też nagle zostanie wprowadzone.

Czyli standardowo „robić swoje i czekać”….

Pozycjonowanie i optymalizacja – oficjalny poradnik Google PL

Kilka miesięcy temu pisałem o poradniku SEO dotyczącym optymalizacji a także pozycjonowania, jaki wyszedł z pod palca pracowników Google.

Kilka dni temu „Podręcznik startowy optymalizacji pod kątem wyszukiwarki Google” doczekał się tłumaczenia na nasz rodzimy język oraz 39 innych.

Podręcznik jest tylko przetłumaczony bez żadnych uaktualnień (a szkoda) i można go ściągnąć tutaj.

Zachęcam wszystkich do przeczytania tego podręcznika, niektórym przypomni parę informacji a innym dostarczy nowej wiedzy.

Ponownie nie będę opisywał jego zawartości, jeśli jednak ktoś chciałby bym ustosunkował się do któregoś z punktów to proszę o maila lub informację w komentarzu.

Wiosenne porządki – katalogi

Średnio dwa-trzy razy do roku siadam przed laptopem i sam dodaje parę serwisów do katalogów.
Jak wiemy kilka lat temu pozycjonowanie odbywało się głównie przez katalogi, później przyszedł nieszczęsny Adder, który zabił QlWeba, to samo robi teraz z Otwartym.mini (a może już zrobił..?).
Dziś traktuję katalogi jako źródło stałych, najczęściej słabych linków, na wielu IP. W katalogach najczęściej umieszczam linki o dość zróżnicowanych, przemieszanych, a niektórych stworzonych z ułańska fantazję anchorach.
Niektóre katalogi oczywiście traktuje jako pewne medium reklamowe, jednak głównie myślę o pozycjonowaniu.

Przy dodawaniu wspieram się pewnym programem, który wypełnia za mnie pola, o tym gdzie strona będzie dodana , decyduje moja skromna osoba.
W bazie miałem około 2000 katalogów. Dodawałem do bazy tylko katalogi na skryptach mniej popularnych, autorskich oraz Otwarty.mini, który mi się to kiedyś bardzo podobał.

To tyle tytułem wstępu :)

Moje narzędzie pokazuje mi PR danego katalogu, podczas dodawania. Niestety ostatnimi czasy, większość katalogów ma PR 0 a nawet N/A. W tamtym roku sprawdziłem kilkadziesiąt takich katalogów z N/A i najczęściej było one zaindeksowane i to całkiem nieźle.
Niestety wczoraj podczas dodawania sprawdziłem kilka w Google i okazało się, że nie ma ich tam..

Standardowo postanowiłem sprowadzić od razu wszystkie by niepotrzebnie nie dodawać do katalogów, których nie ma w Google.
Trochę to czasu trwało bo każdy sprawdziłem ręcznie, zmieniając wiele razy IP :) (oj Google mnie nie lubiło coś).
Wynik trochę mnie zaskoczył, pamiętajmy o tym że sprawdzałem katalogi, które działają i można do nich dodać stronę.

Usunąłem z bazy:

  • 8% kat. na skrypcie CNCat
  • 10% kat. autorskich
  • 11% kat. na mało popularnych i fajnych skryptach np IndexU, FreeGlobes itp
  • 27,5% kat. na skrypcie otwarty.pl mini

Dodatkowo 10 katalogów zostało usuniętych bo mnie ładnie Google ostrzegł, że mogą mi zrobić krzywdę a niestety najczęściej to prawda. Kilkanaście sztuk miało zaindeksowaną tylko jedną, jakąś głęboką podstronę – „pechowców nie potrzebujemy” :).
Tradycyjnie kilka katalogów było zaparkowanych, więc z nimi też się rozstałem.

Na oko patrząc 1/3 katalogów jakie przejrzałem ma site do 300 podstron, większość ma 300-1000 podstron w indeksie. Oczywiście są katalogi z 3,5 czy też 15k site w Google. Niestety to najczęściej nie jest cały katalog.
Można więc założyć, że albo dodajemy do powiedzmy 200 katalogów i dostajemy jakaś moc w miarę szybko co widać w pozycjonowaniu. Lub dodajemy do większej ilości ale wtedy na pozycjonowanie ma to często nikły wpływ do tego rozciągnięty w czasie.
Ostatnio Google nie lubi katalogów, wyindeksowuje je dość znacznie niezależnie prawie do mocy jaka jest na nie skierowana.
Trochę to dziwne bo znam fajne, branżowe katalogi, które naprawdę na takiej polityce cierpią i nic z tym nie można zrobić.

Podsumowując, jeśli i Wy macie takie bazy to proponuję sprawdzić je przynajmniej raz w roku by niepotrzebnie się nie męczyć z dodawaniem tam gdzie już to nie ma sensu..

rel=”canonical”

W dniu wczorajszym Google poinformowało nas o wprowadzeniu nowego tagu rel=”canonical”.
Co ciekawe tag ten będzie używany przez największą konkurencję Firmy Google – MSN oraz Yahoo, czyli wchodzi do standardu, który trzeba uwzględnić przy optymalizacji SEO danego serwisu.

Po co nam to ? Wg słów Pana Joachima Kupke dostaliśmy niesamowity zaszczyt decydowania o tym, które podstrony w naszym serwisie serwują daną treść, a które ją duplikują.

Jak wiemy od czasu objawienia się mechanizmu SI, duplikowana treść w obrębie witryny jest w pewnym stopniu problemem. Co widać często obserwując potężną liczbę zaindeksowanych podstron i nikły ruch generowany dzięki nim.

Przykładem niech będą serwisy działające na źle skonfigurowanych serwerach, które doklejają sesje do adresów. W takich serwisach bardzo często zaindeksowana jest ta sama podstrona kilkukrotnie.

Jak to używać?
Na podstawowej podstronie z treścią umieszczamy w sekcji < head > informację dla botów wyszukiwarek o treści :
< link rel="canonical" href="adres_właściwej_podstrony" />.

Czytając oficjalną informację od razu zacząłem się zastanawiać czy czasem nie będzie to oddziaływać na inne domeny. Wg informacji na blogu Google, nie będzie to działało ale z przekory dodałem rel=”canonical” do linków wychodzących z tego wpisu :)

Teraz pozostaje przetestować ten tag i jego prawdziwy wpływ na boty wyszukiwarki internetowe. Może będzie można wspomóc tym pozycjonowanie stron…

Moje linki w SWLach 2 – poletko pozycjonera

W sierpniu 2007 we wpisie Systemy – gdzie moje linki?, przedstawiłem Wam za ile linków „płacicie”, w systemach wymiany linków stałych, choć ich brak.

Po tym wpisie właściciel pewnego systemu, wziął się do roboty a po jej zakończeniu poprosił mnie o ponowne ich sprawdzenie. Oczywiście obiecałem, że to zrobię, nigdzie jednak nie podałem kiedy to uczynię :). Zajmuje się pozycjonowaniem, cierpliwość to moje drugie imię :).

Co tu ukrywać zabierałem się do tego od jesieni. Kilka dni temu usuwałem kilka moich serwisów z systemów i w jednym „zabrakło” mi punktów. Postanowiłem sprawdzić ile punktów tracę, „płacąc” za coś czego nie ma.

Według zasady „jak coś robisz, rób to dobrze”, postanowiłem wykonać sprawdzenie dla wszystkich systemów.

W początkowej fazie planowałem sprawdzić 500 linków z każdego SWL, jednak już przy pierwszym (Linkme), zwiększyłem tą liczbę do 1000szt. by wynik był jak najbardziej miarodajny.

Myślę, że jest to odpowiednia liczba linków by pokazać dokładnie co się dzieje w danym systemie.

Niestety podczas sprawdzania Linkme, przy założeniu 500szt., czekając aż automat skończy swoją pracę, ręcznie sprawdzałem dużą liczbę od razu wysyłając raporty. Po zmianie decyzji o ilości linków do sprawdzenia okazało się, że nie uzbieram w Linkme Elite 1000 szt. dlatego włączyłem do testu wersje SLIM.

Tym razem mój test obejmował pięć systemów a nie trzy jak poprzednio. Cztery polskie – LinkMe Elite i SLIM, Livelink, LinujPro oraz Linkorn.

Linkorna mogłem sprawdzić jedynie dzięki pomocy Jankiela z Tenso.pl, który udostępnił mi linki do sprawdzenia. W tym systemie nie mam konta i prawdopodobnie nigdy mieć nie będę, z wiadomych chyba powodów.

Ostatni, piąty system to zagraniczny SWL- Link-Vault.

Tym razem sprawdzenie przebiegało w trzech etapach.

Pierwszy etap – sprawdzenie linków automatem (z poprzedniego razu). Skrypt sprawdza obecność danego adresu w kodzie, zgłasza się jako “Mozilla/4.0 (compatible; MSIE 5.0; Windows NT), timeout ustawiony na 30 sekund.

Drugi etap – ponowne sprawdzenie skryptem, wykonane w dniu kolejnym.

Trzeci etap – sprawdzenie ręczne adresów, które wg skryptu nie emitowały moich linków.
W tym miejscu muszę dodać, że tylko w jednym przypadku okazało się, że skryptu monitował brak, mimo, że link był na stronie.

Dla adresów, które się nie otwierały lub widniał na nich error 500 sprawdzałem cache w Google. Jeśli go nie było sprawdzałem stopień zaindeksowania domeny i cache strony głównej. Jeśli był z tego miesiąca, oznaczałem link jako istniejący. Jeśli jednak był z tamtego roku a stopień zaindeksowania serwisu nikły, uznawałem, że link nie istnieje.
Adresy z error 404 i 403 na początku sprawdzałem cache oraz czy reszta serwisu też daje taki błąd. Jednak po kilkunastu oznaczonych w ten sposób adresach, postanowiłem zaliczać je od razu jako nie istniejące. Powód był prosty, zawsze reszta serwisu działała poprawnie a podstrona po prostu została skasowana.

Do testu wybrałem najdłużej linkowane strony. Wydaje mi się, że link umieszczony kilka tygodni temu częściej będzie emitowany niż taki, który „wisi” już od roku.

Przejdźmy do wyników…

LinkMe

Elite – sprawdziłem 885 linków, nie znalazłem 83 szt. w 52 domenach, co daje 6,55%
Slim – tutaj mogłem sprawdzić tylko 237 lokalizacji (wszystkie linki jakie posiadam :) ) z czego nie znalazłem linka w 25 miejscach, na 25 domenach, co daje 10,55%.

Patrząc na Elite i Slim jako całość sprawdzone zostały 1122 adresy – odnotowałem brak 83szt., na 77 domenach, co daje 7,4%.

Oczywiście podczas sprawdzania ręcznego znalazłem jedną zaparkowaną domenę i dwie zbanowane.
Jedna z domen zaś miała w indeksie tylko dwie podstrony z kopią z początków listopada 2008.

Stosunek braku linków na nie otwierających się stronach lub z 404 do tych, które po prostu ich nie emitują to około 50/50.

Zwróćcie też uwagę, że brakowało 83 szt. na 77 domenach. Ta informacja wydaje mi się dość istotna bo pokazuje jak przydziela ten system. Podejrzewam, że priorytetem jest rozmieszczenie linków na jak największej ilości domen. Za tym idzie prawdopodobnie fakt, że Googlowi łatwiej znaleźć naszego linka. Czytając dalej domyślicie się dlaczego o tym piszę.

Dla przypomnienia ostatnio Linkme tracił 13,33% naszych linków- jest jakaś poprawa :)

LiveLink

Sprawdziłem 1000 lokalizacji, nie znalazłem 146 szt. na 53 domenach – procentowo 14,6%.
Tak naprawę w tym przypadku niewiele jest to opisania. Stosunek nie otwierających się serwisów i 404 do braku linków wynosi około 10/90.
Niestety w tym systemie maksymalnie kuleje sprawdzanie czy linki są emitowane przez serwisy w systemie.
146 szt. i 53 domeny, możliwe, że to efekt małej ilości serwisów w systemie. Wydaje mi się jednak, że system tak losuje.

W poprzednim teście w tym systemie brakowało 20,83% – jest poprawa :)

LinkujPro

Ten zapomniany przez wielu system linków stałych naprawdę mnie zadziwił.
Sprawdzone było 1000 adresów, nie znalazłem 50szt. na 28 domenach.
Nie trzeba być matematykiem by określić, że uciekło gdzieś 5% linków.

50/50 to stosunek serwisów, które się nie otwierały lub dawały 404 do tych, które nie emitowały linków.

Naprawdę, w tym przypadku, jestem pozytywnie zaskoczony, myślałem, że ten zapomniany przez Boga SWL będzie w bardziej opłakanym stanie. Punkty tutaj są tanie, podobnie jak w LiveLinku i wydawało mi sie, że są na podobnym poziomie a tu proszę jaka niespodzianka.

Linkorn

Jak już pisałem ten system nie jest w moim kręgu zainteresowań i nie brałem go pod uwagę rozpoczynając ten test. Nie mam tam konta, więc nie miałem potrzebnych mi danych.
Udało się jednak przeprowadzić sprawdzenie tego systemu.

Ponownie sprawdzone zostało 1000 linków nie znalazłem 156szt. na 63 domenach.
Jak łatwo policzyć 15,6% to linki, które nie istnieją.

Stosunek nie otwierających sie stron i 404 do serwisów gdzie nie znalazłem linków to około 20/80.

Przyznam się, że ręce mi opadły jak policzyłem braki. I to jest ten system, który był niby jednym z najlepszych w Polsce, porównywany do LinkMe ? To jest ten system trącony boską ręką Mości Pana Anioła vel DirElite tudzież Paweł K., który ma doktorat z zakresu marketingu oraz ukończone studia doktoranckie obejmujące problematykę pozycjonowania (w Stanach Zjednoczonych i Wielkiej Brytanii). wg PWN :)
Dobrze, że się chłop ukrywa bo kolejny raz nie wytrzymałbym i napisał mu parę jakże „pochlebnych” słów.
LiveLink – rozumiem, Linkorn – a fe, niedobry linkorn….może Igthorn (pamiętacie tą bajkę? :) )

Link-Vault

Ojoj coś czuję, że ktoś mi zarzuci matactwo :)

Sprawdziłem oczywiście 1000 linków, nie znalazłem ich aż 7 razy (słownie: siedem razy) na 3 domenach co daje nam 0,7%.
W tym jedna domena nie działa a miała emitować 5 linków, na pozostałych dwóch linków po prostu nie było.

Podczas pierwszego sprawdzania skryptem, nie zostało znalezionych 28 szt. Pomyślałem sobie, że jest i tak nieźle. Po drugim sprawdzeniu zgłupiałem na tyle by sprawdzić ręcznie cała ilość nie dowierzając skryptowi.

W ostatnim teście brakowało w LV 5,31% linków – tak dla informacji.

I co tu pisać ? Że twórcy polskich systemów mogliby być „podnóżkiem” (Tołdi i jego Księciunio :)) dla twórców LV patrząc pod tym kątem mechanizmu sprawdzania emitowanych linków….
Zobaczcie jak wiele macie do zrobienia i jak wiele jeszcze macie do roboty, a jak nie to przyjdzie kiedyś ktoś kto zrobi to lepiej i……..

Ranking systemów pod kątem poprawności emitowania linków by mkane :).

  • 1. Link-Vault – 0,7%
  • 2. LinkujPro – 5%
  • 3. LinkMe – 7,4%
  • 4. LiveLink – 14,6%
  • 5. Linkorn – 15,6%

Według mojej oceny, trzy pierwsze pozycje to stan, który można zaakceptować, jednak 4 i 5 pozycja to tragedia. Na każde użyte 10k pkt w kosmos idzie około 1500 szt. mało ?
Potwornie dużo bo tą ilością można naprawdę wiele fraz zrobić, bez wielkiego myślenia nad tym.

Gorąco zachęcam wszystkich do kontroli swoich linków w SWLach.
Zwłaszcza tych, którzy pozycjonowanie wykonują głównie poprzez systemy.
Wyjdzie Wam to naprawdę na dobre….

« Poprzednia stronaNastępna strona »

mkane blog
Przegląd prywatności

Ta strona używa plików cookie, abyśmy mogli zapewnić Ci jak najlepsze wrażenia z użytkowania. Informacje z plików cookie są przechowywane w przeglądarce użytkownika i pełnią takie funkcje, jak rozpoznawanie użytkownika przy ponownym wejściu na naszą stronę internetową oraz pomagają naszemu zespołowi zrozumieć, które sekcje strony internetowej są dla użytkownika najbardziej interesujące i przydatne.