Archiwum kategorii 'SEO'

Adrenalina po Świętach?

Jak pewnie już niektórzy wiedzą szykuje nam się gorący koniec roku.

W jakiś czasie po uruchomieniu Binga przez Microsoft, świat obiegła informacja od Google, że nie zasypują oni gruszek w popiele i jeszcze temu Bingowi pokażą.

Odpowiedzią (jakąś taką nerwową) na poczynania M$ ma być nowy algorytm Google: Caffeine. Dzięki temu panująca nam wyszukiwarka ma być szybsza a wyniki mają być jeszcze lepsze i ma być w nich mniej spamu. Kusi mnie by napisać po prostu – „szybka, zwinna i ponętna”.

Google dało nam możliwość testowania nowego algorytmu, jednocześnie prosząc o komentarze i sugestie.

Od jakiegoś czasu jednak, przy próbie wejścia na adres z testową wyszukiwarką, zamiast niej pojawia się informacja, że testy się skończyły i już niedługo algorytm zostanie zdrożony.

Przez chwilę pozycjonerzy i cały „Internet” zastanawiał się kiedy to będzie, na chwilę obecną już to wiemy.

Nowy algorytm w pełni zostanie wdrożony po Świętach Bożego Narodzenia by zminimalizować problemy z handlem w tak gorącym okresie. Do tego czasu algorytm będzie powoli wdrażany dla części Internautów tak by mogli zareagować jakby okazało się, że testy są jednak dalej potrzebne.

Nie ukrywam, że czekam na wprowadzenie zmian z niecierpliwością. Sprawdzając w testowej wyszukiwarce parę fraz nie widziałem żadnych różnic na minus, nie widziałem też wielu plusów jeśli chodzi o pozycje.

Wiem jednak, że każda taka zmiana w Google powoduje mniejsze lub większe perturbacje i konieczność wzmożonej pracy po dokonaniu się zmian. Dlatego też chciałym mieć już to za sobą.

W grudniu do wszystkich moich klientów na pewno wyślę informację o zmianach jakie mogę nastąpić w pozycjach. Lepiej by byli na to przygotowani i nie dzwonili od razu w przypadku jakiś negatywnych zmian :)

Sam już zrezygnowałem ze wszelkich wyjazdów pod koniec roku by po powrocie nie zastać sytuacji zgoła odmiennej niż przed wyjazdem.

Jedno co wiem to fakt, że mimo wieszczenia w rożnych artykułach algorytm ten nie będzie gwoździem do trumny branży zajmującej się pozycjonowaniem stron.

Zasadnicze zmiany są za małe by tak się stało, przetasowania mogą jednak być… a to może wielu podnieść poziom adrenaliny…

Linki + treść = dziwne frazy

Mateusz w komentarzu o Wikipedii na wp.pl napisał:

Aż dziw pomyśleć, że trafiłem na Twój blog szukając hasła:
pozycjonowanie viagra komentarze blog

wklepane aby pokazać znajomemu blog na który do komentów trafiły roboty spamerów… ot niespodzianka.

Odpowiadając Ci Mateuszu, muszę napisać, że nie jest to takie dziwne jakby ktoś mógł sądzić.
Jak sam zauważyłeś, spamowanie poprzez komentarze na blogach jest zjawiskiem bardzo popularnym.
Niestety i na moim blogu taki spamik pojawia się notorycznie, w mniejszych lub większych falach.
Pomiędzy twoim komentarzem a poprzednim było 49 śmieci, które tak naprawdę nie wiem po co ktoś z premedytacją próbuje umieścić na tym blogu.
Wszystkie komentarze u mnie mają atrybut „nofollow” w linkach a jak dowodziłem w poprzednim wpisie (już włączyłem komentowanie :) ) takie linki niewiele pomagają a prawdopodobnie wcale…

Zdaję sobie jednak sprawę z tego, że na kilkadziesiąt tysięcy blogów, które obleci taki spamer, jakiś procent będzie miał aktywne linki, więc będzie pewnie jakiś chwilowy plus ze śmiecenia na blogach.

Dlaczego jednak pojawiam się na taki wyszukiwanie jak Twoje?
Niewiele trzeba się mojemu blogowi przyglądać by zauważyć, że frazy „pozycjonowanie” mam w topie a „blog” też jest w topie oraz dodatkowo w tytule. Fraza „komentarze” pojawia się przy urlach do poszczególnych wpisów, jeśli jest ich więcej 1szt.

Oprócz faktu, że mam te trzy frazy w treści, mój blog posiada znaczną ilość linków na frazy zwierające „pozycjonowanie” oraz „blog”, dzięki czemu jestem widoczny przy zapytanie „pozycjonowanie blog” i odwrotnie. Oczywiste więc jest, że będę też wysoko na frazę pozycjonowanie komentarze blog

Ostatnim elementem mojego wyjaśnienie niech będzie ten o to przed chwilą zrobiony screen

Jest to „kawałek” kopii (cache:) jaką wykonało Google. Pojawienie się mojego bloga na taką frazę wyjaśnia widniejące tam zdanie „Znalezione tyko w linkach do …” (pisownia oryginalna :) )
Jak widzimy ta nieszczęsna fraza, której staram się nie pisać :) znajduje się jako anchor, w linkach do mojego bloga.

Mechanizm jest więc prosty, ktoś sieje po blogach spamem w komentarzach a później linkuje do tych blogów by wypozycjonować jakiś swój spamik. Wszystko jest robione automatycznie więc ten ktoś nie wie nawet, że spamerskich komentarzy u mnie nie ma.

Jest też drugie wyjaśnienie tego zjawiska, mam nadzieję, że bardzo nieprawdopodobne. Jakiś „życzliwy pozycjoner” testuje sobie coś na moim blogu lub próbuje……

Ech sami wiecie co się ostatnio w naszej branży dzieje…

Tym razem komentarze na pewno włączyłem :)

Indeksacja – linki nofollow

Ostatnimi czasami o „nofollow” wiele się mówi i pisze, dlatego też po pytaniu jakie zadał mi pewien pozycjoner postanowiłem przetestować czy można zaindeksować coś linkami oznaczonymi rel=”nofollow”.
Na PiO dawno temu był przedstawiony wynik takiego testu, który wskazywał, że takie linki nie są dla nas przydatne przy pozycjonowaniu.

Ciekawy byłem czy coś się zmieniło przez ten czas, tym bardziej, że od mojego prywatnego testu dotyczącego tego zagadnienia minęło już ponad 2 lata.

Test rozpocząłem 20.07.2009r. Utworzyłem dwie subdomeny poprzez wpisy w DNS. Zawartość tych domen patrząc pod kątem treści i struktury linkowania wewnętrznego była taka sama.

Test trwał do 3.09.2006. godziny 16.00, kiedy to z moich linków usunąłem rel=”nofollow”.

Po usunięciu sprawdziłem ile linków wskazuje Yahoo.

Dla pierwszej domeny Yahoo pokazywało, że linków jest

dla drugiej było ich trochę wiecej

Od razu dopowiem, że podczas linkowania na początku testu wydawało mi się, że moc domen, na których umieszczam linki jest podobna. Jak widać Yahoo inaczej to widzi i może być to wielce mylące o czym napiszę na końcu.

Przez cały okres testu bot Google nie pojawił się ani razu na żadnej z witryn.
Za to częstymi gośćmi były boty:
– Yandex/1.01.001 – odwiedzał tylko stronę główną
– Gaisbot/3.0+ – jak powyżej
– OOZBOT/0.20 – jak powyżej
– Tagoobot/3.0 – jak powyżej
– Baiduspider+ – a ten gagatek odwiedził naprawdę niezłą ilość podstron.

Podsumowując, co już chyba jest oczywiste – żadna z domen w chwili zakończenia testu nie miała zaindeksowanej podstrony w Google, nie nadają się więc te linki dla nas pozycjonerów.

Wydaje mi się, że opinie ludzi o zliczaniu ich do PR jest to tylko pobożne życzenie lub mylne wyciąganiem wniosków.
Wydaje mi się, że jeśli miałby one jakąś moc to Google przynajmniej odwiedzałoby te domeny.

Drugą częścią mojego testu była chęć sprawdzenia co się stanie po ściągnięciu nofollow.
Dokładnie o 16.00 linki zostały zmienione.
Na domenę o mniejszej ilości linków (by Yahoo) Google weszło o 18.05 a na drugą o 18.08. Jak widać tak jakby tylko bot czekał na pozwolenie by wejść i sprawdzić co na tych domenach jest.

Jednak na zaindeksowanie tych subdomen musiałem trochę poczekać. Pierwsza w indeksie Google pojawiała się domena, której znowu Yahoo wskazywał mniej linków, pojawiała się 15.09.2009 0 ilośc widocznych podstron – 47szt.
Druga domena pojawiłą się dzień później czyli 16.09.2009 z ilością zaindeksowanych podstron równą 1.

Jak dla mnie trochę długo trwało zanim pojawiały sie te domeny w indeksie. Czekając na nie zaindeksowałem parę domen, średnio trwało to 3-5 dni a tutaj trzeba było aż 12 dni.
Może tym razem to przypadek ale wydaje mi się, że po ściągnięciu nofollow Google musi jakby „zatrybić”, że już nie ma tego atrybutu i można wyświetlać.
Oczywiście bym był tego pewien musiałbym wykonać jeszcze raz taki test i sprawdzić czas od usunięcia nofollow do pojawienia się w indeksie.

Dziś dla pierwszej domeny Yahoo twierdzi, że ilość linków to:

a Google w swoim indeksie ma 6090 podstron.
Druga domena to

linków i 3280 podstron w Google.

Na koniec jeszcze jedna uwaga, bo chciałbym byście to zauważyli.

Mimo, że linki były nofollow Yahoo ładnie je pokazywało. Dziś zaś domena, która ma niby według tej wyszukiwarki ponad 30 razy więcej linków, ma prawie dwa razy mniej zaindeksowanych podstron w Google.

Nie chcę pisać gdzie można informację o zliczaniu przez Yahoo linków nofollow wykorzystać, sami się pewnie domyślicie.

Na tym przykładzie ładnie też widać, że to co wskazuje Yahoo może nie mieć odzwierciedlenia w Google.

Może wyciągam za daleko idące wnioski ale jak widać pozycjonowanie stron lub nawet sama indeksacja takimi linkami to chyba nie bardzo trafiona inwestycja.

Z pamiętnika: błąd pozycjonera

W ciągu ostatnich tygodni parę osób pytało się mnie co się stało, że mój blog wypadł z top20 na pozycjonowanie i pozycjonowanie stron.

Zastanawiałem się chwilkę czy publicznie się tutaj obnażyć :) i pokazać, że też popełniam błędy. Tylko chwilkę bo doszedłem do wniosku, że warto to napisać by pokazać, że w naszej pracy trzeba pamiętać o wszystkich co się robi.

Zacznę przekornie trochę od końca :)

Pewnego pięknego dnia postanowiłem przyjrzeć się dlaczego zegar systemowy na pewnym moim serwerze, nie wskazuje poprawnej godziny.

Na każdym z moich serwerów synchronizuję czas z jakimś serwerem czasu, dlatego byłem tym faktem mocno zdziwiony. Przejrzałem skrypcik, który za to odpowiada i znalazłem trywialny błąd w ścieżce. Poprawiłem to i zapomniałem o sprawie.

Następnego dnia mój serwer przestał dawać jakiekolwiek oznaki życia. Telefon do serwerowni – hard reboot – serwer wstał. Oczywiście spędziłem trochę czasu na analizę logów, nic nie znalazłem. Pozostaje czekać a w duchu nadzieja, że to tylko ten jeden raz.

Nadzieja mnie nie opuszczała aż dwa dni :), oczywiście do czasu gdy serwer znowu padł. Znowu musiałem poprosić o pomoc „Pana z serwerowni”, znowu szukanie w logach i nic…

Nie czekałem wiele, w kolejnym dniu pojechałem i wymieniłem dysk, przeniosłem dane i odpaliłem serwer. Oczywiście z nadzieją na koniec problemów a jeśli nie to czeka mnie wymiana pamięci.

Nawet mi to pasowało bo chciałem zwiększyć tam ilość ramu z 4 do 8Gb.

Czekam więc, zadowolony, że mi szybko poszło. Wymiana dysku z przeniesieniem danych to tylko 20 minutowa przerwa w dostępności dla ludzi i botów.

Niestety następnego dnia serwer padł, miałem już wybrane pamięci, jednak podczas ponownego przeszukiwania logów znalazłem coś ciekawego.

Zawieszanie się serwera następowało kilka godzin po komunikacie o braku synchronizacji procesora z czasem systemowym. Trochę poszukałem w necie i okazało się, że taki efekt, daje przełączenie sposobu obliczania godziny z biosu na jedną z usług (hwclock –systohc).

Podczas czytania o tym okazało się, że w niektórych konfiguracjach sprzętu, w takiej sytuacji następuje kuriozalna próba obniżenia taktowania procesora tak by się zsynchronizował z czasem systemowym.

Najprościej pisząc, procesor chodził coraz wolniej by się dostosować do czasu systemowego. Nie wiem czy finalnie procesor tak zwalniał że nie dawał rady przeliczać, czy też po prostu się zawieszał. Efekt był taki, że maszyna nie odpowiadała nawet na ping.

Wstrzymałem więc uruchamianie skryptu do synchronizacji, postanowiłem poczekać z zakupem pamięci i znowu z nadzieją czekam co będzie dalej.

Tydzień później okazało sę, że był to strzał w 10. Pracy mam wiele, więc rozwiązane = zapomniane.

(trochę długi mi wyszedł ten „koniec” :) )

Z pewnością, że to koniec problemów zbiegły się nagłe spadki pozycji mojego bloga o 10-20 miejsc. Odebrałem to jako czkawkę i niewiele się tym przejąłem.

Kilka dni później wszedłem na LinkMe i gdzie okazało się, że makabrycznie spadła mi ilość punktów, dodatkowo jedna ze stron mojego zaplecza posiada „brak autoryzacji” i nie można jej ponownie autoryzować.

Punkty spadły mi na tyle by dla każdej linkowanej nim strony rozpoczął się proces automatycznego ściągania linków. Najbardziej oberwały dawno dodane strony, w tym ten blog. Liczba linków spadła o jakieś 40%. Już wiedziałem dlaczego pozycjonowanie bloga nie powoduje utrzymania lub wzrostu pozycji tylko ich spadek.

Gwoli wyjaśnienia do tego bloga prowadzi bardzo mało linków, jest to ciągle swoistego rodzaju mój test i utrata nawet 50-100 linków, które mają minimum 2 lata jest bolesna.

Sprawę punktów rozwiązałem, zakasałem rękawy by pozycje wróciły i ponownie o sprawie zapomniałem.

Jednak to jeszcze nie koniec tej historii…

Pod koniec lipca mój blog poleciał w otchłań poza top100. Zdziwiłem się mocno bo aż tyle linków nie straciłem by zasłużyć na taki los. Niewiele mogłem jednak zrobić oprócz kontynuowania mojej strategi.

Na początku sierpnia rutynowo zalogowałem się na moje konto w Link-Vault, do którego loguje się średnio raz na kwartał.

Od razu wyjaśniła się sprawa mojego spadku.

W tym systemie mam dodaną tylko jedną witrynę z zaplecza ponieważ i tak nigdy nie udało mi se wysycić wszystkich punktów jakie otrzymałem. Konto w tym systemie mam gdzieś od 4 lat.

Tą jedną, jedyną moja witrynę spotkał taki sam los jak jej „koleżankę” w LinkMe. System odrzucił ją jakoby nie wyświetlane były na niej linki.

Efektem braku strony dającej punkty było to, że przy każdej linkowanej w tym systemie witrynie, zamiast linków, widniała liczba 0.

Linki do tego bloga w tym systemie budowały się powoli przez ostatnie 3,5 roku. Nie było ich dużo, około 700 szt.

Jak widać jednak były dość ważne. Podejrzewam, że miałem tu linki z zaplecza pozycjonowanego na „pozycjonowanie”. Ktoś ładnie wspierał moje testy.

Ciekawostką jest to, że po ponownej autoryzacji tej samej witryny dostałem za nią dwa razy więcej punktów niż przedtem.

Podsumowując przez jakieś dwa tygodnie straciłem do bloga kilkaset linków bo, jak widać, nie traktuje poważnie systemów.

Nie przez to, że miałem problemy z serwerem, czego efektem było utracenie punktów. Tylko przez to, że nie pomyślałem po problemach by wszystko sprawdzić. Zająłem się po prostu czymś innym.

Dodam też, że adresy e-mail jakie podaje do kontaktu prawie nigdy nie odbieram.

Do LV loguje się sporadycznie bo nie mam po co, do tej pory ten system był najodporniejszy na wszelkie problemy z serwerem. Polskie systemy przysyłały monity a LV cierpliwie czekał.

Przez ostatnie parę dni obserwuję, że pozycje bloga rosną, jednego dnia „pozycjonowanie stron” – 100 pozycja, innego „pozycjonowanie” – 70. Tydzień temu obydwie frazy były w okolicy top200, jest więc tendencja wzrostowa co mnie cieszy.

Odbudowa struktury linków trochę potrwa ale jako pozycjoner nie przejmuję się tym – cierpliwości u mnie nie brak. Poczekamy to wrócimy :)

Jest i pozytywna strona mojego niedopatrzenia bo przestały do mnie przychodzić seryjne zapytania o pozycjonowanie :)

Czy mam karę za pozycjonowanie?

Przypadkowo trafiłem na searchenginejournal.com na wpis o tym jak rozpoznać, że Google nas przestało lubić.

Co jakiś czas dostaję wiadomość z pytaniem czy dana strona została obłożona filtrem lub zbanowana, mam nadzieję, że ten wpis komuś pomoże.

Określenie tego czy usunęli nas z wyników wyszukiwania jest proste. Używamy do tego operatora „site: nazwa_domeny” wpisując to w okno zapytania w Google.

Wynik może być dwojaki. Pierwszy to wyświetlenie wszystkich zindeksowanych podstron tak jak tu wtedy o banie nie może być mowy. Jeśli jednak zastaniemy taką sytuację to możemy zacząć się martwić. (moja domena z www. to tylko przykład :) )

Jeśli nic nie zostanie znalezione a domena jest stara i dobrze podlinkowana to na 99% zostaliśmy usunięci z wyników wyszukiwania. Śmiem twierdzić, że rozsądne pozycjonowanie z głową, nie może być przyczyną takiej kary. Najczęściej ban jest powodem śmiecenia w internecie lub na tej stronie, która została usunięta.

Jeśli jednak domena jest młoda lub prowadzi do niej mało linków to proponuję jeszcze nie wpadać w panikę.

W ciągu ostatnich 3 miesięcy cztery moje domeny znikły z wyszukiwarki. Od razu dodałem do nich nowe linki zachodząc w głowę dlaczego się tak stało. Po dwóch tygodniach wszystkie ponownie były w indeksie, co wskazuje na to, że po prostu linki, które do nich prowadziły były za słabe lub było ich za mało.

Podsumowując : mało linków/młoda domena – dodać trochę linków i poczekać!

Drugą sprawą jaką chce poruszyć w tym poście są filtry.

Filtr to celowe działanie algorytmu wyszukiwarki powodujące określone perturbacje niekorzystnie wpływające na filtrowaną witrynę/domenę. Filtry mogą dotyczyć pozycji fraz lub ilości podstron znajdujących się w indeksie wyszukiwarki.

Filtr prędzej czy później czeka każdego kto zajmuje się pozycjonowaniem stron lub udaje, że to robi. Niektórzy twierdzą, że „oni jeszcze nigdy” – jeszcze może nie ale i na nich przyjdzie czas :)

Poniżej przedstawiam parę czynności, które warto zrobić jeśli podejrzewasz, że serwis dostał filtr:

Sprawdź pozycje na interesujące Cię frazy

Warto sprawdzić pozycje na pozycjonowane frazy oraz frazy z „naturalnego” ruchu, które można znaleźć w statystykach. Jeśli wszystkie sprawdzone frazy są niżej niż były – prawdopodobnie filtr.

Spójrz na statystyki – zwróć uwagę na to czy ruch nagle nie zmalał lub systematycznie nie maleje

Statystyki naprawdę wiele nam powiedzą. Jeśli nagle w ciągu 2 dni ruch spadł o 90% – filtr.
Jeśli ruch maleje systematycznie to filtr już nie jest taki pewny, warto jednak popracować na serwisem.
W sytuacji gdy ruch maleje na jakiś okres czasu warto zastanowić się czy powodów nie można szukać gdzieś indziej niż w filtrach. Może były jakieś Święta lub po kilku dniach deszczu nagle zrobiła się słoneczna pogoda i ludzie pojechali na działki grillować.

Sprawdzaj indeksowanie się serwisu (site: nazwa_domeny] w Google – szukaj drastycznych spadków lub stałej tendencji spadkowej

Sprawdzanie site może ci pomóc w diagnozie, jednak nie zawsze zmniejszające się cyfry to na 100% filtr. Za to jeśli miałeś 1000 podstron w indeksie a nagle robi się z tego 2 szt. i mimo linkowania przez kilka tygodni nic się nie zmienia – prawdopodobnie filtr.

Upewnij się, że nie ma żadnych problemów z witryną w Google Webmaster Tools.

To rada oczywiście do tych, którzy dodają swoje serwisy do tego narzędzia Google. Pozycjonując dany serwis często to robię, nie uważam by było to straszne zagrożenie, za to mam dużo ciekawych informacji np o frazach na jakie pojawia się dana witryna w wyszukiwaniu.
Przeglądając informacje trzeba zwrócić uwagę na wszelkie problemy i błędy jakie Google łaskawie poda o serwisie. Może się np. zdarzyć, że bot nie może od 2 tygodni dostać się na stronę bo przypadkowo zmieniliśmy robots.txt lub właściciel hostingu odciął nie ten zakres ip co trzeba.

Sprawdź kiedy były ostanie odwiedziny bota Google.

Częstotliwość odwiedzin botów wyszukiwarek jest zależna od wielu czynników, jeśli jednak serwis jest pozycjonowany a bot był ostatni raz miesiąc temu to nie jest to dobry znak.

Zwróć uwagę na PageRank – N/A lub szary pasek w twoim pluginie to zły znak

Tu niewiele można napisać, znikający PR zawsze oznacza problem. Brak linków do tego nie doprowadzi, PR spadnie najwyżej do 0. Jeśli tak będzie można przebudować serwis i dodać nowe linki, po kilku miesiącach sytuacja prawdopodobnie zmieni się na lepsze.
Jeśli jednak jest N/A czyli brak PR to prawdopodobnie coś przeskrobaliśmy albo mamy serwis z potężną duplikacją treści np katalog stron – to jest filtr.

Sprawdź na jakiej pozycji jesteś wyszukując po prostu nazwę swojej domeny

Tu trzeba wprowadzić dwa warianty:
– serwis posiada unikalną nazwę domeny – wyszukujemy po prostu ją wpisując bez hierarchii (.pl, .com itp itd)
– nazwa nie jest unikalna – wyszukujemy ja w wpisując nazwę z hierarchią używając cudzysłów np „mkane.antygen.pl”.
W obydwóch przypadkach jeśli szukając swojego serwisu nie znajdziesz go maksymalnie na pierwszej lub drugiej stronie – prawdopodobnie filtr.
Już sam fakt, że witryna nie jest na pierwszym miejscu wyników może być niedobrym znakiem.
Jeśli pozycja jest taka sama jak przy innych znanych Ci frazach np w okolicy 50 pozycji – filtr.

Sprawdź, czy Google nie uważa, że witryna jest „niebezpieczna”: http://www.google.com/safebrowsing/diagnostic?site=twoja_nazwa_domeny

To narzędzie prawdopodobnie nie jest ci znane, warto jednak sprawdzić co tutaj piszą.
Jak widzisz jest tu informacja o tym, czy witryna znajduje się na liście niebezpiecznych stron (oznaczonych – „ta witryna może wyrządzić …..”. Znajdziesz też tu informacje kiedy ostatnio była sprawdzana i kiedy zostało znalezione coś niepokojącego. Dodam tylko, aczkolwiek chyba nie muszę, że informacja o tym, że serwis znajduje się na liście niebezpiecznych witryn nie jest pozytywną informacją.

Sprawdź kod HTML witryny czy nie ma tam linków do stron, których nie znasz lub nie zawiera tekstu, którego nie umieszczałeś.

Ten punkt wykonuję w miarę często, jeśli pozycjonuję lub opiekuję się jakimś serwisem. Po pierwsze najczęściej nie mam wpływu na różne prace deweloperskie i sprawdzam czy czegoś nie dodali lub zmienili. Po drugie szukam śladów „włamania”.
Jeśli serwis stoi na publicznym skrypcie naprawdę warto to sprawdzać bo można się któregoś dnia zdziwić, że ze strony wychodzi 150 linków do farmacji w rosyjskich domenach.
Można też znaleźć tysiąckrotne powtórzenie pozycjonowanego słowa bo ktoś życzliwy chciał wspomóc pozycjonowanie np webmaster, który się naczytał za wiele różnych blogów :).
Jak łatwo się domyślić w obydwu przypadkach Google nie potraktuje tego jako plus – mniemam, że reakcja będzie zgoła odmienna.

Sprawdź swoje inne witryny, niektórzy twierdzą, że Google może karać witryny jednego właściciela na jednym IP

Zdarzyło mi się kilka razy słyszeć o takich „seriach”. Karane były wszystkie serwisy bez wyjątku.
Wydaje mi się jednak, że aby dostać taką „promocję” trzeba trochę namieszać. Jak mocno musiałby wkurzyć Google jeden serwis by poleciało 50 ? Jeśli jednak 45 serwisów dostanie „żółtą kartkę” to może profilaktycznie pozostałe 5 też je otrzyma ….

Skopiuj dłuższy tekst (unikalny) ze swojej strony i wyszukaj go używając cudzysłowów – pozycja powinna być pierwsza

Nie ograniczaj się tylko do głównej strony Twojego lub pozycjonowanego serwisu. Sprawdź parę tekstów. Zawsze powinieneś być na pierwszej pozycji.
Jeśli nie jesteś na pierwszym miejscu to zastanów się czy ten tekst na pewno jest unikalny, napisany przez Ciebie. Jeśli jest na 100% unikalny a nie jesteś TOP1 to jest problem.
Rozwinięcie w kolejnym punkcie.

Podczas wyszukiwania skopiowanie długiego tekstu (unikalny) ze swojej strony sprawdź czy nie ma go w innych serwisach – kliknij „powtórzyć szukanie we wszystkich stronach” lub dodaj na końcu &filter=0

Jeśli Google pokazuje, ten tekst na innych stronach sprawdź dlaczego tak jest. Może to tylko naprawdę cytat, jeśli jednak cały tekst jest skopiowany interweniuj. Tak samo jeśli okaże się, że cała strona posłużyła komuś do stworzenia swojego serwisu.

Powielenia teksów jest w Internecie zmorą, często się mówi, że przodują w tym pozycjonerzy. Jest w tym sporo racji, bo wiele osób używa mniej lub bardziej udanych skryptów. Korzystając przy tym z różnych teksów, tworząc swoje zaplecze do pozycjonowania stron. Uważam jednak, że to spamerzy są większą plagą niż pozycjonerzy. Z drugiej strony jeśli ktoś kopiuje w dużym stopniu kogoś pracę trudno go nazwać pozycjonerem tudzież spamerem – są na to inne określenia nie przystające do tego bloga…

A może każdy pozycjoner jest spamerem ? :)

Podsumowując – klonowanie przez kogoś Twojej treści „jest be” i trzeba na to uważać bo można dostać filtr.

Zainteresuj się ilością linków prowadzących do witryny – sprawdzaj w Yahoo używając linkdomain lub w Google Webmaster Tools

Osobiście bardzo często sprawdzam ilości linków do witryn, które pozycjonuje. Robie to raz na 1-2 tygodnie, mam do tego odpowiednie skrypty. Nagły wzrost lub spadek ilości linków może być wynikiem czynników, na które nie masz wpływu np. konkurencja z nadmiarem punktów w jakimś systemie.
Oczywiście może to być też wynik Twoich mniej lub bardziej przemyślanych działań przy pozycjonowaniu.
Jeśli jednak dodajesz serwis do 10 katalogów lub precli dziennie to na pewno Yahoo nie powinno pokazywać kilkudziesięciu tysięcy linków.

Dlaczego Yahoo? Nie jest to idealne rozwiązanie, ta wyszukiwarka też ma swoje humory jednak sprawdzanie linków w Google mija się z celem, ponieważ ta wyszukiwarka pokazuje jedynie malutką próbkę.
W Google Webmaster Tools ilości już bardziej odpowiadają rzeczywistości jednak to narzędzie też ma swoje humory i nieraz pokazywane są jakieś dziwne wartości.

O czymś zapomniałem ? Jeśli tak to mi przypomnij :)

Mam nadzieję, że te parę słów o pomoże Wam zdiagnozować czy pozycjonowane przez Was witryny zostały zaszczycone jakimś filtrem czy tylko jest to kolejna „czkawka Google”.

« Poprzednia stronaNastępna strona »

mkane blog
Przegląd prywatności

Ta strona używa plików cookie, abyśmy mogli zapewnić Ci jak najlepsze wrażenia z użytkowania. Informacje z plików cookie są przechowywane w przeglądarce użytkownika i pełnią takie funkcje, jak rozpoznawanie użytkownika przy ponownym wejściu na naszą stronę internetową oraz pomagają naszemu zespołowi zrozumieć, które sekcje strony internetowej są dla użytkownika najbardziej interesujące i przydatne.