36 rad dotyczących optymalizacji stron internetowych

Dzięki optymalizacji pozycjonowanej strony możemy pomóc sobie w szybszym i łatwiejszym pozycjonowaniu. Często zapominamy o takich działaniach lub optymalizujemy tylko najważniejsze rzeczy a warto poświecić trochę czasu na to by później było łatwiej.
Bywa przecież, że kilka zmian na stronie owocuje natychmiast dobrymi wynikami fraz, dzięki temu możemy naszą energię skierować do walki o pozycje innych fraz.

Poniżej, w punktach, napiszę o czym moim zdaniem warto pamiętać.

Optymalizacja

1. Przed optymalizacją warto zastanowić się, jaki cel mają zmiany. Optymalizujemy całą witrynę po to by dostosować ją do aktualnych “wymagań” wyszukiwarki, czy może pracować będziemy tak by podbić daną frazę.
Jeśli optymalizację robimy pod kątem frazy warto szczególnie skupić się na tych podstronach, które są wg wyszukiwarek związane z daną frazą.
By dowiedzieć się jaka to może być podstrona sprawdzamy się wyniki wyszukiwania. Jeśli znajdziemy – wiemy nad czym mamy popracować. Jeśli w TOP1000 nie ma żadnej podstrony naszego serwisu, wyszukujemy taką podstronę zawężając wyniki tylko do naszej witryny. (site:nasz-serwis.pl fraza)

2. Może się zdarzyć, że mimo pozycjonowania strony głównej wyszukiwarka premiować będzie jakąś podstronę, warto się więc zastanowić czy na pewno wybraliśmy odpowiednie miejsce w naszej witrynie do pozycjonowania. Nie upierajmy się przy tym co postanowiliśmy, wyszukiwarka mogła niestety zadecydować za nas. Optymalizacja powinna jednak dotyczyć obydwóch miejsc.

…Czytaj dalej »

Usuwanie z Google podstron witryny, której nie jesteś właścicielem

Na wiosnę Google rozbudowało mechanizmy usuwania witryn lub podstron w Google Webmaster Tools (GWT).

Na bogu dla webmasterów, we wpisie na ten temat, można było przeczytać

You can cancel removal requests for any site you own at any time, including those submitted by other people.”.

Zainteresowało mnie to, jeśli gdzieś będę miał informację o tym, że ktoś poprosił o usunięcie mojej podstrony w Google, sam też będę mógł to zrobić tzn usunąć treść związaną z witryną, którą nie zarządzam.

O sprawie zapomniałem na jakiś czas, ostatnio jednak na prośbę pewnej osoby usunąłem z mojej witryny jedną z podstron. Chciałem też ją usunąć z indeksu Google (zawsze tak robię gdy ktoś prosi o usunięcie np danych osobowych z moich witryn).
…Czytaj dalej »

Czy mam karę za pozycjonowanie?

Przypadkowo trafiłem na searchenginejournal.com na wpis o tym jak rozpoznać, że Google nas przestało lubić.

Co jakiś czas dostaję wiadomość z pytaniem czy dana strona została obłożona filtrem lub zbanowana, mam nadzieję, że ten wpis komuś pomoże.

Określenie tego czy usunęli nas z wyników wyszukiwania jest proste. Używamy do tego operatora “site: nazwa_domeny” wpisując to w okno zapytania w Google.

Wynik może być dwojaki. Pierwszy to wyświetlenie wszystkich zindeksowanych podstron tak jak tu wtedy o banie nie może być mowy. Jeśli jednak zastaniemy taką sytuację to możemy zacząć się martwić. (moja domena z www. to tylko przykład :) )

Jeśli nic nie zostanie znalezione a domena jest stara i dobrze podlinkowana to na 99% zostaliśmy usunięci z wyników wyszukiwania. Śmiem twierdzić, że rozsądne pozycjonowanie z głową, nie może być przyczyną takiej kary. Najczęściej ban jest powodem śmiecenia w internecie lub na tej stronie, która została usunięta.

Jeśli jednak domena jest młoda lub prowadzi do niej mało linków to proponuję jeszcze nie wpadać w panikę.

W ciągu ostatnich 3 miesięcy cztery moje domeny znikły z wyszukiwarki. Od razu dodałem do nich nowe linki zachodząc w głowę dlaczego się tak stało. Po dwóch tygodniach wszystkie ponownie były w indeksie, co wskazuje na to, że po prostu linki, które do nich prowadziły były za słabe lub było ich za mało.

Podsumowując : mało linków/młoda domena – dodać trochę linków i poczekać!

Drugą sprawą jaką chce poruszyć w tym poście są filtry.

Filtr to celowe działanie algorytmu wyszukiwarki powodujące określone perturbacje niekorzystnie wpływające na filtrowaną witrynę/domenę. Filtry mogą dotyczyć pozycji fraz lub ilości podstron znajdujących się w indeksie wyszukiwarki.

Filtr prędzej czy później czeka każdego kto zajmuje się pozycjonowaniem stron lub udaje, że to robi. Niektórzy twierdzą, że “oni jeszcze nigdy” – jeszcze może nie ale i na nich przyjdzie czas :)

Poniżej przedstawiam parę czynności, które warto zrobić jeśli podejrzewasz, że serwis dostał filtr:

Sprawdź pozycje na interesujące Cię frazy

Warto sprawdzić pozycje na pozycjonowane frazy oraz frazy z “naturalnego” ruchu, które można znaleźć w statystykach. Jeśli wszystkie sprawdzone frazy są niżej niż były – prawdopodobnie filtr.

Spójrz na statystyki – zwróć uwagę na to czy ruch nagle nie zmalał lub systematycznie nie maleje

Statystyki naprawdę wiele nam powiedzą. Jeśli nagle w ciągu 2 dni ruch spadł o 90% – filtr.
Jeśli ruch maleje systematycznie to filtr już nie jest taki pewny, warto jednak popracować na serwisem.
W sytuacji gdy ruch maleje na jakiś okres czasu warto zastanowić się czy powodów nie można szukać gdzieś indziej niż w filtrach. Może były jakieś Święta lub po kilku dniach deszczu nagle zrobiła się słoneczna pogoda i ludzie pojechali na działki grillować.

Sprawdzaj indeksowanie się serwisu (site: nazwa_domeny] w Google – szukaj drastycznych spadków lub stałej tendencji spadkowej

Sprawdzanie site może ci pomóc w diagnozie, jednak nie zawsze zmniejszające się cyfry to na 100% filtr. Za to jeśli miałeś 1000 podstron w indeksie a nagle robi się z tego 2 szt. i mimo linkowania przez kilka tygodni nic się nie zmienia – prawdopodobnie filtr.

Upewnij się, że nie ma żadnych problemów z witryną w Google Webmaster Tools.

To rada oczywiście do tych, którzy dodają swoje serwisy do tego narzędzia Google. Pozycjonując dany serwis często to robię, nie uważam by było to straszne zagrożenie, za to mam dużo ciekawych informacji np o frazach na jakie pojawia się dana witryna w wyszukiwaniu.
Przeglądając informacje trzeba zwrócić uwagę na wszelkie problemy i błędy jakie Google łaskawie poda o serwisie. Może się np. zdarzyć, że bot nie może od 2 tygodni dostać się na stronę bo przypadkowo zmieniliśmy robots.txt lub właściciel hostingu odciął nie ten zakres ip co trzeba.

Sprawdź kiedy były ostanie odwiedziny bota Google.

Częstotliwość odwiedzin botów wyszukiwarek jest zależna od wielu czynników, jeśli jednak serwis jest pozycjonowany a bot był ostatni raz miesiąc temu to nie jest to dobry znak.

Zwróć uwagę na PageRank – N/A lub szary pasek w twoim pluginie to zły znak

Tu niewiele można napisać, znikający PR zawsze oznacza problem. Brak linków do tego nie doprowadzi, PR spadnie najwyżej do 0. Jeśli tak będzie można przebudować serwis i dodać nowe linki, po kilku miesiącach sytuacja prawdopodobnie zmieni się na lepsze.
Jeśli jednak jest N/A czyli brak PR to prawdopodobnie coś przeskrobaliśmy albo mamy serwis z potężną duplikacją treści np katalog stron – to jest filtr.

Sprawdź na jakiej pozycji jesteś wyszukując po prostu nazwę swojej domeny

Tu trzeba wprowadzić dwa warianty:
– serwis posiada unikalną nazwę domeny – wyszukujemy po prostu ją wpisując bez hierarchii (.pl, .com itp itd)
– nazwa nie jest unikalna – wyszukujemy ja w wpisując nazwę z hierarchią używając cudzysłów np “mkane.antygen.pl”.
W obydwóch przypadkach jeśli szukając swojego serwisu nie znajdziesz go maksymalnie na pierwszej lub drugiej stronie – prawdopodobnie filtr.
Już sam fakt, że witryna nie jest na pierwszym miejscu wyników może być niedobrym znakiem.
Jeśli pozycja jest taka sama jak przy innych znanych Ci frazach np w okolicy 50 pozycji – filtr.

Sprawdź, czy Google nie uważa, że witryna jest “niebezpieczna”: http://www.google.com/safebrowsing/diagnostic?site=twoja_nazwa_domeny

To narzędzie prawdopodobnie nie jest ci znane, warto jednak sprawdzić co tutaj piszą.
Jak widzisz jest tu informacja o tym, czy witryna znajduje się na liście niebezpiecznych stron (oznaczonych – “ta witryna może wyrządzić …..”. Znajdziesz też tu informacje kiedy ostatnio była sprawdzana i kiedy zostało znalezione coś niepokojącego. Dodam tylko, aczkolwiek chyba nie muszę, że informacja o tym, że serwis znajduje się na liście niebezpiecznych witryn nie jest pozytywną informacją.

Sprawdź kod HTML witryny czy nie ma tam linków do stron, których nie znasz lub nie zawiera tekstu, którego nie umieszczałeś.

Ten punkt wykonuję w miarę często, jeśli pozycjonuję lub opiekuję się jakimś serwisem. Po pierwsze najczęściej nie mam wpływu na różne prace deweloperskie i sprawdzam czy czegoś nie dodali lub zmienili. Po drugie szukam śladów “włamania”.
Jeśli serwis stoi na publicznym skrypcie naprawdę warto to sprawdzać bo można się któregoś dnia zdziwić, że ze strony wychodzi 150 linków do farmacji w rosyjskich domenach.
Można też znaleźć tysiąckrotne powtórzenie pozycjonowanego słowa bo ktoś życzliwy chciał wspomóc pozycjonowanie np webmaster, który się naczytał za wiele różnych blogów :).
Jak łatwo się domyślić w obydwu przypadkach Google nie potraktuje tego jako plus – mniemam, że reakcja będzie zgoła odmienna.

Sprawdź swoje inne witryny, niektórzy twierdzą, że Google może karać witryny jednego właściciela na jednym IP

Zdarzyło mi się kilka razy słyszeć o takich “seriach”. Karane były wszystkie serwisy bez wyjątku.
Wydaje mi się jednak, że aby dostać taką “promocję” trzeba trochę namieszać. Jak mocno musiałby wkurzyć Google jeden serwis by poleciało 50 ? Jeśli jednak 45 serwisów dostanie “żółtą kartkę” to może profilaktycznie pozostałe 5 też je otrzyma ….

Skopiuj dłuższy tekst (unikalny) ze swojej strony i wyszukaj go używając cudzysłowów – pozycja powinna być pierwsza

Nie ograniczaj się tylko do głównej strony Twojego lub pozycjonowanego serwisu. Sprawdź parę tekstów. Zawsze powinieneś być na pierwszej pozycji.
Jeśli nie jesteś na pierwszym miejscu to zastanów się czy ten tekst na pewno jest unikalny, napisany przez Ciebie. Jeśli jest na 100% unikalny a nie jesteś TOP1 to jest problem.
Rozwinięcie w kolejnym punkcie.

Podczas wyszukiwania skopiowanie długiego tekstu (unikalny) ze swojej strony sprawdź czy nie ma go w innych serwisach – kliknij “powtórzyć szukanie we wszystkich stronach” lub dodaj na końcu &filter=0

Jeśli Google pokazuje, ten tekst na innych stronach sprawdź dlaczego tak jest. Może to tylko naprawdę cytat, jeśli jednak cały tekst jest skopiowany interweniuj. Tak samo jeśli okaże się, że cała strona posłużyła komuś do stworzenia swojego serwisu.

Powielenia teksów jest w Internecie zmorą, często się mówi, że przodują w tym pozycjonerzy. Jest w tym sporo racji, bo wiele osób używa mniej lub bardziej udanych skryptów. Korzystając przy tym z różnych teksów, tworząc swoje zaplecze do pozycjonowania stron. Uważam jednak, że to spamerzy są większą plagą niż pozycjonerzy. Z drugiej strony jeśli ktoś kopiuje w dużym stopniu kogoś pracę trudno go nazwać pozycjonerem tudzież spamerem – są na to inne określenia nie przystające do tego bloga…

A może każdy pozycjoner jest spamerem ? :)

Podsumowując – klonowanie przez kogoś Twojej treści “jest be” i trzeba na to uważać bo można dostać filtr.

Zainteresuj się ilością linków prowadzących do witryny – sprawdzaj w Yahoo używając linkdomain lub w Google Webmaster Tools

Osobiście bardzo często sprawdzam ilości linków do witryn, które pozycjonuje. Robie to raz na 1-2 tygodnie, mam do tego odpowiednie skrypty. Nagły wzrost lub spadek ilości linków może być wynikiem czynników, na które nie masz wpływu np. konkurencja z nadmiarem punktów w jakimś systemie.
Oczywiście może to być też wynik Twoich mniej lub bardziej przemyślanych działań przy pozycjonowaniu.
Jeśli jednak dodajesz serwis do 10 katalogów lub precli dziennie to na pewno Yahoo nie powinno pokazywać kilkudziesięciu tysięcy linków.

Dlaczego Yahoo? Nie jest to idealne rozwiązanie, ta wyszukiwarka też ma swoje humory jednak sprawdzanie linków w Google mija się z celem, ponieważ ta wyszukiwarka pokazuje jedynie malutką próbkę.
W Google Webmaster Tools ilości już bardziej odpowiadają rzeczywistości jednak to narzędzie też ma swoje humory i nieraz pokazywane są jakieś dziwne wartości.

O czymś zapomniałem ? Jeśli tak to mi przypomnij :)

Mam nadzieję, że te parę słów o pomoże Wam zdiagnozować czy pozycjonowane przez Was witryny zostały zaszczycone jakimś filtrem czy tylko jest to kolejna “czkawka Google”.