Linki ze stron z metatag robots=noindex,follow – test

Meta tag robots to tag, którym kontrolujemy indeksację podstron.

Google i inne „poważne” boty wyszukiwarek bardzo rygorystycznie przestrzegają pozwoleń i zakazów w nim zawartych.

Według zasady częściej ten tag używany jest by zakazywać niż pozwalać. Zakazując możemy użyć dwóch informacji.

Pierwsza z nich to „noindex,nofollow” co oznacza”nie indeksuj i nie podążaj”.
W efekcie tego zapisu strona z takim meta tagiem nie powinna pojawić się w Google. Tak samo w Google nie powinny być widoczne inne strony linkowane tylko z niej.

Zabraniamy przecież indeksacji i przechodzenia przez nią.

Inną informacją, mniej rygorystyczną jest „noindex,follow”. W tej sytuacji strona posiadająca taki meta tag nie powinna znaleźć się w Google ale już linkowane z niej strony tak.

Zapis „noindex,follow” stał się popularny po wdrożeniu przez Google algorytmu Panda, który to jak wiemy zwracał uwagę na powielenie treści.
W wielu serwisach w ten sposób została wdrożona polityka nie indeksowania powieleń np kolejny stron list produktowych ale linkowania z nich by wspierać inne strony witryny, w tym przypadku produkty.

Jednak jakiś czas temu jeden z Googlersów (niestety nie mogę odnaleźć oryginału) powiedział, że strona, która ma noindex,follow nie jest wartościowa dla Google, więc linki z niej niewiele znaczą.

Nie pozostało więc mi nic innego jak przetestowanie tego zagadnienia. … Czytaj dalej »

Google przesłało wspierać rel=“next” i rel=“prev”

Google 15 września 2011 ogłosiło na swoim blogu nowe znaczniki rel=“next” i rel=“prev”, które miały wspomóc indeksowanie kolejnych stron list.

Mechanizm był prosty. Na każdej stronie listy, np produktów czy artykułów. Wskazywany był adres strony poprzedniej i następnej. Czyli na np stronie nr 4 był wskazywany adres strony nr 3 i nr 5 tej listy.

Dzięki temu Google miało być w stanie powiązać lub może połączyć w całość wszystkie strony listy. Tworzony miał być zestaw – jedna lista podzielona na podstrony.

Była teoria mówiąca o tym, że dzięki temu pierwsza strona zyskuje najwięcej.

Od tej pory mechanizm ten był widoczny we wszystkich ważniejszych skryptach i wszystkich zaleceniach SEO.

Można powiedzieć, że parę dni temu, przypadkiem okazało się, że Google nie korzysta już z tych wskazań i to od wielu lat.
… Czytaj dalej »

Po co mi plik robots.txt?

Gdy roboty Google lub innej wyszukiwarki wchodzą pierwszy raz, w sesji, na witrynę to właśnie plik robots.txt jest pobierany i przetwarzany przed pobraniem jakiejkolwiek innego adresu.

Czasami nie zdajemy sobie sprawy ile razy dziennie taki plik jest wywoływany. Trzeba dodać, że najczęściej nawet nie zdajemy sobie sprawy, że taki plik istnieje.

Po co więc ten plik jest i dlaczego Google zwraca na niego uwagę ?

Jest to plik, w którym dodajemy informacje gdzie mogą a gdzie nie mogą wchodzić boty przeglądarek internetowych.

Kiedyś do tego używany był tylko meta tag robots, którym można było poinformować wyszukiwarkę czy pozwalamy daną stronę indeksować czy też nie.

Ale wykorzystanie do tego kodu strony wymagało wiedzy i możliwości edycji strony.

Dlatego powstał standard robots.txt i plik, w którym każdy z minimalną wiedzą może łatwo to zrobić.
… Czytaj dalej »

Preweryfikacja w Google Search Console

google search console nowe

O tym, że Google stale zbiera dane o domenach nie trzeba nikogo prawdopodobnie przekonywać.

Jeszcze za czasów Google Webmaster Tools, gdy kupiłem używaną domenę to po weryfikacji widziałem co się z nią działo przed moim zakupem.

I nagle Google zmienił zasady, dane zbierane są jakoby dopiero po weryfikacji w Google Search Console. I myślę, że „standardowemu” Właścicielowi domeny to nie przeszkadza.

Dla nas czyli osób od SEO taki stan rzeczy bywa wielokrotnie problem, zwłaszcza gdy zaczynamy pracować nas stroną a nikt do tej pory nie używał dla niej GSC.

Wtedy mamy wielką pustkę i czekamy na dane.

Czasami, z nowymi projektami zanim uda się nam weryfikacja mija nawet miesiąc, i zawsze wtedy jestem zły bo dane by były od tego miesiąca a nie ma.
… Czytaj dalej »

AD 2018

Kolejny rok już prawie za nami.

Jak zawsze więc o tej porze małe podsumowanie tego co dla mnie było istotne w branży SEO.

Rok 2018 nie był rokiem, w którym było nudno czasami działy się rzeczy, które podnosiły ciśnienie.

Z drugiej strony były w przeszłości lata, które naprawdę są godne zapamiętania. Nie ma więc co narzekać.

Zima

Zima zaczęła się całkiem ciekawie. Google udostępniło nową wersję Google Search Console .

Nowa wersja na początku zawierała tylko raport Stan czyli błędy i informacje oraz Skuteczność czyli analitykę wyszukiwań.

I tutaj znaleźliśmy największą zmianę – dostępne były dane aż z 16 miesięcy.
Na co czekaliśmy – hurra.

W kolejnych miesiącach nowa wersja była rozbudowywana ale do poprzedniej wersji jeszcze jej daleko. … Czytaj dalej »

Następna strona »