Archiwum kategorii 'SEO'

Linki ze stron z metatag robots=noindex,follow – test

Meta tag robots to tag, którym kontrolujemy indeksację podstron.

Google i inne „poważne” boty wyszukiwarek bardzo rygorystycznie przestrzegają pozwoleń i zakazów w nim zawartych.

Według zasady częściej ten tag używany jest by zakazywać niż pozwalać. Zakazując możemy użyć dwóch informacji.

Pierwsza z nich to „noindex,nofollow” co oznacza”nie indeksuj i nie podążaj”.
W efekcie tego zapisu strona z takim meta tagiem nie powinna pojawić się w Google. Tak samo w Google nie powinny być widoczne inne strony linkowane tylko z niej.

Zabraniamy przecież indeksacji i przechodzenia przez nią.

Inną informacją, mniej rygorystyczną jest „noindex,follow”. W tej sytuacji strona posiadająca taki meta tag nie powinna znaleźć się w Google ale już linkowane z niej strony tak.

Zapis „noindex,follow” stał się popularny po wdrożeniu przez Google algorytmu Panda, który to jak wiemy zwracał uwagę na powielenie treści.
W wielu serwisach w ten sposób została wdrożona polityka nie indeksowania powieleń np kolejny stron list produktowych ale linkowania z nich by wspierać inne strony witryny, w tym przypadku produkty.

Jednak jakiś czas temu jeden z Googlersów (niestety nie mogę odnaleźć oryginału) powiedział, że strona, która ma noindex,follow nie jest wartościowa dla Google, więc linki z niej niewiele znaczą.

Nie pozostało więc mi nic innego jak przetestowanie tego zagadnienia. …Czytaj dalej »

Google przesłało wspierać rel=“next” i rel=“prev”

Google 15 września 2011 ogłosiło na swoim blogu nowe znaczniki rel=“next” i rel=“prev”, które miały wspomóc indeksowanie kolejnych stron list.

Mechanizm był prosty. Na każdej stronie listy, np produktów czy artykułów. Wskazywany był adres strony poprzedniej i następnej. Czyli na np stronie nr 4 był wskazywany adres strony nr 3 i nr 5 tej listy.

Dzięki temu Google miało być w stanie powiązać lub może połączyć w całość wszystkie strony listy. Tworzony miał być zestaw – jedna lista podzielona na podstrony.

Była teoria mówiąca o tym, że dzięki temu pierwsza strona zyskuje najwięcej.

Od tej pory mechanizm ten był widoczny we wszystkich ważniejszych skryptach i wszystkich zaleceniach SEO.

Można powiedzieć, że parę dni temu, przypadkiem okazało się, że Google nie korzysta już z tych wskazań i to od wielu lat.
…Czytaj dalej »

Po co mi plik robots.txt?

Gdy roboty Google lub innej wyszukiwarki wchodzą pierwszy raz, w sesji, na witrynę to właśnie plik robots.txt jest pobierany i przetwarzany przed pobraniem jakiejkolwiek innego adresu.

Czasami nie zdajemy sobie sprawy ile razy dziennie taki plik jest wywoływany. Trzeba dodać, że najczęściej nawet nie zdajemy sobie sprawy, że taki plik istnieje.

Po co więc ten plik jest i dlaczego Google zwraca na niego uwagę ?

Jest to plik, w którym dodajemy informacje gdzie mogą a gdzie nie mogą wchodzić boty przeglądarek internetowych.

Kiedyś do tego używany był tylko meta tag robots, którym można było poinformować wyszukiwarkę czy pozwalamy daną stronę indeksować czy też nie.

Ale wykorzystanie do tego kodu strony wymagało wiedzy i możliwości edycji strony.

Dlatego powstał standard robots.txt i plik, w którym każdy z minimalną wiedzą może łatwo to zrobić.
…Czytaj dalej »

Preweryfikacja w Google Search Console

google search console nowe

O tym, że Google stale zbiera dane o domenach nie trzeba nikogo prawdopodobnie przekonywać.

Jeszcze za czasów Google Webmaster Tools, gdy kupiłem używaną domenę to po weryfikacji widziałem co się z nią działo przed moim zakupem.

I nagle Google zmienił zasady, dane zbierane są jakoby dopiero po weryfikacji w Google Search Console. I myślę, że „standardowemu” Właścicielowi domeny to nie przeszkadza.

Dla nas czyli osób od SEO taki stan rzeczy bywa wielokrotnie problem, zwłaszcza gdy zaczynamy pracować nas stroną a nikt do tej pory nie używał dla niej GSC.

Wtedy mamy wielką pustkę i czekamy na dane.

Czasami, z nowymi projektami zanim uda się nam weryfikacja mija nawet miesiąc, i zawsze wtedy jestem zły bo dane by były od tego miesiąca a nie ma.
…Czytaj dalej »

Nowy PageSpeed Insights

pagespeed insights

Gdy w lipcu Google wprowadziło poprawkę do algorytmu o nazwie „Speed Update” wskazywało trzy narzędzia pomocne w pracy nad prędkością witryny.

  • – Chrome User Experience Report – publiczny zbiór danych z przeglądarki Chrome.
  • – Lighthouse – narzędzie działające w przeglądarce Chrome do audytów witryny, m.in. szybkości strony.
  • – PageSpeed Insights – szeroko znany w branży tester szybkości witryny.

Wymienione narzędzia były bardzo przydatne ponieważ ta aktualizacja oficjalnie wprowadziła szybkość jako czynnik rankingowy stron dla urządzeń mobilnych.

Prawdopodobnie w związku z tą zmianą w algorytmie doczekaliśmy się aktualizacji a moim zdaniem nowej wersji testera prędkości witryny PageSpeed Insights.

I to aktualizacji zmieniającej wiele w tym narzędziu.

Najważniejszym moim zdaniem zmiana to zintegrowanie Lighthouse z PageSpeed Insights. Co spodowało znaczne spadki punktacji stron w stosunku do poprzedniej wersji.

Co więc znajdziemy w nowym PageSpeed Insights?

Standardowo przywita nas estetyczna prośba o podanie adresu testowanej strony.

pagespeed insights start

…Czytaj dalej »

Następna strona »