Archiwum kategorii 'SEO'

Aktualizacje User Agent Googlebota

W czasach gdy zaczynałem przygodę z SEO. Boty indeksujące Google miały wiele oznaczeń czyli UA – User Agent. Od długiego już czasu, nawet nie pamiętam od kiedy Google używa jednego oznaczenia bota dla danego rodzaju.

No właśnie co to jest ten User Agent. UA to nic innego jak oznaczenie, ciąg znaków, który identyfikuje przeglądarkę.

Wersja Chrome, którą używam identyfikuje się ciągiem

Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.70 Safari/537.36

A Edge, któy jest na moim windows 10 identyfikuje się jako

Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36 Edge/18.17763

Jak widzicie różnica jest niewielka ale wystarczająca aby strony internetowe, jeśli następuje taka konieczność wiedziały jaką przeglądarka jest używana.

Googlebot także się identyfikuje, przynajmniej ten oficjalny :).

Obecnie Google bot dla urządzeń mobilnych ma UA

Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

A Googlebot dla komputerów ma dwa ciągi UA

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
albo
Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36

Sprawdziłem na kilku stronach i rzeczywiście odwiedziny botów identyfikującymi się takimi UA mają miejsce.

Od grudnia UA dla Googlebotów ulegną zmianie. …Czytaj dalej »

Wrześniowe nowości w Google

Wrzesień przyniósł nam przynajmniej dwie ciekawe informacje od Google.

1. W Google Search Console w sekcji “Ulepszenia” dodana została informacji o “menu nawigacyjnym”.

2. Google wprowadza nowe oznaczenie linków. Teraz obok rel=”nofollow” będziemy mieli rel=”sponsored” i rel=”ugc”.

GSC i Sekcja “Menu nawigacyjne”

W Google Search Consolowe Google co jakiś czas dodaje nowe funkcje, ostatnio głównie związanych ze znacznikami strukturalnymi schema.org.

W wakacje zamieszali z ulepszeniami związanymi z produktami (błąd “Należy określić właściwość „offers”, „review” lub „aggregateRating””) teraz przyszła pora na menu nawigacyjne.

Jak widać powyżej została dodana sekcja z błędami lub zaleceniami dotyczącymi menu nawigacyjnym. …Czytaj dalej »

5 narzędzi do kontroli powieleń treści

Powielenie treści to temat, który spędza sen z powiek niejednej osobie mającej stronę internetową. Google w wielu sygnałach wskazuje, że to zjawisko jest odbierane negatywnie. Oczywiście są witryny, dla których nawet duża ilość treści udostępnionej na innych witrynach nie jest problem np Allegro.pl.

Jednak by tak było witryna powinna posiadać duży autorytet w Google. W innym przypadku będzie to prawie zawsze problem.

Jak wiemy kwestia duplikacji treści może dotyczyć sytuacji gdy występuje ona wielokrotnie w obrębie jednej strony lub pojawia się na wielu różnych domenach.

Z powieleniem treści bardzo często powiązane jest zjawisko kradzieży treści dlatego zawsze warto co jakiś czas sprawdzić co się z naszą treścią dzieje.
…Czytaj dalej »

Robots.txt – publiczny kod parsera i usunięcie crawl-delay, nofollow, noindex

Początek lipca przyniósł nam zmiany dotyczące pliku robots.txt.

Google po 25 lat prac udostępniło na GitHubie kod swojego parsera pliku robots.txt.

Jest to działanie mające unormować sytuacje nieformalnego standardu dotyczącego REP czyli Robot Exclusion Protocol.

REP do tej pory był tylko umownym standardem i każda przeglądarka lub narzędzie mogło go przestrzegać lub nie.

Udostępnienie kodu wg Google powinno pomóc w tym by z zasad stworzyć standard.

Przy okazji udostępnienia kodu parsera Google postanowiło wyczyścić go z niewspieranych i nieudokumentowanych reguł.

Dotyczy to crawl-delay, nofollow i noindex. …Czytaj dalej »

Googlebot jak Chrome

Google rozwijając swoje usługi stale zmienia algorytmy ustawiania pozycji. Czasami zmiany dotyczą także innych ich narzędzi.

W listopadzie wymieniony został tester prędkości stron co opisałem we wpisie Nowy PageSpeed Insights.

A całkiem niedawno Google ogłosiło duża zmianę w zasadzie funkcjonowania narzędzi, którymi pobierają strony internetowe czyli GoogleBota.

Od teraz Googlebot przy pobieraniu treści będzie używał mechanizmów z najnowszych wersji Chrome. I będzie stale aktualizowany.

Warto dodać, że do tej pory używana była wersja 41, która została opublikowana w macu 2015 roku. Jak wiemy 4 lata w Internecie to wieczność.
…Czytaj dalej »

Następna strona »