Archiwum kategorii 'SEO'

Aktualizacja algorytmu Google – Witamy BERT

algorytm bert

Co jakiś czas Google zmienia swoje algorytmy lub dodaje nowe. Mają one inne funkcje, innymi czynnikami się zajmują.
Pamiętamy Pingwina i Pandę, dwa algorytmy, które mocno namieszały w wynikach. Mało kto pamięta już o takich algorytmach jak Caffeine, May Day czy Big Daddy :).

Każdego roku w Google się coś zmienia. A w tym roku 22 października ogłosili wprowadzenie nowego algorytmu o nazwie BERT.

Co to takiego ten BERT?

BERT jako mechanizm wykorzystuje sieci neuronowe. Ma za zadanie zrozumieć język naturalny w zapytaniach Google i dopasować do niego jak najlepszą odpowiedź.
Do tego używane jest NLP :) I warto wyjaśnić, że chodzi o “Natural Language Processing” a nie “Neuro-Linguistic Programming”.

Natural Language Processing czyli przetwarzanie języka naturalnego (NLP) to zdolność programu komputerowego do rozumienia języka ludzkiego w mowie a w tym przypadku piśmie.
…Czytaj dalej »

Aktualizacje User Agent Googlebota

W czasach gdy zaczynałem przygodę z SEO. Boty indeksujące Google miały wiele oznaczeń czyli UA – User Agent. Od długiego już czasu, nawet nie pamiętam od kiedy Google używa jednego oznaczenia bota dla danego rodzaju.

No właśnie co to jest ten User Agent. UA to nic innego jak oznaczenie, ciąg znaków, który identyfikuje przeglądarkę.

Wersja Chrome, którą używam identyfikuje się ciągiem

Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.70 Safari/537.36

A Edge, któy jest na moim windows 10 identyfikuje się jako

Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36 Edge/18.17763

Jak widzicie różnica jest niewielka ale wystarczająca aby strony internetowe, jeśli następuje taka konieczność wiedziały jaką przeglądarka jest używana.

Googlebot także się identyfikuje, przynajmniej ten oficjalny :).

Obecnie Google bot dla urządzeń mobilnych ma UA

Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

A Googlebot dla komputerów ma dwa ciągi UA

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
albo
Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36

Sprawdziłem na kilku stronach i rzeczywiście odwiedziny botów identyfikującymi się takimi UA mają miejsce.

Od grudnia UA dla Googlebotów ulegną zmianie. …Czytaj dalej »

Wrześniowe nowości w Google

Wrzesień przyniósł nam przynajmniej dwie ciekawe informacje od Google.

1. W Google Search Console w sekcji “Ulepszenia” dodana została informacji o “menu nawigacyjnym”.

2. Google wprowadza nowe oznaczenie linków. Teraz obok rel=”nofollow” będziemy mieli rel=”sponsored” i rel=”ugc”.

GSC i Sekcja “Menu nawigacyjne”

W Google Search Consolowe Google co jakiś czas dodaje nowe funkcje, ostatnio głównie związanych ze znacznikami strukturalnymi schema.org.

W wakacje zamieszali z ulepszeniami związanymi z produktami (błąd “Należy określić właściwość „offers”, „review” lub „aggregateRating””) teraz przyszła pora na menu nawigacyjne.

Jak widać powyżej została dodana sekcja z błędami lub zaleceniami dotyczącymi menu nawigacyjnym. …Czytaj dalej »

5 narzędzi do kontroli powieleń treści

Powielenie treści to temat, który spędza sen z powiek niejednej osobie mającej stronę internetową. Google w wielu sygnałach wskazuje, że to zjawisko jest odbierane negatywnie. Oczywiście są witryny, dla których nawet duża ilość treści udostępnionej na innych witrynach nie jest problem np Allegro.pl.

Jednak by tak było witryna powinna posiadać duży autorytet w Google. W innym przypadku będzie to prawie zawsze problem.

Jak wiemy kwestia duplikacji treści może dotyczyć sytuacji gdy występuje ona wielokrotnie w obrębie jednej strony lub pojawia się na wielu różnych domenach.

Z powieleniem treści bardzo często powiązane jest zjawisko kradzieży treści dlatego zawsze warto co jakiś czas sprawdzić co się z naszą treścią dzieje.
…Czytaj dalej »

Robots.txt – publiczny kod parsera i usunięcie crawl-delay, nofollow, noindex

Początek lipca przyniósł nam zmiany dotyczące pliku robots.txt.

Google po 25 lat prac udostępniło na GitHubie kod swojego parsera pliku robots.txt.

Jest to działanie mające unormować sytuacje nieformalnego standardu dotyczącego REP czyli Robot Exclusion Protocol.

REP do tej pory był tylko umownym standardem i każda przeglądarka lub narzędzie mogło go przestrzegać lub nie.

Udostępnienie kodu wg Google powinno pomóc w tym by z zasad stworzyć standard.

Przy okazji udostępnienia kodu parsera Google postanowiło wyczyścić go z niewspieranych i nieudokumentowanych reguł.

Dotyczy to crawl-delay, nofollow i noindex. …Czytaj dalej »

« Poprzednia stronaNastępna strona »