Site Kit by Google – plugin WordPress

Plugin WordPress Google Site Kit

Pod koniec października Google udostępniło swoją wtyczkę do WordPress. Przyznam się, że zaciekawiło mnie to ponieważ rzadko Google tworzy narzędzia do innych platform.

Jeśli chodzi o WordPress to nie korzystałem do tej pory z żadnych z rozwiązań stworzonych przez Google nawet jeśli takowe były :).

Co to jest Site Kit by Google?

Site Kit to wtyczka, która ma za zadanie zebrać w jednym miejscu informacje z wielu usług Google. Informacji dotyczących strony, na której jest zainstalowana.

Wtyczkę możemy połączyć z:

  • – Google Search Console
  • – Google Analytics
  • – Testerem szybkości PageSpeed Insight
  • – Google Adsense
  • – Google Optymize
  • – Google Tag Manager

Na potrzeby testu, w wybranej stronie, połączyłem wtyczkę z Gogle Search Console, Gogle Analytics i PageSpeed Insight.
… Czytaj dalej »

Aktualizacje User Agent Googlebota

W czasach gdy zaczynałem przygodę z SEO. Boty indeksujące Google miały wiele oznaczeń czyli UA – User Agent. Od długiego już czasu, nawet nie pamiętam od kiedy Google używa jednego oznaczenia bota dla danego rodzaju.

No właśnie co to jest ten User Agent. UA to nic innego jak oznaczenie, ciąg znaków, który identyfikuje przeglądarkę.

Wersja Chrome, którą używam identyfikuje się ciągiem

Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.70 Safari/537.36

A Edge, któy jest na moim windows 10 identyfikuje się jako

Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36 Edge/18.17763

Jak widzicie różnica jest niewielka ale wystarczająca aby strony internetowe, jeśli następuje taka konieczność wiedziały jaką przeglądarka jest używana.

Googlebot także się identyfikuje, przynajmniej ten oficjalny :).

Obecnie Google bot dla urządzeń mobilnych ma UA

Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

A Googlebot dla komputerów ma dwa ciągi UA

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
albo
Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36

Sprawdziłem na kilku stronach i rzeczywiście odwiedziny botów identyfikującymi się takimi UA mają miejsce.

Od grudnia UA dla Googlebotów ulegną zmianie. … Czytaj dalej »

Wrześniowe nowości w Google

Wrzesień przyniósł nam przynajmniej dwie ciekawe informacje od Google.

1. W Google Search Console w sekcji “Ulepszenia” dodana została informacji o “menu nawigacyjnym”.

2. Google wprowadza nowe oznaczenie linków. Teraz obok rel=”nofollow” będziemy mieli rel=”sponsored” i rel=”ugc”.

GSC i Sekcja “Menu nawigacyjne”

W Google Search Consolowe Google co jakiś czas dodaje nowe funkcje, ostatnio głównie związanych ze znacznikami strukturalnymi schema.org.

W wakacje zamieszali z ulepszeniami związanymi z produktami (błąd “Należy określić właściwość „offers”, „review” lub „aggregateRating””) teraz przyszła pora na menu nawigacyjne.

Jak widać powyżej została dodana sekcja z błędami lub zaleceniami dotyczącymi menu nawigacyjnym. … Czytaj dalej »

5 narzędzi do kontroli powieleń treści

Powielenie treści to temat, który spędza sen z powiek niejednej osobie mającej stronę internetową. Google w wielu sygnałach wskazuje, że to zjawisko jest odbierane negatywnie. Oczywiście są witryny, dla których nawet duża ilość treści udostępnionej na innych witrynach nie jest problem np Allegro.pl.

Jednak by tak było witryna powinna posiadać duży autorytet w Google. W innym przypadku będzie to prawie zawsze problem.

Jak wiemy kwestia duplikacji treści może dotyczyć sytuacji gdy występuje ona wielokrotnie w obrębie jednej strony lub pojawia się na wielu różnych domenach.

Z powieleniem treści bardzo często powiązane jest zjawisko kradzieży treści dlatego zawsze warto co jakiś czas sprawdzić co się z naszą treścią dzieje.
… Czytaj dalej »

Robots.txt – publiczny kod parsera i usunięcie crawl-delay, nofollow, noindex

Początek lipca przyniósł nam zmiany dotyczące pliku robots.txt.

Google po 25 lat prac udostępniło na GitHubie kod swojego parsera pliku robots.txt.

Jest to działanie mające unormować sytuacje nieformalnego standardu dotyczącego REP czyli Robot Exclusion Protocol.

REP do tej pory był tylko umownym standardem i każda przeglądarka lub narzędzie mogło go przestrzegać lub nie.

Udostępnienie kodu wg Google powinno pomóc w tym by z zasad stworzyć standard.

Przy okazji udostępnienia kodu parsera Google postanowiło wyczyścić go z niewspieranych i nieudokumentowanych reguł.

Dotyczy to crawl-delay, nofollow i noindex. … Czytaj dalej »

Następna strona »