Wrześniowe nowości w Google

Wrzesień przyniósł nam przynajmniej dwie ciekawe informacje od Google.

1. W Google Search Console w sekcji “Ulepszenia” dodana została informacji o “menu nawigacyjnym”.

2. Google wprowadza nowe oznaczenie linków. Teraz obok rel=”nofollow” będziemy mieli rel=”sponsored” i rel=”ugc”.

GSC i Sekcja “Menu nawigacyjne”

W Google Search Consolowe Google co jakiś czas dodaje nowe funkcje, ostatnio głównie związanych ze znacznikami strukturalnymi schema.org.

W wakacje zamieszali z ulepszeniami związanymi z produktami (błąd “Należy określić właściwość „offers”, „review” lub „aggregateRating””) teraz przyszła pora na menu nawigacyjne.

Jak widać powyżej została dodana sekcja z błędami lub zaleceniami dotyczącymi menu nawigacyjnym. … Czytaj dalej »

5 narzędzi do kontroli powieleń treści

Powielenie treści to temat, który spędza sen z powiek niejednej osobie mającej stronę internetową. Google w wielu sygnałach wskazuje, że to zjawisko jest odbierane negatywnie. Oczywiście są witryny, dla których nawet duża ilość treści udostępnionej na innych witrynach nie jest problem np Allegro.pl.

Jednak by tak było witryna powinna posiadać duży autorytet w Google. W innym przypadku będzie to prawie zawsze problem.

Jak wiemy kwestia duplikacji treści może dotyczyć sytuacji gdy występuje ona wielokrotnie w obrębie jednej strony lub pojawia się na wielu różnych domenach.

Z powieleniem treści bardzo często powiązane jest zjawisko kradzieży treści dlatego zawsze warto co jakiś czas sprawdzić co się z naszą treścią dzieje.
… Czytaj dalej »

Robots.txt – publiczny kod parsera i usunięcie crawl-delay, nofollow, noindex

Początek lipca przyniósł nam zmiany dotyczące pliku robots.txt.

Google po 25 lat prac udostępniło na GitHubie kod swojego parsera pliku robots.txt.

Jest to działanie mające unormować sytuacje nieformalnego standardu dotyczącego REP czyli Robot Exclusion Protocol.

REP do tej pory był tylko umownym standardem i każda przeglądarka lub narzędzie mogło go przestrzegać lub nie.

Udostępnienie kodu wg Google powinno pomóc w tym by z zasad stworzyć standard.

Przy okazji udostępnienia kodu parsera Google postanowiło wyczyścić go z niewspieranych i nieudokumentowanych reguł.

Dotyczy to crawl-delay, nofollow i noindex. … Czytaj dalej »

Googlebot jak Chrome

Google rozwijając swoje usługi stale zmienia algorytmy ustawiania pozycji. Czasami zmiany dotyczą także innych ich narzędzi.

W listopadzie wymieniony został tester prędkości stron co opisałem we wpisie Nowy PageSpeed Insights.

A całkiem niedawno Google ogłosiło duża zmianę w zasadzie funkcjonowania narzędzi, którymi pobierają strony internetowe czyli GoogleBota.

Od teraz Googlebot przy pobieraniu treści będzie używał mechanizmów z najnowszych wersji Chrome. I będzie stale aktualizowany.

Warto dodać, że do tej pory używana była wersja 41, która została opublikowana w macu 2015 roku. Jak wiemy 4 lata w Internecie to wieczność.
… Czytaj dalej »

Mobile-first indexing standardem dla nowych domen

Mobile-first indexing czyli zasada indeksowania stron przez boty dla urządzeń mobilnych jest z nami już przynajmniej od września 2018.

Jeszcze tylko w styczniu i lutym otrzymałem nowe informacje o domenach, dla których zostało “Włączone indeksowanie zoptymalizowane pod kątem urządzeń mobilnych” – tak brzmiał tytuł wiadomości.

Wydawało by się więc, że już wszystkie domeny są tak indeksowane.

Jednak tak nie jest.

Google właśnie ogłosiło, że zasada Mobile-first indexing będzie standardowo włączona od początku dla nowych domen.

Tak więc domen, które nie były jeszcze nigdy indeksowane przez Google. … Czytaj dalej »

Następna strona »