Archiwum kategorii 'SEO'

Audyt SEO wg Google

Wczoraj na blogu Google dla webmasterów pojawił się wpis, w którym zaprezentowali przykładowy raport z Audytu SEO.

Raport można pobrań pod tym adresem, niestety dostępna jest tylko wersja angielska.

Przeglądając go doszedłem do wniosku, ze oprócz strony graficznej nie różni się on wiele od audytów, w których uczestniczyłem.

No, może nie rozpisuję się aż tak bardzo nad niektórymi zagadnieniami, tylko od raz piszę co warto zmienić. Z drugiej strony, przy niektórych klientach raporty musi wygląd „profesjonalnie” a dużo tekstu jest traktowane najczęściej jako wyraz profesjonalizmu.

Na pewno warto zobaczyć co Google opisuje w takim dokumencie, można z niego stworzyć sobie szblon :)

Jak wiemy każde pozycjonowanie powinno się od takiego audytu rozpocząć, szkoda tylko, że nie zawsze rady są wdrażane…

Porady w kwestii zwiększenia ruchu z wyszukiwarek dla [http://antygen.pl]

Witam,

Zwiększ oglądalność swojej strony internetowej - Pozycjonowanie w
wyszukiwarkach - przekonaj się, że warto!

* PROMOCJA dla FIRM - 3 miesiące próbne zupełnie za DARMO I BEZ ZOBOWIĄZAŃ *

Wiemy jak wielkie znaczenia ma dla Państwa inwestycja w e-biznes,
dlatego pragniemy poinformować, iż nasze usługi objęte są
GWARANCJĄ.

Należący do Państwa serwis internetowy [http://antygen.pl] zwrócił
ostatnio naszą uwagę tym, iż bardzo często pokazuje się w boksach reklamowych (Google
Adwords) wyszukiwarki Google.

Przypuszczamy, że stanowi to znaczącą część kosztów przeznaczonych
przez Państwa na promocję witryny w internecie. Spowodowane jest to
brakiem pokazywania Państwa serwisu internetowego w naturalnych
wynikach wyszukiwania na odpowiednie dla Państwa branży frazy.

Z szacunków wynika, iż oglądalność naturalnych wyników
wyszukiwania jest od 5 do 10 razy większa od oglądalności generowanej
przez boksy sponsorowane. Tym bardziej zaskakuje nas brak Państwa
serwisu internetowego w pierwszej dziesiątce Google dla większości
fraz branżowych.

Sytuację tą można zmienić zwiększając zarazem znacząco oglądalność, a
więc i sprzedaż, a zarazem istotnie obniżyć koszt generowany
przez boksy sponsorowane (Google Adwords) dla fraz, które pojawiają
się w naturalnych wynikach wyszukiwania.
Jeżeli są Państwo zainteresowani otrzymaniem szczegółowej oferty
dotyczącej optymalizacji oraz pozycjonowania Państwa witryny
internetowej w wyszukiwarkach internetowych prosimy o kontakt.

Zgodnie z ustawą o świadczeniu usług drogą elektroniczną......

..ciach...

Równocześnie informujemy, iż Państwa dane będące w bazie
naszej firmy, pochodzą z publicznych źródeł informacji, takich, jak
książka telefoniczna, otwarte portale internetowe.
--
Serdecznie pozdrawiam,
Xxxxxx Xxxxxxxxx

Xxx Xxxxxxxx
ul. Xxxxxxxx Xxxxxxxxx 4
53-328 Wrocław

Poniedziałek, siedzę z moim handlowcem i omawiamy różne sprawy, gdy nagle na moją skrzynkę dochodzi taka wiadomość.

Niby nic takiego, bo dostaję oferty na pozycjonowanie różnych naszych serwisów ale pierwszy raz dostałem taką propozycję by pozycjonować lub optymalizawać naszą stronę firmową.

Dwie możliwe przyczyny, dlaczego dostałem taki spam na swoją skrzynkę widzę..

Pierwsza z tych „sci-fi”, ktoś mi daje pstryczek w nos bo mimo dużej ilości linków, komuś się może wydawać że pozycje naszej firmówki mogły by być lepsze.

Spieszę więc donieść, że wszystko jest tak jak chcemy by było.

Druga przyczyna to niedoskonały skrypt wyszukujący i wysyłający maile. Wierzę całym sobą, że tej wiadomości nie wysłała żywa istota bo…

Jak już Panowie i Panie wysyłacie spam (ta wiadomość jest spamem) to przynajmniej pomyślcie nad filtrami a nie crawler do maili i jazda.

W wiadomości napisane są przynajmniej dwie nieprawdy. Nasza strona firmowa od przynajmniej roku nie wyświetla się w linkach sponsorowanych.  Kilka miesięcy temu wyłączyłem kampanie dla tego bloga, więc nawet on nie mógł być powodem tej wiadomości.

Druga sprawa to nasz adres e-mail. Nie publikowaliśmy go na żadnym portalu lub katalogu ale jakiś klon Mail Harvester sobie z takimi rzeczami radzi.

Ech, życzę wielu udanych umów ale dopracujcie swoje narzędzia do „łapania” klientów bo jak dla mnie to lekka wtopa proponować swoje usługi konkurencji.

Hmm, a może nie… może czas najwyższy znaleść podwykonawców :)

Teraz czekam na taką ofertę związaną z tym blogiem….

Filtr – ilość podstron w indeksie

W marcu  poprzedniego roku jedną z moich witryn dotknął przedziwny filtr blokujący ilość podstron widocznych w indeksie Google.

Zafiltrowana witryna to jeden z moich katalogów, który założyłem w 2006 roku na skrypcie Easy-Directory. Jak już pisałem dbam o moje katalogi, linkuje je odpowiednio i moderuje, nie umieszczam na nich żadnych SWLi, więc zdziwiłem się, że zostałem „obdarzony” takim filtrem.

Gdy ilość zaindeksowanych  podstron gwałtowanie zmniejszyła się do 12 sztuk, pomyślałem, że jest to zwykłe wyindeksowanie i po jakimś czasie wróci wszystko do normy. Gdy jednak miesiąc później zauważyłem, że nic się nie zmieniło postanowiłem coś z tym zrobić.

W indeksie widziałem tylko stronę główną parę kategorii i podkategorii oraz jedną podstronę ze szczegółami wpisu. Ta podstrona była nieźle podlinkowana przez pozycjonera, który dodał ten wpis.

W pozycjonowaniu najważniejsze są linki, tak samo w indeksacji. Dlatego też pierwsze co zrobiłem to podlinkowanie strony głównej oraz paru podkategorii i wpisów.

Niestety mimo mojej pracy nic się nie zmieniło …

Wykres od 30.06 do 24.09.2009

Spadki na 0 są wynikiem intensywnej pracy z wyszukiwarką i blokadą (403)  moich IP w Google.

Dodanie  linków przyniosło wzrost liczby zindeksowanych podstron w Yahoo i w MSN, jednak nie o to mi chodziło.

Dlatego też 24.09.2009r. poświęciłem tej witrynie trochę czasu i

– przebudowałem linkowanie wewnętrzne, dodałem parę nofollow. Na podstronach podkategorii usunąłem linki bezpośrednie do witryn zostawiając jedynie link do szczegółów wpisu,

– zmieniłem URLe  podstron wg najprostrzej zasady  –> „kat-” to teraz „kategoria-, podkategoria to teraz „pod-” itd.. Chodziło mi tylko o to by boty dostały nowe nazwy podstron, zauważyłem już dawno, że bardzo to lubią,

– zmieniłem stałą część meta Description na prawie każdej postronie,

– zmieniłem układ podstrony ze szczególami poprzez przestawienie elementów miejscami,

– w pionowej kolumnie dodałem newsa z RSSa  tak by pojawiał się na nowych podstronach dodatkowy tekst,

– usunąłem z witryny wszystkie moje linki, kóre mogłem usunąć (z topu, stopki itp),

– dodałem parę drobnych elementów jak np tekst w stopce informujący jaki dziś dzień i która godzina,

– oczywiście w htaccess dodałem przekierowanie ze starych adresów podstron na nowe. Zastanawiałem się jakiś czas czy to zrobić (czy nie przeniosę filtra) ale doszedłem do wniosku, że szkoda mi jednak mocy jaką pozycjonerzy włożyli w swoje wpisy.

Jak widzicie i tym razem zmiany jakie dokonałem ograniczały się tylko do takich, które może dokonać prawie każda osoba, która ma parę stron ale nie zna się na programowaniu. Doszedłem do wniosku, że jeśli to nie pomoże dopiero zacznę się zastanawiać co zmienić w samym skrypcie (skrypt?) by wyjść z tego filtra.

Po dokonaniu zmian uzbrojony w cierpliwość oczekiwałem efektów… długo przyszło mi jednak czekać… :)

Już 27.09 ilość podstron w Google zaczęła się powoli zmniejszać.

Od 18.11 do 24.11 widoczna była tylko strona główna.

Zacząłem się zastanawiać co się dzieje i co będę musiał zmienić jeszcze by wszystko wróciło do normy.

Jednak 25.11 pojawiała się druga podstrona a 27.11 widać ich było już 91 szt.

Wykres od 24.09 do 27.11.2008

Jak widać filtr został pożegnany jednak postanowiłem poczekać jeszcze parę tygodni na „świętowanie” by upewnić się, że wszystko jest OK.

Wykres od 2.12.2009 do 15.01.2010

Wykres od 2.12.2009 do 15.01.2010

9 grudnia było już widoczne 2150 podstron, dziś jest 5290.

Jak widać żadne przedświąteczne wariacje Google nie dotknęły tej witryny. Wzrost już jest wolniejszy ale stały. Zmiany choć tak naprawdę niewielkie spowodowały dużo korzyści zwłaszcza biorąc pod uwagę fakt, że jest to katalog stron i wpisy zostały na nowo zaindeksowane.

Dodam jeszcze, że nie jest to moje pierwsze „spotkanie” z takim filtrem. Miałem już raz przypadek zamrożenia ilości podstron w okolicy 1 tysiąca, poradziłem sobie z tym w podobny sposób.

Dwa lata temu kupiłem używaną wcześniej domenę, po wypełnieniu ją treścią w Google było widoczne jedynie 13 podstron a powinno być dużo więcej. Z tamtym przypadkiem sobie nie poradziłem ale też niewiele sił w to włożyłem. Po prostu nie przedłużyłem tej domeny na kolejny rok.

Ostatnio na jednej z moich domen wrzuciłem jakiś skrypt z bazą dowcipów, powielanych już wiele razy na wielu nie tylko moich zapleczach. Tu sprawa jest o tyle ciekawa, że od razy w indeksie pojawiły się 4 podstrony i tak jest do tej pory. Żeby było śmieszniej nie ma w śród nich strony głównej. Podejrzewam, że tu nałożyło się więcej filtrów niż tylko na  indeksowanych podstron (powielenie treści i skryptu). Jak będę miał czas to spróbuje się i tego pozbyć….

Podsumowując jeśli pozycjonujesz jakąś witrynę a Google gwałtownie obniżył ilość podstron  w indeksie. Jeśli trwa to długi czas to może warto pomyśleć nad lekkim przebudowaniem witryny by zachęcić bota do odwiedzin…

Przebudowa witryny często pomaga też przy usunięciu filtrów na frazy, można więc upiec dwie pieczenie na jednym ogniu.

 

Google – przyszło nowe

Ostatnie dni obfitowały w zmiany w  Google oraz jedną katastrofę.

Niektóre zmiany już się dokonały, na inne poczekamy do czasu wejścia nowego silnika w życie.

Patrząc po wypowiedziach na forach lub innych blogach tematem numer jeden jest:

1. Personalizacja wyników dla osób nie zalogowach w Google

W tamtym tygodniu nagle podniosła się wrzawa, że koniec pozycjonowania już blisko bo Google zaczęło personalizować wyniki wyszukiwania dla wszystkich…

historia online

…. i zapanowała jakaś swoista panika wśród pozycjonerów. Że to będzie SEO killer, bo teraz wyniki same się będą ustawiały pod usera więc SERPy będą różne dla każdego. Że tylko duże witryny będą miały lepiej. Że już widać spadki w ruchu bo długi ogon leci…

Trochę prawdy w tym co piszą jest, lecz mam wrażenie jakby piszący na dzień dzisiejszy trochę przesadzali.

Sama idea personalizacji wyników dla każdego nie podoba mi się.  Uważam, że powinien mieć wybór czy chce taką funkcje.

Mimo, że zostaliśmy uszczęśliwieni tym na siłę, może jednak zmienimy o tym zdanie tak jak wielu zmieniło zdanie o podpowiedziach słów przy wyszukiwaniu.

Ale do rzeczy:

W personalizacji na pewno mamy mechanizm, który sprawia, że odwiedzone strony będą wyżej w wynikach niż te które pominęliśmy. Przy wyszukiwaniach na inne słowa kluczowe, odwiedzone witryny będą miały bonus w pozycjach.

Niby ważny jest czas jaki spędzimy na danej witrynie. Te, na których jesteśmy dłużej pną się wyżej w naszym prywatnym rankingu.

Wielu w tym widzi zagrożenie bo przecież będą dość wielkie roszady w SERPach. Zapominają jednak, że będą to zmiany lokalne dla jednego usera (przynajmniej na dzień dzisiejszy), więc dla wielu innych użytkowników wyszukiwarki, pozycje będą takie jak ustawiają im pozycjonerzy (albo wyszukiwarka hehe).

Nie zapominajmy też o tym, że jeśli wyłączanie personalizacji nie jest w 100% poprawne,  to możemy zakładać, że i personalizacja będzie co jakiś czas  ustawiana od nowa.

Innym mechanizmem, który według mnie będzie w personalizacji lub już jest to wyświetlanie behawioralnych wyników w SERPach. Jeśli tego nie będzie, moim zdaniem, zostanie zatracona cała idea personalizacji.

Mechanizm ten miałby dobierać wyniki do aktualnych zainteresowań szukającego.

Dla przykładu wpisując „drzwi Poznań” po chwili wyszukiwania dostaje tylko wyniki z drzwiami wewnętrznymi bo tylko takie linki klikam i przeglądam. Wpisując „foteliki dziecięce” wyniki ustawiają mi się głównie pod kątem samochodowych fotelików a nie np fotelików do domu dla lalek.

Uważam, że ten mechanizm wpłynie bardziej na ruch w witrynach niż proste podbijanie pozycji odwiedzonych witryn.

Jednak wprowadzenie przez Google jakiejkolwiek personalizacji daje sygnały na przyszłość, że wyniki naprawdę mogą być ustawianie w dużej mierze przez użytkowników a nie algorytm i matematykę.

Po prostu próbka danych jaką Google otrzymuje to piękna podstawa do analizy, które witryny są OK a które już takie nie są.

Wiele nie trzeba myśleć by dojść do wniosku, że prędzej czy później Google tą wiedzę wykorzysta a wtedy pozycjonowanie rzeczywiście będzie zagrożone.

Na zagranicznych formach już teraz można przeczytać opinię, że pozycje są uśredniane poprzez odwiedziny użytkowników. Tzn, że już teraz wejście pewnej ilości ludzi ma wpływ na pozycje dla tych, którzy szukają.

Osobiście uważam, że po kilku dosłownie dniach lepiej takich opinii nie przedstawiać, jak i z innymi sprawami, w pozycjonowaniu lepiej poczekać i obserwować.

2. W SERPach pojawiały się wypowiedzi z mikroblogów bez opóźnienia w czasie.

To jest nowa funkcja, która mało zainteresowała pozycjonerów bo i z pozycjonowaniem niewiele ma wspólnego.

W Google światowym podczas wyszukiwania można się natknąć na wpisy z Twittera. Są one wyświetlane w czasie rzeczywistym bez opóźnień związanych z indeksacją.

Z tego co na razie widzę, mechanizm ten jest już testowany przez spamerów.

szukane - pozycjonowanie

wyszukanie - "pozycjonowanie" z opcją "najnowsze"

„Wyniki live” (nie wiem czemu tak to niektórzy nazywają) jak widać mogę być  niesamowitym narzędziem SEM.

Umiejętnie napisany wpis pojawia się na pierwszej stronie wyników danej frazy = potężna liczba wejść za niewielkie pieniądze lub za darmo.

Na razie z tego co czytałem, mechanizm wymaga dopracowania bo można przemycić w wyświetlanych wpisach treści, które nie powinny się tam pojawiać.

3. Biedny parametr „site”

Ten punkt powinien rozbić na dwa podpunkty.

a)

Pojawiała się informacja, że w nowym silniku Google, nie będzie wyświetlana ilość wyników używając tego operatora.

Do tej pory cyferka ta służyła nam pozycjonerom,  do określania ilości zaindeksowanych podstron w wyszukiwarce.

Była to wielce przydatna informacja bo można było z niej wyciągnąć wiele wniosków.  Pośrednio można było poznać moc linków jakie prowadziły do sprawdzanej witryny, ogólne tendencje w Google (indeksowanie), filtry, szybkość rozrostu witryny, problemy z nawigacją itp itd.

Można napisać, że od zawsze to było a teraz prawdopodobnie zniknie – no trudno.

Jest jednak jeden problem, dotyczy on w mniejszym lub większym stopniu większości pozycjonerów. Dla większości systemów wywiany linków parametr ten jest głównym modyfikatorem ilości punktów.

Wrzawa się podniosła, co teraz?

Do tej pory było łatwo. Dużo zaindeksowanych podstron = dużo podstron do emisji linków.  Wystarczyło dodać do tego jakieś plusy lub minusy za różne rzeczy związane z witryną i po kłopocie.

Nie jest to mechanizm sprawiedliwy ale dzięki tej  prostej metodzie wyliczano ile ktoś daje do systemu a ile może zabrać.

Niedługo jednak to zniknie…..

Co dużo pisać jeśli tak się stanie systemy będą musiały wymyślić nowy sposób oceny witryn a może to spowodować zmiany na podium liderów. Wszystko zależy od tego co zostanie wdrożone po zniknięciu tych cyferek.

b)

Kilka miesięcy temu w Google nagle zwiększyła się ilość wskazywanych zaindeksowanych podstron. Od razu odbiło się to w ilościach punktów będących w obiegu w SWLach.

W miniony weekend wśród użytkowników  e-Weblinka zapanowało poruszenie bo nagle site zaczął wyparowywać.

Jak pokazuje systemowy wykres w ciągu dwóch dni ilość podstron systemie spadła o około 190 mln (około 60% całości).

Na razie „tragedia” ta dotknęła tylko ten system. Prawdopodobnie dlatego, że używa on ogólnoświatowych DC a nie polskich.

Moje narzędzia, które codziennie sprawdzają mi ilość zaindeksowanych podstron także pokazują niezłe spadki (także korzystam z DC dla google.com).

Co ciekawe spadki te nie przełożyły się w widoczny sposób na zmniejszenie  ruchu, więc można założyć, że Google odfiltrowuje to co jest niepotrzebne. Ruch oczywiście spada ale uważam, że jest to wynik handlowego weekendu przed Świętami.

Na dzień dzisiejszy sprawa trochę się uspokaja, spadki się ustabilizowały na pewnym poziomie.

Tak się zastanawiam czy nie jest to celowe działanie Google polegające na wyczyszczeniu podstron przez przełączeniem na nowy silnik?

Do Świąt został tydzień, więc na pewno wykonują już jakieś działania przygotowujące Google do takiej zmiany.

Ciekawy koniec roku mamy, ciekawe co nas jeszcze czeka…..

Google vs Webmini

W poprzednim tygodniu w jednym z wątków na PiO przeczytałem o tym, że wykorzystywane przez pozycjonerów skrypt Webmini przestał być lubiany w Google.

Nasza „kochana” wyszukiwarka postanowiła rozstać się z bliżej nieokreśloną ilością witryn opartych na tym skrypcie.

WebMini to skrypt prostego katalogu stron, został on udostępniony przez ekipę jednego z systemów (e-weblink) dla swoich użytkowników.

W odróżnieniu od paru „białych SEO blogerów” nie oceniam źle tego, że ekipa SWLa udostępnia skrypt, który może służyć za zaplecze w tym systemie. Uważam to za całkiem logiczny ruch i dziwie się, że inne SWLe nie podłapały jeszcze tego pomysłu.

Ale nie o tym chciałem pisać…

Jakiś miesiąc temu zrobiłem sobie listę ponad 300 WebMini. Listę budowałem wyszukując je w Google i w spisach katalogów.

Po aferze z banowaniem tego skyptu sprawdziłem o ile skurczyła się moja lista.  Byłem dość zdziwony wynikiem sprawdzenia site: zapisanych przeze mnie adresów.

Na około 300 szt. zostało usuniętych z Google 67 katalogów. Całkiem nieźle, ponad 20% witryn jakie miał zapisane Google ukarał.

Nie wydaje mi się aby moja lista była jakaś szczególna, mogę więc założyć, że te 20% odnosi się do wszystkich witryn.

Po dokładnym sprawdzeniu zostało mi 208szt., z czego 9 jest w tempie bo nie działają. Skąd ta różnica – 300-20% to nie jest 208.. Od razu usunąłem te, które miały site mniejszy niż 10, zgłaszały 403 lub na stronach był inny skrypt niż WebMini.

Nie byłbym sobą jakbym nie sprawdził tych, które zostały na liście. Interesowało mnie co robią pozycjonerzy, gdy dostaną coś gotowego do ręki. Tak naprawdę jednak, już na początku sprawdzania wiedziałem jaka będzie odpowiedź na to pytanie.

Nie robią nic! Po prostu wrzucają takowy skrypt na serwer, linkują albo i nie, i zapominają. Prawie wszystkie katalog jakie odwiedziłem miały standardowy wygląd – były po prostu takie same.

Tylko kilku włascicieli pokusiło sie o zmiane desingu lub inne modyfikacje.

Ok, zmiana wyglądu to już wyższa szkoła jazdy, trzeba znać się na tworzeniu stron i mieć czas. No ale Panowie i Panie zmienić title to już chyba każdy umie … albo nie…

56 katalogów ma title „WebMini katalog stron internetowych” – 20szt. ma „WebMini katalog stron”

Dziwne, ludzie nie rozumieją, że jeśli w SEO bierze się coś napisanego dla wszystkich to trzeba coś w tym zmienić …

Natchnęło mnie to by postawić sobie taki jeden katalog i sprawdzić ile pracy i czasu zajmnie mi zmiana tego co mogę zmienić nie znając się na tworzeniu stron. Użyłem tylko wiedzy jaką pozyska każdy instalując parę skryptów.

Lista zmian:

– usunąłem logo

– dodałem trochę tekstu, w stopce i w prawej kolumnie.

– zmieniłem title, dopisałem meta description, usunąłem meta keywords (bo po co ma to być)

– usunąłem wszelkie reklamy i linki do produktów twórcy, na co zezwala licencja (sorry Tomek :) )

– zmieniłem wszystkie teskty, które mogłem zmienić, wyszukując „Ostatnio dodane”, „reklama”, „wiecej” itp itd

– zmieniłem ilości wyświetlanych elementów w konfiguracji.

– przemieszałem lekko kolejność wyświetlania się elementów strony zamieniając miejscami divy

– zmieniłem konstrukcje wszystkich adresów podstron

– dodałem nofollow w paru miejscach i usunąłem linki, które wydawały mi się niepotrzebne ( np zaloguj)

– zmieniłem css na inny kolor, zmieniłłem nazwę pliku css oraz zmieniłem nazwy paru klas.

– zmianiłem lub usunąłem wszelkie <h..> </h..>

W planach miałem jeszcze usunięcię wszelkich komentrzy typu <–start … –> <– end..–> jednak zablakło mi na to czasu.

Całość „instalacji” zajęła mi około godziny. Trochę długo ale okazało się, że muszę doinstalować sterownik od sqlite oraz rozwiazać problem z uprawnieniami do pliku bazy.

Zmiany jakie zrobiłem nie są rewolucyjne ale usunąłem większość cech wspólnych po jakich można odnaleźć ten katalog.

Oczywiście najlepiej byłoby go przebudować i dodać nowy wygląd ale zapewniam Was lepsze takie moje zmiany niż żadne.

Pierwszy katalog zrobiłem przedwczoraj a drugi wczoraj. Już zabierałem się za dodanie do nich linki z mojego zaplecza gdy wpadłem na pomysła sprawdzania jaką moc indeksacji maja ta sieć katalogów.

Dodałem więc szybko obydwa katalogi do około 30 losowych Webmini, dziś już obydwa mają zaindeskowaną jedną podstronę. Fajnie, zobaczę co się z nimi będzie działo dalej…

Jak myślicie, zmiany jakie zrobiłem wpłyną pozytywniena te witryny czy tylko niepotrzebnie traciłem czas?

« Poprzednia stronaNastępna strona »

mkane blog
Przegląd prywatności

Ta strona używa plików cookie, abyśmy mogli zapewnić Ci jak najlepsze wrażenia z użytkowania. Informacje z plików cookie są przechowywane w przeglądarce użytkownika i pełnią takie funkcje, jak rozpoznawanie użytkownika przy ponownym wejściu na naszą stronę internetową oraz pomagają naszemu zespołowi zrozumieć, które sekcje strony internetowej są dla użytkownika najbardziej interesujące i przydatne.