Polityka prywatności – aktualizacja

Wczoraj pisałem o wprowadzeniu przez Google reklamy behawioralnej. Dziś dostałem e-mail o potrzebie aktualizacji polityki prywatności na stronach emitujących AdSense. Myślę, że to potwierdza w 100% mój wczorajszy wpis.

Dlaczego musimy aktualizować? W związku w prowadzeniem śledzenia poczynań Internautów, musimy poinformować odwiedzających nasze strony o tym, że są śledzeni :)

Parę słów informacji o potrzebie zmian znajdziecie w Pomocy AdSense.

Podane jest tu nawet zdanie, które można dodać do swojej polityki prywatności. Lekko je zmodyfikowałem:

„W celu wyświetlania reklam w trakcie Twojej wizyty w naszej witrynie korzystamy z usług firmy Google. Google może wykorzystywać informacje (z wyłączeniem imienia i nazwiska, adresu, adresu e-mail i numeru telefonu) związane z Twoimi wizytami w tej oraz innych witrynach do wyświetlania reklam towarów i usług, które mogą Cię zainteresować. Odwiedź www.google.com/privacy_ads.html, aby uzyskać więcej informacji na ten temat oraz dowiedzieć się, w jaki sposób możesz uniknąć wykorzystania informacji przez Google.”

Dlaczego zmodyfikował ten zapis zamieniając „zewnętrznych firm” na Google ? Cały mechanizm śledzenia realizowany będzie przez Google. Gdybym miał wprowadzić na swoje strony innego reklamodawcę, który posługuje się podobnym mechanizmem to i tak informacja, podana w tym punkcie, jak to wyłączyć nie byłaby odpowiednia.
Ostatni powód jest prozaiczny, nie wiem jak Wy ale ja bym chciał wiedzieć kto mnie śledzi a „firmy zewnętrzne” to stwierdzeni za ogólne.

Powinien może napisać nowy wpis ale zamieszczę to tutaj.
Zauważyliście w jaki sposób wyłącza się zbieranie informacji ? Trzeba zainstalować dodatkowy plugin, pomyliłem się pisząc wczoraj, że pewnie trzeba to będzie zaznaczyć w swoim koncie Google.
Niby super, nie zmuszają ludzi do zakładania konta ale za to zmuszają do instalacji dodatkowego oprogramowania, które i tak nie wiemy co robi.
Uważam, że to zmniejszy jeszcze procent tych, którzy będą to blokowali w ten sposób a zwiększy użytkowników AdBlocka i innych tego typu dodatków do przeglądarek.
Po wczorajszym wpisie rozmawiałem z administratorem pewnej firmy, podczas dyskusji usłyszałem, że od jakiegoś czasu zastanawiają się nad wycięciem reklam Google globalnie na routerach. Coś mi się wydaje, że teraz gdy „śledzenie” staje się jawne, takie ruchy będą częstsze.

Uważaj gdzie łazisz

Wczoraj Google oficjalnie ogłosiło wprowadzenie reklam behawioralnych.

Co to takiego ? Najprościej pisząc jest to wyświetlanie reklam dobranych tematycznie do danego użytkownika przy pomocy śledzenia jego dotychczasowego zachowania.

Dla przykładu, jeśli odwiedzisz odpowiednią ilość stron o pozycjonowaniu to reklamy na innych serwisach teoretycznie dopasują się do tego co szukasz i będą wyświetlały reklamy związane z pozycjonowaniem.

W założeniu fajnie, bo przecież dobranie reklamy tematycznie pomoże wszystkich zainteresowanym grupom.
Ci, którzy się reklamują będą trafiali z przekazem do odpowiedniej grupy docelowej a owa grupa będzie zalewana tym co aktualnie ich interesuje.

System reklamy behawioralnej na początku prowadzany został w serwisie YouTube, działa od wczoraj. Już za kilka dni, kliku wybranych reklamodawców będzie miało możliwość przetestowania tego mechanizmu. Reszcie reklamodawców pozostaje poczekać do oficjalnego startu w kwietniu.

Mechanizm ten ma zbierać dane wykorzystując pliki cookie z programu AdSense by później przy zastosowaniu zaawansowanych algorytmów (w Google wszystko jest zaawansowane i Beta :) ) dobrać reklamy.

Użytkownik, może niby śledzenie jego poczynań jakoś wyłączyć, standardowo jednak opcja będzie włączona. Znając życie trzeba będzie mieć profil Google i być cały czas zalogowany. Nie ma to jak prywatność..

Mniemam, że jak przetestują to u siebie to mechanizm ten zostanie wykorzystany na innych serwisach, nie tylko tych należących do Google.

Bodajże dwa może trzy lata temu, podczas jednego z luźnych spotkań branżowych w Poznaniu, żywo dyskutowałem na temat z Tomkiem Frontczakiem (dwa dni, dwa wpisy i dwa razy Tomku do tablicy :) ) oraz paroma innymi osobami. Byłem bardzo negatywnie nastawiony do takiej formy reklamy.

Pewne moje obawy Google oficjalnie próbuje rozwiać. Mechanizm ten ma nie zbierać informacji o dość delikatnej naturze. Pomijane mają być dane związane z rasą, religią czy też orientacją seksualną oraz zdrowiem i finansami. W tych ostatnich tylko pewne, nie wyjaśnione szerzej tematy.

Fajnie, nie będę się bał, że jak przejrzę parę galerii roznegliżowanych Pań na jakiś portalach, to na drugi dzień będę jedynie widział reklamy domów publicznych.
Podejrzewam jednak, że zobaczę trochę więcej reklam związanych z bielizną i innymi „gorącymi” tematami.

Co mi się w tym tak naprawdę nie podoba? Jest to skala zjawiska, której nikt już może nie opanować. Google jednym ruchem wprowadzi tym nowy standard jednocześnie biorąc od razu potężny kawał tortu do swojej spiżarni.

Mimo danych Forrester Research, że 26% reklamodawców w Europie wykorzystuje już reklamę behawioralną, robią to jedynie lokalnie. Na swoich serwisach np gazeta.pl kiedyś o tym informowała.
O ile w obrębie jednego serwisu mi to nie przeszkadza o tym w obrębie całego Internetu jest to niepokojące.

Boję się, że Google już to robi lub zacznie jak pozyskają odpowiednie moce przerobowe i będzie wykorzystywało dane nie tylko z AdSense ale też i z wyszukiwarki, toolbara, Analytics i innych mechanizmów, które dostarczają tej firmie wielu informacji o Internautach.

W mojej czarnej wizji jest Świat, w którym po kilkugodzinnym przemierzaniu Internetu w reklamach po wiadomościach w TV dostanę je z dobraną tematyką specjalnie dla mnie. Myślicie, że to nie możliwe ?

Martwi mnie też, że Google coraz jawniej pokazuje, co o nas wie i jak nas śledzi, niewiele sobie robiąc z prawa do prywatności.

Jak czytam na innych blogach wpisy za każdym razem zahaczają o prywatność i skalę problemu. Oczywiście część tekstów jest o zaletach takich mechanizmów, co patrząc pod kątem biznesu jest zrozumiałe.

Niestety, mimo pewnych negatywów, mój głos i innych jest tylko krzykiem w otchłań.
Nie pierwszym i podejrzewam, że nie ostatnim.

Sentymenty Google już dawno się skończyły, już od pewnego czasu liczy się tylko money, money, money..

Autor – Powiązane artykuły

Jakiś czas temu na PiO oraz w informacyjnych serwisach internetowych pojawiła się informacja, że Google bacznie obserwuje autorów artykułów naukowych.
Według serwisu seoblackhat.com, który poinformował o tym, Google może w przyszłości premiować niektórych autorów w wynikach wyszukiwania.

Cała teoria wydaje mi się dość nieprawdopodobna, jednak dziś przypadkowo natrafiłem w wynikach wyszukiwania na oznaczenie autora oraz link do powiązanych z nim artykułów w Google Scholar (beta oczywiście :))

autor powiązane artykuły

Poświęciłem chwilę by przyjrzeć się tym powiązanym artykułom oraz Google Scholar i niestety muszę stwierdzić, że jeśli Google ma premiować teksty na podstawie autora to długa droga jeszcze przed nimi.

Ten mechanizm ma wiele błędów jednym z kuriozalnych wręcz na jaki trafiłem jest powołanie do życia autora o tajemniczym imieniu i nazwisku – „M Mechanisms”. Przeszukałem ten dokument i okazało się, że wyszukiwarka utworzyła to ze słów „marketing mechanisms” – coś im nie wyszło.

W wielu dokumentach, Google jako autorów podaje ludzi, którzy jak się okazało są wymieniani w tekście jako źródła.

Czym dłużej przebywałem na poszukiwaniu autorów w Google Scholar, tym bardziej byłem zdziwiony, że ktoś mógł puścić w obieg taką plotkę gdy mechanizm określania autorów jest po prostu w powijakach.

Ktoś może mi zarzucić, że Google Scholar to inna wyszukiwarka niż „zwykłe” Google. Uważam jednak, że właśnie mechanizmy z predefinowanej wyszukiwarki tekstów naukowych byłby wykorzystane przy „premiowaniu”.

Na koniec Pan lub Pani „M Mechanisms” jest autorem 136 naukowych publikacji. Nie możemy jednak zapomnieć o innych znamienitych naukowcach jakimi są „B Features”, „C Features”, „B Present”, „A Present”, „H Suspicious” oraz znamienity „A Transcription” i wielu wielu innych mniej znanych nieistniejących autorów jakich do życia powołuje Gigant z Mountain View.

Jak widać by można było taki mechanizm użyć pozycjonując strony trzeba jeszcze długo poczekać.

PS
Tomku – i przypadkowo zostałeś przykładem :)

rel=”canonical”

W dniu wczorajszym Google poinformowało nas o wprowadzeniu nowego tagu rel=”canonical”.
Co ciekawe tag ten będzie używany przez największą konkurencję Firmy Google – MSN oraz Yahoo, czyli wchodzi do standardu, który trzeba uwzględnić przy optymalizacji SEO danego serwisu.

Po co nam to ? Wg słów Pana Joachima Kupke dostaliśmy niesamowity zaszczyt decydowania o tym, które podstrony w naszym serwisie serwują daną treść, a które ją duplikują.

Jak wiemy od czasu objawienia się mechanizmu SI, duplikowana treść w obrębie witryny jest w pewnym stopniu problemem. Co widać często obserwując potężną liczbę zaindeksowanych podstron i nikły ruch generowany dzięki nim.

Przykładem niech będą serwisy działające na źle skonfigurowanych serwerach, które doklejają sesje do adresów. W takich serwisach bardzo często zaindeksowana jest ta sama podstrona kilkukrotnie.

Jak to używać?
Na podstawowej podstronie z treścią umieszczamy w sekcji < head > informację dla botów wyszukiwarek o treści :
< link rel="canonical" href="adres_właściwej_podstrony" />.

Czytając oficjalną informację od razu zacząłem się zastanawiać czy czasem nie będzie to oddziaływać na inne domeny. Wg informacji na blogu Google, nie będzie to działało ale z przekory dodałem rel=”canonical” do linków wychodzących z tego wpisu :)

Teraz pozostaje przetestować ten tag i jego prawdziwy wpływ na boty wyszukiwarki internetowe. Może będzie można wspomóc tym pozycjonowanie stron…

Moje linki w SWLach 2 – poletko pozycjonera

W sierpniu 2007 we wpisie Systemy – gdzie moje linki?, przedstawiłem Wam za ile linków „płacicie”, w systemach wymiany linków stałych, choć ich brak.

Po tym wpisie właściciel pewnego systemu, wziął się do roboty a po jej zakończeniu poprosił mnie o ponowne ich sprawdzenie. Oczywiście obiecałem, że to zrobię, nigdzie jednak nie podałem kiedy to uczynię :). Zajmuje się pozycjonowaniem, cierpliwość to moje drugie imię :).

Co tu ukrywać zabierałem się do tego od jesieni. Kilka dni temu usuwałem kilka moich serwisów z systemów i w jednym „zabrakło” mi punktów. Postanowiłem sprawdzić ile punktów tracę, „płacąc” za coś czego nie ma.

Według zasady „jak coś robisz, rób to dobrze”, postanowiłem wykonać sprawdzenie dla wszystkich systemów.

W początkowej fazie planowałem sprawdzić 500 linków z każdego SWL, jednak już przy pierwszym (Linkme), zwiększyłem tą liczbę do 1000szt. by wynik był jak najbardziej miarodajny.

Myślę, że jest to odpowiednia liczba linków by pokazać dokładnie co się dzieje w danym systemie.

Niestety podczas sprawdzania Linkme, przy założeniu 500szt., czekając aż automat skończy swoją pracę, ręcznie sprawdzałem dużą liczbę od razu wysyłając raporty. Po zmianie decyzji o ilości linków do sprawdzenia okazało się, że nie uzbieram w Linkme Elite 1000 szt. dlatego włączyłem do testu wersje SLIM.

Tym razem mój test obejmował pięć systemów a nie trzy jak poprzednio. Cztery polskie – LinkMe Elite i SLIM, Livelink, LinujPro oraz Linkorn.

Linkorna mogłem sprawdzić jedynie dzięki pomocy Jankiela z Tenso.pl, który udostępnił mi linki do sprawdzenia. W tym systemie nie mam konta i prawdopodobnie nigdy mieć nie będę, z wiadomych chyba powodów.

Ostatni, piąty system to zagraniczny SWL- Link-Vault.

Tym razem sprawdzenie przebiegało w trzech etapach.

Pierwszy etap – sprawdzenie linków automatem (z poprzedniego razu). Skrypt sprawdza obecność danego adresu w kodzie, zgłasza się jako “Mozilla/4.0 (compatible; MSIE 5.0; Windows NT), timeout ustawiony na 30 sekund.

Drugi etap – ponowne sprawdzenie skryptem, wykonane w dniu kolejnym.

Trzeci etap – sprawdzenie ręczne adresów, które wg skryptu nie emitowały moich linków.
W tym miejscu muszę dodać, że tylko w jednym przypadku okazało się, że skryptu monitował brak, mimo, że link był na stronie.

Dla adresów, które się nie otwierały lub widniał na nich error 500 sprawdzałem cache w Google. Jeśli go nie było sprawdzałem stopień zaindeksowania domeny i cache strony głównej. Jeśli był z tego miesiąca, oznaczałem link jako istniejący. Jeśli jednak był z tamtego roku a stopień zaindeksowania serwisu nikły, uznawałem, że link nie istnieje.
Adresy z error 404 i 403 na początku sprawdzałem cache oraz czy reszta serwisu też daje taki błąd. Jednak po kilkunastu oznaczonych w ten sposób adresach, postanowiłem zaliczać je od razu jako nie istniejące. Powód był prosty, zawsze reszta serwisu działała poprawnie a podstrona po prostu została skasowana.

Do testu wybrałem najdłużej linkowane strony. Wydaje mi się, że link umieszczony kilka tygodni temu częściej będzie emitowany niż taki, który „wisi” już od roku.

Przejdźmy do wyników…

LinkMe

Elite – sprawdziłem 885 linków, nie znalazłem 83 szt. w 52 domenach, co daje 6,55%
Slim – tutaj mogłem sprawdzić tylko 237 lokalizacji (wszystkie linki jakie posiadam :) ) z czego nie znalazłem linka w 25 miejscach, na 25 domenach, co daje 10,55%.

Patrząc na Elite i Slim jako całość sprawdzone zostały 1122 adresy – odnotowałem brak 83szt., na 77 domenach, co daje 7,4%.

Oczywiście podczas sprawdzania ręcznego znalazłem jedną zaparkowaną domenę i dwie zbanowane.
Jedna z domen zaś miała w indeksie tylko dwie podstrony z kopią z początków listopada 2008.

Stosunek braku linków na nie otwierających się stronach lub z 404 do tych, które po prostu ich nie emitują to około 50/50.

Zwróćcie też uwagę, że brakowało 83 szt. na 77 domenach. Ta informacja wydaje mi się dość istotna bo pokazuje jak przydziela ten system. Podejrzewam, że priorytetem jest rozmieszczenie linków na jak największej ilości domen. Za tym idzie prawdopodobnie fakt, że Googlowi łatwiej znaleźć naszego linka. Czytając dalej domyślicie się dlaczego o tym piszę.

Dla przypomnienia ostatnio Linkme tracił 13,33% naszych linków- jest jakaś poprawa :)

LiveLink

Sprawdziłem 1000 lokalizacji, nie znalazłem 146 szt. na 53 domenach – procentowo 14,6%.
Tak naprawę w tym przypadku niewiele jest to opisania. Stosunek nie otwierających się serwisów i 404 do braku linków wynosi około 10/90.
Niestety w tym systemie maksymalnie kuleje sprawdzanie czy linki są emitowane przez serwisy w systemie.
146 szt. i 53 domeny, możliwe, że to efekt małej ilości serwisów w systemie. Wydaje mi się jednak, że system tak losuje.

W poprzednim teście w tym systemie brakowało 20,83% – jest poprawa :)

LinkujPro

Ten zapomniany przez wielu system linków stałych naprawdę mnie zadziwił.
Sprawdzone było 1000 adresów, nie znalazłem 50szt. na 28 domenach.
Nie trzeba być matematykiem by określić, że uciekło gdzieś 5% linków.

50/50 to stosunek serwisów, które się nie otwierały lub dawały 404 do tych, które nie emitowały linków.

Naprawdę, w tym przypadku, jestem pozytywnie zaskoczony, myślałem, że ten zapomniany przez Boga SWL będzie w bardziej opłakanym stanie. Punkty tutaj są tanie, podobnie jak w LiveLinku i wydawało mi sie, że są na podobnym poziomie a tu proszę jaka niespodzianka.

Linkorn

Jak już pisałem ten system nie jest w moim kręgu zainteresowań i nie brałem go pod uwagę rozpoczynając ten test. Nie mam tam konta, więc nie miałem potrzebnych mi danych.
Udało się jednak przeprowadzić sprawdzenie tego systemu.

Ponownie sprawdzone zostało 1000 linków nie znalazłem 156szt. na 63 domenach.
Jak łatwo policzyć 15,6% to linki, które nie istnieją.

Stosunek nie otwierających sie stron i 404 do serwisów gdzie nie znalazłem linków to około 20/80.

Przyznam się, że ręce mi opadły jak policzyłem braki. I to jest ten system, który był niby jednym z najlepszych w Polsce, porównywany do LinkMe ? To jest ten system trącony boską ręką Mości Pana Anioła vel DirElite tudzież Paweł K., który ma doktorat z zakresu marketingu oraz ukończone studia doktoranckie obejmujące problematykę pozycjonowania (w Stanach Zjednoczonych i Wielkiej Brytanii). wg PWN :)
Dobrze, że się chłop ukrywa bo kolejny raz nie wytrzymałbym i napisał mu parę jakże „pochlebnych” słów.
LiveLink – rozumiem, Linkorn – a fe, niedobry linkorn….może Igthorn (pamiętacie tą bajkę? :) )

Link-Vault

Ojoj coś czuję, że ktoś mi zarzuci matactwo :)

Sprawdziłem oczywiście 1000 linków, nie znalazłem ich aż 7 razy (słownie: siedem razy) na 3 domenach co daje nam 0,7%.
W tym jedna domena nie działa a miała emitować 5 linków, na pozostałych dwóch linków po prostu nie było.

Podczas pierwszego sprawdzania skryptem, nie zostało znalezionych 28 szt. Pomyślałem sobie, że jest i tak nieźle. Po drugim sprawdzeniu zgłupiałem na tyle by sprawdzić ręcznie cała ilość nie dowierzając skryptowi.

W ostatnim teście brakowało w LV 5,31% linków – tak dla informacji.

I co tu pisać ? Że twórcy polskich systemów mogliby być „podnóżkiem” (Tołdi i jego Księciunio :)) dla twórców LV patrząc pod tym kątem mechanizmu sprawdzania emitowanych linków….
Zobaczcie jak wiele macie do zrobienia i jak wiele jeszcze macie do roboty, a jak nie to przyjdzie kiedyś ktoś kto zrobi to lepiej i……..

Ranking systemów pod kątem poprawności emitowania linków by mkane :).

  • 1. Link-Vault – 0,7%
  • 2. LinkujPro – 5%
  • 3. LinkMe – 7,4%
  • 4. LiveLink – 14,6%
  • 5. Linkorn – 15,6%

Według mojej oceny, trzy pierwsze pozycje to stan, który można zaakceptować, jednak 4 i 5 pozycja to tragedia. Na każde użyte 10k pkt w kosmos idzie około 1500 szt. mało ?
Potwornie dużo bo tą ilością można naprawdę wiele fraz zrobić, bez wielkiego myślenia nad tym.

Gorąco zachęcam wszystkich do kontroli swoich linków w SWLach.
Zwłaszcza tych, którzy pozycjonowanie wykonują głównie poprzez systemy.
Wyjdzie Wam to naprawdę na dobre….

« Poprzednia stronaNastępna strona »

mkane blog
Przegląd prywatności

Ta strona używa plików cookie, abyśmy mogli zapewnić Ci jak najlepsze wrażenia z użytkowania. Informacje z plików cookie są przechowywane w przeglądarce użytkownika i pełnią takie funkcje, jak rozpoznawanie użytkownika przy ponownym wejściu na naszą stronę internetową oraz pomagają naszemu zespołowi zrozumieć, które sekcje strony internetowej są dla użytkownika najbardziej interesujące i przydatne.