Wytyczne Google dla SQR

Kilka dni temu pojawiła się informacja o kolejnym wycieku dokumentu opisującego wytyczne Google dla osób, które zajmują się sprawdzaniem jakości wyników. Search Quality Rater bo tak nazywają się takie osoby, sprawdzają po prostu nadchodzące zgłoszenia o spamie.

Dokument na 125 stronach opisuje dokładnie na co zwracać uwagę przy przeglądaniu witryn i jak kwalifikować to co zostało na tych witrynach znalezione. Opisywane jest w nim wiele spraw, między innymi dokładny system ocen lub gdzie sprawdzać dane właściciela domeny (swoją drogą nie dają nawet do tego własnego narzędzia).
Mnie jednak najbardziej interesuje temat oznaczania spamu i na tym dziś chciałbym się skoncentrować.

Na co więc pracownik Google oceniający witryny ma obowiązek zwrócić uwagę i oznaczyć to jako „spam” lub „może spam”

Ukryty tekst

Nie od dziś wiadomo, że ukrywanie tekstu jest techniką niewiele mającą wspólnego z profesjonalnym SEO. Od wielu, wielu lat jest to piętnowane i nie ma co się „bawić” w jego ukrywanie.
W wytycznych jest wyraźny opis jak taki tekst znaleźć, a podane jest to językiem wskazującym na to, że ludzie pracujący przy tym zajęciu na pewno nie muszą umieć tworzyć stron. Tak w ogóle cały dokument jest pisany bardzo szczegółowo by osoba to czytająca nie musiała zastawiać się nad tym, jak te wytyczne zrealizować.

Wracając do ukrywania tekstu – tego nie robimy bo jak pójdzie spam report to oznaczą nas jako „spam”.

Powtarzanie słów kluczowych

Upychanie gdzie się da słów kluczowych to częsta „technika SEO”. I na pewno nie chodzi tylko o zagęszczanie do granic możliwości udziału frazy w tekście ale o wstawianie w atly i title, czy też pod jakieś zdjęcia itp itd. W swoim czasie można było wiele tym zdziałać, dziś oprócz tego, że możemy być oznaczeni jako spamerzy, należy uważać by nie „przeoptymalizować” w ten sposób swojej witryny.

Jak widać więc, warto zwiększając udział frazy na podstronie zastanowić się jak to może być odebrane przez oceniającego.

Przekierowania

„Raterzy” oceniać mają głównie te „podstępne” :) przekierowania oraz w JS.
Co ciekawe opis przekierowania mówi o sytuacji, gdy wyszukiwarka widzi stronę początkową a użytkownik zamiast niej jest przekierowany na inną.
Wynika więc z tego, że przekierowania 301 mogą być tak oznaczone do chwili gdy wyszukiwarka usunie z wyników witrynę/podstronę, która jest przekierowywana.

Inną, nie mniej ważną ciekawostką, opisaną w tym punkcie jest informacja o tym, że jeśli obydwie domeny mają tego samego właściciela to wszystko jest OK. To mnie dość mocno zadziwiło. Wynika z tego też, że jeśli nasza strona jest oceniana, sprawdzane jest i whois.

Przekierowania w JavaScript to osobna sprawa. Takie przekierowania zakwalifikowane są jako cloaking i oznaczane są jako spam. Zwłaszcza jeśli strony są różne.

Ocena różnic pomiędzy stronami ma także znaczenie przy kwalifikacji innych przekierowań.

100% ramka

W tym przypadku także chodzi o ukrywanie treści. Przyznam się, że nie spotkałem się nigdy z techniką tworzenia witryn na dwóch ramkach tak by jedną widziała wyszukiwarka a drugą użytkownik. Jak widać jednak problem jest na tyle duży, by taka informacja znalazła się w tym dokumencie.

Swoją drogą już myślałem, że będę miał argument dla opornych klientów, którzy mają pomysły w postaci zaciągania treści poprzez iframe.

Tekst z Wikipedii, DMOZ + reklamy

O kopiowaniu treści z witryn zostało napisane dość dużo w tym dokumencie.
Głównie należy pamiętać o tym, że:
– samo kopiowanie nie jest złem, oczywiście jeśli nie jest to kradzież treści,
– stworzenie witryny pod zarobek, która jest wypełniona skopiowaną treścią np z Wikipedii, nie jest dobrym pomysłem.

RSS + reklamy

W wytycznych można przeczytać zdanie, w moim wolnym tłumaczeniu
„Strona, która zawiera tylko darmowe dostępne kanały RSS i została stworzona tylko do zarabiania pieniędzy, jest spamem”
Nic więcej chyba dodawać nie trzeba.

….+ reklamy

Opis typów witryn, które mogą być stworzone by tylko zarabiać, zajmuje trochę miejsca. Nie będę jednak wszystkich dokładnie opisywał.
Po prostu należy pamiętać, że jeśli witryna którą stworzymy wygląda na taką, która istnieje tylko dla widocznych na niej reklam i nie ma sensownej treści, a do tego layout jest typowy dla „tego typu stron” – zostanie oznaczona prawdopodobnie jako spam.

Generowanie stron i szablonów

Generowanie nie jest dobre. Osoby oceniające zwracają umowę czy tekst nie jest generowany oraz na wygląd witryny.
Oczywiście by strona była zakwalifikowana jako spam nie może być tylko oparta na wygenerowanym szablonie, ważna jest też treść. Z biegiem czasu osoby oceniające uczą się rozpoznawać cechy szczególne takich witryn takie jak wypełnienie frazami treści, tytułów, urli. Jeśli dodatkowo znajdują się na takich witrynach linki do stron o niskiej jakości lub zrobionych pod zarabianie, jest to spam.

Fałszywki

Opisane są fake wyszukiwarki, fora i blogi, zawsze jednak w kontekście reklam. Nie liczyłbym jednak na to, że jeśli tych reklam nie będzie to takie witryny nie zostaną oznaczone jako spam.

Witryny pod Programy Partnerskie

Na co kontrolerzy maja zwracać uwagę przy określaniu czy jest to prawdziwa czy też nie witryna programu partnerskiego:
– koszyk jest w tej samej domenie co sklep,
– koszyk się aktualizuje po dodaniu produktu,
– na stronie są zasady zwrotu z podanym adresem,
– działający kalkulator opłat za wysyłkę,
– lista życzeń lub mechanizm pozwalający przechować koszyk przez jakiś czas,
– śledzenie wysyłek
– działające forum
– możliwość rejestracji i logowania

Jak widzimy informacje odnoszą się do programów partnerskich dotyczących handlu i w Polsce niewiele PP taką kontrolę by przeszło, niezależnie czy korzystalibyśmy w witryny własnej czy udostępnionej przez PP.
Na szczęście w zaleceniach jest informacja, że witryny nie muszą spełniać wszystkich tych wymagać i istnieją odstępstwa od tych reguł.

Zaparkowane domeny

Po wyjaśnieniu co to w ogóle jest domena (tak tak, jest o tym parę linijek) napisane jest
„Parkowanie domen: Spamerzy czasami kupują ….”
Nie muszę chyba nic dodawać, zaparkowane domeny oznaczone zostaną jako spam.

Inne

Na koniec dodam jeszcze, że zdziwiło mnie to, że oceniający mają dokładną informację jak oceniły daną witrynę inne osoby. Z jednej strony pomaga to podjąć jakąś decyzję, z drugiej taka wiedza może sugerować jaka ta decyzje powinna być.

Za rok lub dwa wypłynie kolejny raz taki dokument, pozostaje nam czekać do tego czasu by sprawdzić co się w tym czasie w Google zmieni.

A Was co zaciekawiło w tym dokumencie ?

15 komentarzy

  1. Autor Piotr dodany 24 październik, 2011

    Dziwi mnie, że powtarzanie słow kluczowych, czy ukryty tekst są oceniane subiektywnie a nie z automatu. Pozdrawiam

  2. Autor Paweł Zinkiewicz dodany 24 październik, 2011

    Mnie też najbardziej zadziwił punkt o tym, że jeśli przekierowujemy na swoje strony to jest to ok. Jest to ukłon w stronę dużych, albo przynajmniej w stronę firm które mają swoje PP. Firmy takie mogą sobie spamować swoim PP, strzelać przekierowanie za przekierowaniem, a nikt ich nie odfajkuje.. Jaki z tego morał? Jak robimy redirecty, to tylko z własnym PP, wtedy może nawet cloaking ujdzie nam na sucho :)

  3. Autor mkane dodany 25 październik, 2011

    Dziwi mnie, że powtarzanie słow kluczowych, czy ukryty tekst są oceniane subiektywnie a nie z automatu

    Automat, jak to automat, wychwytuje pewnie tylko skrajne przypadki lub jego skuteczność jest niewielka.

    Mnie też najbardziej zadziwił punkt o tym, że jeśli przekierowujemy na swoje strony to jest to ok.

    Jak widzisz ten punkt zwrócił także i moją uwagę.
    Też od razu myślałem jak wykorzystać to u klientów, tylko że na szczęcie nie dotyczy to w pełni przekierowań via 301 o czym pisałem.

  4. Autor Serum dodany 25 październik, 2011

    Cytaty zapodane poniżej dotyczą wykorzystania metody 301:

    „Inną, nie mniej ważną ciekawostką, opisaną w tym punkcie jest informacja o tym, że jeśli obydwie domeny mają tego samego właściciela to wszystko jest OK”

    „Ocena różnic pomiędzy stronami ma także znaczenie przy kwalifikacji innych przekierowań”

    Czy należy to rozumieć, że podczas tradycyjnego pozycjonowania przez 301 pożądane jest, by obie domeny biorące w nim udział miały jednakowego właściciela, zaś różnice między stronami mogą być wówczas znaczne?

  5. Autor mkane dodany 26 październik, 2011

    Czy należy to rozumieć, że podczas tradycyjnego pozycjonowania przez 301 pożądane jest, by obie domeny biorące w nim udział miały jednakowego właściciela, zaś różnice między stronami mogą być wówczas znaczne?

    Przy 301 strona przekierowywana znika po jakimś czasie z SERPów, jest więc małe ryzyko, ze będzie ona oceniana przez QR. Jeśli by jednak taka sytuacja nastąpiła, fakt, że obydwie domeny są jednego właściciela działa na ich korzyść.

    Domeny, które są przekierowane, nie trafiają prawdopodobnie do oceny, sytuacja opisana w tym dokumencie dotyczy przekierowań podstron oraz innych typów przekierowań, które nie wyindeksowują przekierowanej witryny z SERPów.

  6. Autor Paweł Rabinek dodany 26 październik, 2011

    Sam temat pojawienia się takiego dokumentu w sieci jest dosyć ciekawy. Przeglądałem go i w sumie nie ma w nim nic specjalnie odkrywczego. Bardziej zastanawia mnie to czy ten przeciek z Google nie był przypadkiem „kontrolowany”, ot taka nowa, bardziej ekscytująca forma publikacji wytycznych dla webmasterów :)

  7. Autor Jaason dodany 27 październik, 2011

    „Raterzy” oceniać mają głównie te „podstępne” :) przekierowania oraz w JS.

    o jakich przekierowaniach w JS mowa? Ja np. przy linkach wychodzących stosuję metodę, że do hrefa daję # a do onclicka funkcję przekierowującą na dany adres.. czy to jest złe działanie?

  8. Autor mkane dodany 27 październik, 2011

    czy ten przeciek z Google nie był przypadkiem „kontrolowany”

    Pytanie jakie trzeba by wtedy zadać – co Google chciałoby takim działaniem osiągnąć?

    o jakich przekierowaniach w JS mowa

    O każdych przekierowaniach w JS, nie chodzi o linki.

  9. Autor anonim dodany 2 listopad, 2011

    A możesz podać link skąd można go jeszcze pobrać? :-)

  10. Autor mkane dodany 3 listopad, 2011

    A możesz podać link skąd można go jeszcze pobrać? :-)

    Znajdziesz w Google :) General Guidelines 2011

  11. Autor Robert dodany 5 listopad, 2011

    Budowanie zaplecza i wiązanie ze sobą stron tego samego właściciela od dawna nie było w żaden sposób negatywnie oceniane i to samo dotyczy przekierowań, więc to mnie nie dziwi. Podobnie nie dziwi mi, że zamiast automatów do oceny gęstości keywordów używa się ludzkiego mózgu. Mało- czas najwyższy, bo G ustami Cuttsa twierdzi, że robot ma działać jak żywy człowiek. A ponieważ nie umie (jeszcze) to gdzie się da, zamiast robota idą ludzie.

  12. Autor Paweł Mąka dodany 6 listopad, 2011

    Bardzo przydatny tekst wyciągnołem kilka cennych wskazówek.

    Pozdrawiam

  13. Autor Olek dodany 11 listopad, 2011

    Na koniec dodam jeszcze, że zdziwiło mnie to, że oceniający mają dokładną informację jak oceniły daną witrynę inne osoby. Z jednej strony pomaga to podjąć jakąś decyzję, z drugiej taka wiedza może sugerować jaka ta decyzje powinna być.

    wiedzą dopiero jak ocenią a nie wcześniej
    nie pytaj skąd wiem ;)

  14. Autor Mateusz Karbowski dodany 9 styczeń, 2012

    Spodziewałem się, że większość z tych rzeczy robi automat (np ukryty tekst i zagęszczenie słów kluczowych). A tu się okazuje, że to świstaki siedzą i ‚zawijają je w te sreberka’ ;)

  15. Autor mkane dodany 9 styczeń, 2012

    No niestety, automaty nie robią w G wszystkiego.