Czy mam karę za pozycjonowanie?

Przypadkowo trafiłem na searchenginejournal.com na wpis o tym jak rozpoznać, że Google nas przestało lubić.

Co jakiś czas dostaję wiadomość z pytaniem czy dana strona została obłożona filtrem lub zbanowana, mam nadzieję, że ten wpis komuś pomoże.

Określenie tego czy usunęli nas z wyników wyszukiwania jest proste. Używamy do tego operatora „site: nazwa_domeny” wpisując to w okno zapytania w Google.

Wynik może być dwojaki. Pierwszy to wyświetlenie wszystkich zindeksowanych podstron tak jak tu wtedy o banie nie może być mowy. Jeśli jednak zastaniemy taką sytuację to możemy zacząć się martwić. (moja domena z www. to tylko przykład :) )

Jeśli nic nie zostanie znalezione a domena jest stara i dobrze podlinkowana to na 99% zostaliśmy usunięci z wyników wyszukiwania. Śmiem twierdzić, że rozsądne pozycjonowanie z głową, nie może być przyczyną takiej kary. Najczęściej ban jest powodem śmiecenia w internecie lub na tej stronie, która została usunięta.

Jeśli jednak domena jest młoda lub prowadzi do niej mało linków to proponuję jeszcze nie wpadać w panikę.

W ciągu ostatnich 3 miesięcy cztery moje domeny znikły z wyszukiwarki. Od razu dodałem do nich nowe linki zachodząc w głowę dlaczego się tak stało. Po dwóch tygodniach wszystkie ponownie były w indeksie, co wskazuje na to, że po prostu linki, które do nich prowadziły były za słabe lub było ich za mało.

Podsumowując : mało linków/młoda domena – dodać trochę linków i poczekać!

Drugą sprawą jaką chce poruszyć w tym poście są filtry.

Filtr to celowe działanie algorytmu wyszukiwarki powodujące określone perturbacje niekorzystnie wpływające na filtrowaną witrynę/domenę. Filtry mogą dotyczyć pozycji fraz lub ilości podstron znajdujących się w indeksie wyszukiwarki.

Filtr prędzej czy później czeka każdego kto zajmuje się pozycjonowaniem stron lub udaje, że to robi. Niektórzy twierdzą, że „oni jeszcze nigdy” – jeszcze może nie ale i na nich przyjdzie czas :)

Poniżej przedstawiam parę czynności, które warto zrobić jeśli podejrzewasz, że serwis dostał filtr:

Sprawdź pozycje na interesujące Cię frazy

Warto sprawdzić pozycje na pozycjonowane frazy oraz frazy z „naturalnego” ruchu, które można znaleźć w statystykach. Jeśli wszystkie sprawdzone frazy są niżej niż były – prawdopodobnie filtr.

Spójrz na statystyki – zwróć uwagę na to czy ruch nagle nie zmalał lub systematycznie nie maleje

Statystyki naprawdę wiele nam powiedzą. Jeśli nagle w ciągu 2 dni ruch spadł o 90% – filtr.
Jeśli ruch maleje systematycznie to filtr już nie jest taki pewny, warto jednak popracować na serwisem.
W sytuacji gdy ruch maleje na jakiś okres czasu warto zastanowić się czy powodów nie można szukać gdzieś indziej niż w filtrach. Może były jakieś Święta lub po kilku dniach deszczu nagle zrobiła się słoneczna pogoda i ludzie pojechali na działki grillować.

Sprawdzaj indeksowanie się serwisu (site: nazwa_domeny] w Google – szukaj drastycznych spadków lub stałej tendencji spadkowej

Sprawdzanie site może ci pomóc w diagnozie, jednak nie zawsze zmniejszające się cyfry to na 100% filtr. Za to jeśli miałeś 1000 podstron w indeksie a nagle robi się z tego 2 szt. i mimo linkowania przez kilka tygodni nic się nie zmienia – prawdopodobnie filtr.

Upewnij się, że nie ma żadnych problemów z witryną w Google Webmaster Tools.

To rada oczywiście do tych, którzy dodają swoje serwisy do tego narzędzia Google. Pozycjonując dany serwis często to robię, nie uważam by było to straszne zagrożenie, za to mam dużo ciekawych informacji np o frazach na jakie pojawia się dana witryna w wyszukiwaniu.
Przeglądając informacje trzeba zwrócić uwagę na wszelkie problemy i błędy jakie Google łaskawie poda o serwisie. Może się np. zdarzyć, że bot nie może od 2 tygodni dostać się na stronę bo przypadkowo zmieniliśmy robots.txt lub właściciel hostingu odciął nie ten zakres ip co trzeba.

Sprawdź kiedy były ostanie odwiedziny bota Google.

Częstotliwość odwiedzin botów wyszukiwarek jest zależna od wielu czynników, jeśli jednak serwis jest pozycjonowany a bot był ostatni raz miesiąc temu to nie jest to dobry znak.

Zwróć uwagę na PageRank – N/A lub szary pasek w twoim pluginie to zły znak

Tu niewiele można napisać, znikający PR zawsze oznacza problem. Brak linków do tego nie doprowadzi, PR spadnie najwyżej do 0. Jeśli tak będzie można przebudować serwis i dodać nowe linki, po kilku miesiącach sytuacja prawdopodobnie zmieni się na lepsze.
Jeśli jednak jest N/A czyli brak PR to prawdopodobnie coś przeskrobaliśmy albo mamy serwis z potężną duplikacją treści np katalog stron – to jest filtr.

Sprawdź na jakiej pozycji jesteś wyszukując po prostu nazwę swojej domeny

Tu trzeba wprowadzić dwa warianty:
– serwis posiada unikalną nazwę domeny – wyszukujemy po prostu ją wpisując bez hierarchii (.pl, .com itp itd)
– nazwa nie jest unikalna – wyszukujemy ja w wpisując nazwę z hierarchią używając cudzysłów np „mkane.antygen.pl”.
W obydwóch przypadkach jeśli szukając swojego serwisu nie znajdziesz go maksymalnie na pierwszej lub drugiej stronie – prawdopodobnie filtr.
Już sam fakt, że witryna nie jest na pierwszym miejscu wyników może być niedobrym znakiem.
Jeśli pozycja jest taka sama jak przy innych znanych Ci frazach np w okolicy 50 pozycji – filtr.

Sprawdź, czy Google nie uważa, że witryna jest „niebezpieczna”: http://www.google.com/safebrowsing/diagnostic?site=twoja_nazwa_domeny

To narzędzie prawdopodobnie nie jest ci znane, warto jednak sprawdzić co tutaj piszą.
Jak widzisz jest tu informacja o tym, czy witryna znajduje się na liście niebezpiecznych stron (oznaczonych – „ta witryna może wyrządzić …..”. Znajdziesz też tu informacje kiedy ostatnio była sprawdzana i kiedy zostało znalezione coś niepokojącego. Dodam tylko, aczkolwiek chyba nie muszę, że informacja o tym, że serwis znajduje się na liście niebezpiecznych witryn nie jest pozytywną informacją.

Sprawdź kod HTML witryny czy nie ma tam linków do stron, których nie znasz lub nie zawiera tekstu, którego nie umieszczałeś.

Ten punkt wykonuję w miarę często, jeśli pozycjonuję lub opiekuję się jakimś serwisem. Po pierwsze najczęściej nie mam wpływu na różne prace deweloperskie i sprawdzam czy czegoś nie dodali lub zmienili. Po drugie szukam śladów „włamania”.
Jeśli serwis stoi na publicznym skrypcie naprawdę warto to sprawdzać bo można się któregoś dnia zdziwić, że ze strony wychodzi 150 linków do farmacji w rosyjskich domenach.
Można też znaleźć tysiąckrotne powtórzenie pozycjonowanego słowa bo ktoś życzliwy chciał wspomóc pozycjonowanie np webmaster, który się naczytał za wiele różnych blogów :).
Jak łatwo się domyślić w obydwu przypadkach Google nie potraktuje tego jako plus – mniemam, że reakcja będzie zgoła odmienna.

Sprawdź swoje inne witryny, niektórzy twierdzą, że Google może karać witryny jednego właściciela na jednym IP

Zdarzyło mi się kilka razy słyszeć o takich „seriach”. Karane były wszystkie serwisy bez wyjątku.
Wydaje mi się jednak, że aby dostać taką „promocję” trzeba trochę namieszać. Jak mocno musiałby wkurzyć Google jeden serwis by poleciało 50 ? Jeśli jednak 45 serwisów dostanie „żółtą kartkę” to może profilaktycznie pozostałe 5 też je otrzyma ….

Skopiuj dłuższy tekst (unikalny) ze swojej strony i wyszukaj go używając cudzysłowów – pozycja powinna być pierwsza

Nie ograniczaj się tylko do głównej strony Twojego lub pozycjonowanego serwisu. Sprawdź parę tekstów. Zawsze powinieneś być na pierwszej pozycji.
Jeśli nie jesteś na pierwszym miejscu to zastanów się czy ten tekst na pewno jest unikalny, napisany przez Ciebie. Jeśli jest na 100% unikalny a nie jesteś TOP1 to jest problem.
Rozwinięcie w kolejnym punkcie.

Podczas wyszukiwania skopiowanie długiego tekstu (unikalny) ze swojej strony sprawdź czy nie ma go w innych serwisach – kliknij „powtórzyć szukanie we wszystkich stronach” lub dodaj na końcu &filter=0

Jeśli Google pokazuje, ten tekst na innych stronach sprawdź dlaczego tak jest. Może to tylko naprawdę cytat, jeśli jednak cały tekst jest skopiowany interweniuj. Tak samo jeśli okaże się, że cała strona posłużyła komuś do stworzenia swojego serwisu.

Powielenia teksów jest w Internecie zmorą, często się mówi, że przodują w tym pozycjonerzy. Jest w tym sporo racji, bo wiele osób używa mniej lub bardziej udanych skryptów. Korzystając przy tym z różnych teksów, tworząc swoje zaplecze do pozycjonowania stron. Uważam jednak, że to spamerzy są większą plagą niż pozycjonerzy. Z drugiej strony jeśli ktoś kopiuje w dużym stopniu kogoś pracę trudno go nazwać pozycjonerem tudzież spamerem – są na to inne określenia nie przystające do tego bloga…

A może każdy pozycjoner jest spamerem ? :)

Podsumowując – klonowanie przez kogoś Twojej treści „jest be” i trzeba na to uważać bo można dostać filtr.

Zainteresuj się ilością linków prowadzących do witryny – sprawdzaj w Yahoo używając linkdomain lub w Google Webmaster Tools

Osobiście bardzo często sprawdzam ilości linków do witryn, które pozycjonuje. Robie to raz na 1-2 tygodnie, mam do tego odpowiednie skrypty. Nagły wzrost lub spadek ilości linków może być wynikiem czynników, na które nie masz wpływu np. konkurencja z nadmiarem punktów w jakimś systemie.
Oczywiście może to być też wynik Twoich mniej lub bardziej przemyślanych działań przy pozycjonowaniu.
Jeśli jednak dodajesz serwis do 10 katalogów lub precli dziennie to na pewno Yahoo nie powinno pokazywać kilkudziesięciu tysięcy linków.

Dlaczego Yahoo? Nie jest to idealne rozwiązanie, ta wyszukiwarka też ma swoje humory jednak sprawdzanie linków w Google mija się z celem, ponieważ ta wyszukiwarka pokazuje jedynie malutką próbkę.
W Google Webmaster Tools ilości już bardziej odpowiadają rzeczywistości jednak to narzędzie też ma swoje humory i nieraz pokazywane są jakieś dziwne wartości.

O czymś zapomniałem ? Jeśli tak to mi przypomnij :)

Mam nadzieję, że te parę słów o pomoże Wam zdiagnozować czy pozycjonowane przez Was witryny zostały zaszczycone jakimś filtrem czy tylko jest to kolejna „czkawka Google”.

Pozycjonowanie i nofollow vs Google

Od kilku dni na wielu blogach i forach trwa dyskusja ludzi zajmujących się pozycjonowaniem na temat informacji o tym, że Google „zmienia” politykę dotyczącą tego tagu w linkach.

Do napisania komentarza dotyczącego tej wiadomości zbierałem się kilka dni , w tym czasie trochę spraw się wyjaśniło.

Jak wiemy teoretycznie linki z nofollow nie przekazują mocy. Polemizowałbym z tym ale to nie wpis o tym.
Niektóre źródła podają, że nofollow powstało po to by oznaczać nim sprzedane linki.
Jak wiemy sprzedaż linków to coś czego Google bardzo nie lubi i jest to jeden z powodów dlaczego nie lubi ono pozycjonowania.

Stosujemy więc nofollow wtedy gdy nie chcemy przekazać gdzieś mocy (na pewno nie w sprzedanych linkach), najczęściej w stopkach do twórców skryptu/layoutu,
moja stopka z nofollow

w komentarzach na blogach, (u mnie tym atrybutem jest oznaczony link autora) oraz w treści komentarzy

komentarz nofollow

lub w treści gdy chcemy by „moc” nie wyciekała :)

nofollow w treści

Najczęściej jednak stosujemy ten znacznik w obrębie swojej witryny by tworzyć „ścieżkę SEO” czyli odpowiednio sterować mocą kierując ją do wewnątrz serwisu.

by uniknąć podwójnego linkowania do jednej podstrony lub tych, których może nie być w wyszukiwarce

nofollow - niepotrzebne podstrony oraz podwójne linki do tego samego miejsca

oraz nie wiadomo po co ale używam by później się tłumaczyć z tego (tłumaczenia nie przytaczam :) )

niedobre YouTube z nofollow

Jak widać jest to nagminnie stosowany atrybut linków przez „małych” i przez „dużych”.

Pozycjonowanie danego serwisu często wymusza takie techniki i co tu pisać często dzięki temu umożliwione jest pozycjonowanie długiego ogona.

Nadużywanie tego znacznika zdenerwowało niby Google i firma ta postanowiła zmienić algorytm by zniwelować pewne działania pozycjonerów.

Krótko o co chodzi w plotce, która stała się powodem do dyskusji

Do tej pory gdy na stronie było 5 linków wychodzących a trzy z nich miało rel=”nofollow”, cała moc niby przekazywana była poprzez te dwa nieoznaczone linki.
Po zmianie algorytmu te dwa nieoznaczone linki przekazywałby tylko 40% mocy a 60% szło by do kosza.
Czyli każdy link uczestniczy w dystrybucji mocy ale te z nofollow kierują je w otchłań, gdzie nikomu nie służy.

Trochę mnie ta informacja zdziwiła, bo Google cały czas promował ten znacznik i dalej to czyni.
W ostatnim wpisie pisałem o poradniku SEO PL by Google, tekst poniżej pozwoliłem sobie skopiować właśnie z tego dokumentu.

Kiedy jest to przydatne? Jeżeli strona zawiera blog z możliwością dodawania komentarzy, zawarte
w nich linki mogą przekazywać reputację witryny do stron, za które nie chcemy odpowiadać…..
….Ustawienie wartości „nofollow” dla
dodawanych przez użytkowników linków zapewnia, że ciężko zapracowana reputacja witryny nie
zostanie przekazana stronie ze spamem…….Innym użyciem oznaczenia „nofollow” jest sytuacja, gdy w treści mają się znaleźć odnośniki do innej witryny, ale nie ma być jej przekazana reputacja. …………….. Chcemy ostrzec innych przed witryną, więc zamieszczamy do niej link
w treści, jednakże nie chcemy oczywiście podzielić się z nią naszą reputacją. Jest to dobry moment na
użycie oznaczenia „nofollow”…..W końcu, jeśli żaden z linków na stronie nie ma być śledzony…Tę
metodę wpisuje się w postaci .

Ciekawe cały dział poświęcony temu atrybutowi, sam nie wiem co o tym myśleć….

Jak już pisałem od momentu pojawienia się tej plotki do dziś zabrał głos Matt Cutts oznajmiając nam, że się nie znamy bo te zmiany nastąpiły już ponad rok temu tylko nikt tego nie zauważył.

Przyznam się, że wcale bym się temu nie zdziwił. Po prostu jeśli w krótkim czasie zostało to zmienione w obrębie całego świata to mogliśmy to odczuć jako kolejną dużą czkawkę Google, z którą mamy do czynienia przynajmniej raz a często więcej razy każdego roku.
By wspomnieć tutaj słynne -70 z poprzednich wakacji lub nagłe wyindeksowania dużej ilości serwisów z roszadami w SERPach.

Można przetestować tą informację. By to zrobić trzeba stworzyć kilkanaście minimum serwisów. Wypozycjonować nimi jakąś prostą frazę a później sukcesywnie zwiększać na nich liczbę linków zewnętrznych okraszonych atrybutem nofollow.
Jeśli pozycje będą spadały, może to być efekt utraty mocy linków pozycjonujących z tech serwisów.

Ciekawi mnie to, więc jak znajdę czas zrobię taki test, jak wiemy taka informacja sprawdzona „organoleptyczne” może wpłynąć jedynie pozytywnie na pozycjonowenie serwisów, którymi się opiekujemy.

Na razie jednak pozostaje obserwować czy rację ma Matt i to już jest czy też nagle zostanie wprowadzone.

Czyli standardowo „robić swoje i czekać”….

Pozycjonowanie i optymalizacja – oficjalny poradnik Google PL

Kilka miesięcy temu pisałem o poradniku SEO dotyczącym optymalizacji a także pozycjonowania, jaki wyszedł z pod palca pracowników Google.

Kilka dni temu „Podręcznik startowy optymalizacji pod kątem wyszukiwarki Google” doczekał się tłumaczenia na nasz rodzimy język oraz 39 innych.

Podręcznik jest tylko przetłumaczony bez żadnych uaktualnień (a szkoda) i można go ściągnąć tutaj.

Zachęcam wszystkich do przeczytania tego podręcznika, niektórym przypomni parę informacji a innym dostarczy nowej wiedzy.

Ponownie nie będę opisywał jego zawartości, jeśli jednak ktoś chciałby bym ustosunkował się do któregoś z punktów to proszę o maila lub informację w komentarzu.

Wiosenne porządki – katalogi

Średnio dwa-trzy razy do roku siadam przed laptopem i sam dodaje parę serwisów do katalogów.
Jak wiemy kilka lat temu pozycjonowanie odbywało się głównie przez katalogi, później przyszedł nieszczęsny Adder, który zabił QlWeba, to samo robi teraz z Otwartym.mini (a może już zrobił..?).
Dziś traktuję katalogi jako źródło stałych, najczęściej słabych linków, na wielu IP. W katalogach najczęściej umieszczam linki o dość zróżnicowanych, przemieszanych, a niektórych stworzonych z ułańska fantazję anchorach.
Niektóre katalogi oczywiście traktuje jako pewne medium reklamowe, jednak głównie myślę o pozycjonowaniu.

Przy dodawaniu wspieram się pewnym programem, który wypełnia za mnie pola, o tym gdzie strona będzie dodana , decyduje moja skromna osoba.
W bazie miałem około 2000 katalogów. Dodawałem do bazy tylko katalogi na skryptach mniej popularnych, autorskich oraz Otwarty.mini, który mi się to kiedyś bardzo podobał.

To tyle tytułem wstępu :)

Moje narzędzie pokazuje mi PR danego katalogu, podczas dodawania. Niestety ostatnimi czasy, większość katalogów ma PR 0 a nawet N/A. W tamtym roku sprawdziłem kilkadziesiąt takich katalogów z N/A i najczęściej było one zaindeksowane i to całkiem nieźle.
Niestety wczoraj podczas dodawania sprawdziłem kilka w Google i okazało się, że nie ma ich tam..

Standardowo postanowiłem sprowadzić od razu wszystkie by niepotrzebnie nie dodawać do katalogów, których nie ma w Google.
Trochę to czasu trwało bo każdy sprawdziłem ręcznie, zmieniając wiele razy IP :) (oj Google mnie nie lubiło coś).
Wynik trochę mnie zaskoczył, pamiętajmy o tym że sprawdzałem katalogi, które działają i można do nich dodać stronę.

Usunąłem z bazy:

  • 8% kat. na skrypcie CNCat
  • 10% kat. autorskich
  • 11% kat. na mało popularnych i fajnych skryptach np IndexU, FreeGlobes itp
  • 27,5% kat. na skrypcie otwarty.pl mini

Dodatkowo 10 katalogów zostało usuniętych bo mnie ładnie Google ostrzegł, że mogą mi zrobić krzywdę a niestety najczęściej to prawda. Kilkanaście sztuk miało zaindeksowaną tylko jedną, jakąś głęboką podstronę – „pechowców nie potrzebujemy” :).
Tradycyjnie kilka katalogów było zaparkowanych, więc z nimi też się rozstałem.

Na oko patrząc 1/3 katalogów jakie przejrzałem ma site do 300 podstron, większość ma 300-1000 podstron w indeksie. Oczywiście są katalogi z 3,5 czy też 15k site w Google. Niestety to najczęściej nie jest cały katalog.
Można więc założyć, że albo dodajemy do powiedzmy 200 katalogów i dostajemy jakaś moc w miarę szybko co widać w pozycjonowaniu. Lub dodajemy do większej ilości ale wtedy na pozycjonowanie ma to często nikły wpływ do tego rozciągnięty w czasie.
Ostatnio Google nie lubi katalogów, wyindeksowuje je dość znacznie niezależnie prawie do mocy jaka jest na nie skierowana.
Trochę to dziwne bo znam fajne, branżowe katalogi, które naprawdę na takiej polityce cierpią i nic z tym nie można zrobić.

Podsumowując, jeśli i Wy macie takie bazy to proponuję sprawdzić je przynajmniej raz w roku by niepotrzebnie się nie męczyć z dodawaniem tam gdzie już to nie ma sensu..

Podsumowanie roku – pozycjonowanie i nie tylko

I kolejny rok nam mija..
Jak zawsze o tej porze, kilka słów refleksji.

Pozycjonowanie – niewątpliwie tematem roku z naszej branży są dziwne działania Google w zakresie obdarowywania serwisów rożnej maści filtrami.
Kilka ironicznych słów, w tym temacie, napisałem we wpisie o „depozycjonowaniu„.
Niestety nie wszyscy zrozumieli sens mojej wypowiedzi, o czym mogłem sie przekonać w mailach jakie otrzymałem.
Sytuacja z filtrami trwa od sierpnia i choć ostatnio coraz mniej się ludzie żalą to niestety zjawisko to cały czas istnieje o czym przekonałem sie 23 grudnia, podczas swoistego kolejnego „rzutu”.

Parę słów, jakże oczekiwanego wyjaśnienia, pojawiło się na oficjalnym blogu Google. Nie omieszkałem oczywiście skomentować to w tym wpisie.
Dalej uważam, że część z tej wypowiedzi to swoiste brednie i pobożne życzenia ekipy Google.

Pozycjonowanie stron, na pierwszy rzut oka, nie jest mechanizmem skomplikowanym.
Wykorzystujemy algorytm wyszukiwarek, dodając plusiki tak by uzbierana miarka była „cięższa” od wagi konkurencji.

Nie dziwi mnie przeto zapał szerokiej publiki to samodzielnych prób pozycjonowania.

Niektórym to nawet nieźle wychodzi, szkoda tylko, że ośmieleni sukcesem często podejmują się pozycjonowania stron swoich klientów a z tym bywa już gorzej.
Nie wszyscy bowiem klienci przyjmują do wiadomości, że coś jest niezależne od pozycjonera, zwłaszcza po przeczytaniu mniej lub bardziej udanych wypocin pracowników Google.

Muszę też tutaj wspomnieć o „poradniku SEO” udostępnionym przez Google. Był to dobry krok by wskazać webmasterom podstawy, jeśli chodzi o korzyści z odpowiedniej budowy serwisu.
Dla pozycjonera powyższy spis reguł powinien być znany od podszewki, jeśli ktoś przeczytał w tym dokumencie jakąś sensacyjną informację to powinien się zastanowić nad swoją wiedzą.
Tak czy inaczej – „Google dziękujemy Ci” :).

Nie wiem czy możemy dziękować za nowe funkcje w wyszukiwarce Google, jakimi są podpowiedzi fraz oraz możliwość podbijania pozycji poprzez głosy użytkowników.
Podpowiedzi, mimo, że mają pomóc, powoli prawdopodobnie niszczą tzw „długi ogon”. Nie mam, w tym temacie, jeszcze 100% opinii, ponieważ wprowadzenie tego mechanizmu w czasie zbliżających się Świąt, moim zdaniem zafałszowało możliwość wyciągnięcia wniosków. Zobaczymy jak będzie w kolejnym roku.

Funkcja umożliwiająca głosowanie, na razie jest dostępna tylko zarejestrowanym użytkownikom, do tego z pewnych krajów. Powstał lekki szum w branży, jednak wydaje mi sie, że niewiele to zmieni sedno pozycjonowania. Najwyżej zmienią się narzędzia. Jeśli to wejdzie w standard to może się nawet okazać, że pozycjonowanie będzie prostsze niż było, bo takie mechanizmy jest naprawdę łatwo oszukać.

Czarnym koniem w branży pozycjonowania okazały się wszelkiego rodzaj listy stron zaplecza SWLi, tworzone przez teoretycznie „kolegów” z branży i wysyłanie owych list do Google.
Nie rozumiem do dziś po co te afery były i komu miały się przysłużyć. Tym bardziej, że skutek miały nijaki, SWLe stoją i mają się dobrze.

Porażką roku, w naszej branży jest SEODopalacz, system, który miał niby zrewolucjonizować naszą branże a dołączył do wielu mniej niż pośrednich systemów, które dają jakieś plusy jedynie właścicielom (jeśli dają).
Sorry Jeżu, pomysł w założeniach może OK ale wykonanie tragiczne o czym dobrze niestety wiesz.
Gratuluje za to PR`u, podbiłeś swoją ocenę w oczach wielu, tak niewiele od siebie dając.

O innych „nowych” systemach nie mam co pisać bo nauczony powyższym doświadczeniem jeszcze innych nie testowałem.

Będąc pozycjonerem, nie byłbym sobą jakbym nie wspomniał o pierwszym w Polsce procesie sądowym, w którym padło stwierdzenie „pozycjonowanie stron”. W procesie tym skazany został prawdopodobnie pozycjoner, który obraził w wyszukiwarce głowę naszego państwa. Obraza polegała na wypozycjonowaniu serwisu na obraźliwe słowo.
Swoją droga uśmiałem się słuchając „stworzył program komputerowy” i inne tego typu stwierdzenia ludzi, którzy tak naprawdę nie wiedzieli o co chodzi.

Patrząc na ten kończący już się rok, widzę, że branża pozycjonowania stron, poczyniła kolejne ważne kroki by wyjść z cienia i zająć odpowiednie miejsce w torcie reklamowym w Internecie.
Pojawia się coraz więcej firm pozycjonerskich, które mają na tyle dużą siłę przebicia by być zauważone przez innych dużych graczy internetowych. Przykładem niech będzie nawiązanie współpracy między Home.pl a Performance Media.
Oczywiście sama akcja była biciem piany ale nie można o tym fakcie zapomnieć. To nie jest jedyna współpraca jaką można było zauważyć, inni registratorzy też proponują usługi pozycjonowania.

Jeśli chodzi o reklamę i „bicie piany” to nie mogę pominąć majstersztyku jakim jest kampania na prezydenta USA – czarnoskórego Baracka Obamy. Niewątpliwie jest to najlepsza kampania marketingowa mijającego roku. Połączenie wszystkich dostępnych kanałów reklamowych, gry i internet, TV i prasa dała efekt, w postaci czarnoskórego prezydenta USA – czy ktoś podejrzewał kilka lat temu, że jest to w ogóle możliwe ?
Na szczęście u nas w Polsce politycy moją dużego laga w wyciąganiu wniosków, bo bałbym się co będzie w kolejnych wyborach prezydenckich u nas.

Podsumowując, mimo tego co tu napisałem, mijający rok nie był zły. Można nawet powiedzieć, że był to jeden z lepszych jakie ostatnio mieliśmy.
Lepszy patrząc branżę pozycjonowania i patrząc na życie w Polsce.

Oby nadchodzący rok nie był gorszy niż ten, który prawie już minął.
Tylko tego Wam życzę!

« Poprzednia stronaNastępna strona »