I po SEMcamp

Mój wyjazd do Warszawy 27.05 potoczył się trochę nie po mojej myśli.
Pojechałem samochodem, z myślą, że po całej konferencji chwilę posiedzę i wracam bo pracy mam dużo.

Okazało się niestety, że oprócz SEMCampu w Warszawie jest w tym dniu jeszcze jedna impreza, koncert AC/CD.

Piszę niestety, bo moja podróż zamiast około 4 godzin zajęła mi prawie 7 z czego pierwsze 200km to około 2,5 godziny a reszta to korek ciągnący się od Strykowa do Warszawy (lekko ponad 100km).

Co tu wiele pisać, zdążyłem na ostatnią minutę prezentacji Kaspara z Search Quality Team w Google, po której była przerwa. Szkoda, bo był to punkt w programie, który chciałem szczególnie zobaczyć.
Bardzo interesowały mnie rady jakie miały być udzielone witrynom przez prowadzącego prezentacje.

Po przerwie oraz dwóch kawach rozpoczęły się kolejne prezentacje.
Przemek Modrzewski opowiadał o tym jak wyciągać wnioski z danych w Google Analytics i jak je prezentować.
Słuchając prowadzącego miałem wrażenie, że mówi rzeczy o których każdy wie i powinien „naturalnie” się do nich stosować. Jednak rozglądając się po sali widziałem wiele osób, które coś skrzętnie notowały.
Kolejny raz doszedłem do wniosku, że coś co dla mnie jest oczywiste dla innych, z wielu przyczyn tak już być nie musi.

Następną prezentacje miał Mateusz Zyguła, który mówił nam jak wybrać firmę która będzie dla nas pozycjonować naszą witrynę.
Temat wydaje się nie potrzebny na takim spotkaniu, bo przecież większość to ludzie z branży. Okazuje się, że jednak tak nie jest, na takie spotkania przychodzą też ludzie, którym i taka wiedza się przyda.

Następna przerwa a po przerwie Mariusz Gąsiewski powiedział parę słów o remarketingu w kampaniach AdWords. Przykładem dla tej prezentacji była kampania dotycząca właśnie SEMCampu.

Po tej prezentacji nastąpił panel dyskusyjny, w którym byłem jednym z dyskutantów :)
Przyznam się, że to początkowy stres wymusił na mnie pełne włączenie się do dyskusji. Jakbym od początku nie odezwał się to pewnie z każdą minutą byłoby coraz gorzej :)
Jak gdzieś przeczytałem panel został zdominowany przez trzy osoby i jest to prawda. Głównie mówił Czarek, Kaspar i ja. Zastanawiałem się nad tym i wydaje mi się, że formuła takiej dyskusji nie umożliwia prowadzenia jej w większą liczbę osób. Po prostu za długo by to trwało a i tematy poboczne coraz bardziej rozmywałyby sedno pytań i dyskusji.
Po spotkaniu powiedziałem Mariuszowi, że taki panel powinien trwać minimum 2 godziny, 40 minut pozwoliło na rozwinięcie 4 tematów oraz na odpowiedź na jedno pytanie z widowni.

Po panelu parę osób powiedziało mi, że nie widać było jak duża miałem tremę oraz, że mówiłem z sensem i ciekawie.
Dziękuję za te słowa, jednak jak w rzeczywistości było dowiem się jak ktoś mi udostępni nagranie bo ogromnie ciekaw jestem jak to wyglądało z boku.

Panel był ostatnim punktem programu, po nim przeszliśmy do pubu gdzie inni pili piwo a ja się patrzyłem :)

Jak zawsze w takich momentach dyskusje były głównie branżowe, choć pobocznych tematów było wiele.

Po dwóch godzinach opuściłem towarzystwo i wyruszyłem w podróż do domu.

Ogólnie określam mój wyjazd jako bardzo pozytywny, żaden z punktu programu mnie nie zawiódł, dlatego też jeśli otrzymam zaproszenie na kolejny SEMCamp na pewno się na nim zjawię.

Pac-Man by Google

Przed chwilą wszedłem na Google i moim oczom ukazał się widok ciekawego doodle

Jak widzicie jest to specjalne „logo” na 30 lecie PAC-MANa. Gry chyba nikomu nie muszę opisywać, pewnie każdy użytkownik komputerów miał z nią do czynienia.

Dałem słowo „logo” w cudzysłowie bo po chwili mojej bezczynności (robiłem screen) z głośników rozległy się dźwięki gry bo właczył się tryb demo.

Niewiele się zastanawiając nacisnąłem „wrzuć monetę” i parę minutek zamiast pracować to….

Tym razem naprawdę podoba mi się sposób w jaki Google uczciło tą kultową grę, oby częściej robili takie „niespodzianki” tym bardziej w piątkowe popołudnie.

Spotkamy się na SEMcamp 6 ?

Odkąd zajmuję się SEO już kilkukrotnie byłem zapraszany na różne eventy branżowe bym podzielił się i moją wiedzą na temat pozycjonowania stron w wyszukiwarkach internetowych.
Z różnych przyczyn do tej pory nie skorzystałem z tych zaproszeń, tym razem postanowiłem to zmienić.

27.05.2010 około godziny 16.00, w Warszawie, rozpocznie się SEMcamp 6.

Spotkanie rozpocznie się kilkoma prezentacjami, po których ma być godzinny panel dyskusyjny, do którego zostałem zaproszony by porozmawiać publicznie na temat SEO.

Pełną agendę znajdziecie na blogu Mariusza Gąsiewskiego (ittechnology.us), organizatora SEMcamp 6.

Mam nadzieję, że trema nie zje mnie i dyskusja z mojej strony będzie dyskusją a nie jąkaniem się :). Ostatni raz wypowiadałem sie przed audytorium większym niż 30 osób jakieś 5 lat temu, więc ….

Po spotkaniu na pewno napisze parę słów na ten temat.

Odwrócenie przekierowania 301

O przekierowaniu 301 napisało już wielu. Jest to remedium na wiele bolączek pozycjonowanej witryny, poprzez ucieczkę na inną domenę. 301 to także jedna z technik pozycjonowania polegająca na przekierowanie starych i nowych stron internetowych w celu przekazania mocy.
Czytając różne teksty na blogach, wywiadach tudzież artykułach brakowało mi jednej informacji.

Jak zachowają się wyszukiwarki, gdy przekierowanie zostanie po jakimś czasie odwrócone?

Pod koniec lipca 2008, jak pamiętamy w polskim świecie SEO zawrzało, wiele stron dostało, nie wiadomo za co, słynny filtr obniżający pozycje o parę dziesiątek.
Jednej ze stron, jaką się opiekuję „poszczęściło” się i także została zaszczycona tym filtrem.

Właściciel strony, nie chciał czekać na łaskawość Google, użyliśmy więc przekierowania 301 na jedną z zapasowych domen (inna hierarchia). Cała operacja zakończyła się sukcesem.

W marcu usłyszałem, że chcieliby wrócić do starej domeny, przedstawiłem moim rozmówcom różne scenariusze zachowań się Google. Przedstawiłem wszystkie za i przeciw by decyzja właścicieli była jak najbardziej świadoma. Zakończyliśmy rozmowę decyzją na tak.

Teoretycznie sprawa była prosta, odwracamy tylko regułki w htaccess a wyszukiwarki zmieniają domeny.

Praktycznie…..

„Stara” domena w momencie przekierowania na „nową” była pozycjonowana na ponad 100 fraz. Pisząc pozycjonowana mam na myśli realne prace związane z podbiciem pozycji na nie tylko wrzucenie do SWL i czekanie na ….
Linkdomain w Yahoo wskazywał ponad pół miliona linków.

Serwis w „nowej” domenie był ciągle rozwijany a prace związane z SEO nie ustawały. Pozycjonowanie pewnych fraz zostało zatrzymane, na ich miejsce weszły inne.

Pozycjonowanie serwisu w obydwóch domenach trwa już około 5 lat.

Nie wiadomo więc co Google z takim fantem zrobi. Niestety moje pytania do znajomych pozycjonerów nie przyniosły żadnych informacji, nikt czegoś takiego nie robił.

Pozostaje jeszcze sprawa filtru na „starej” domenie. Ilość czasu jaka minęła spokojnie wystarczy na wygaśnięcie niejednego filtra z drugiej strony…. Google to Google…

Terminologia: „stara” to domena, do której wracamy a „nowa” to domena, z której rezygnujemy. (trochę mylące ale…)

1 kwietnia zostało odwrócone przekierowanie

3.04 – pierwsze pozycje dla „starej” domeny zostały odnalezione

Przez około 10 kolejnych dni serwis notuje wzrost wejść o około 30-40%.
Jest to wynik ciekawego zjawiska – w TOP 10 widoczne są obydwie domeny,mają ten sam opis i tytuł.
Dla niektórych fraz w TOP5 są aż trzy miejsca zajęte przez obydwie domeny (dwie główne i podstrona).
Naprawdę fajnie to wygląda, co ciekawe nie ma znaczenia czy są to frazy trudne czy łatwe, Google się trochę pogubiło :).

5.04 – około 3 tysięcy podstron jest w indeksie Google dla „starej” domeny.

6.04 – pierwsze zniknięcia (przeindeksowanie) fraz – „nowa” domena

13.04 – domeny są już zamienione dla około 60% fraz, „nowej” domenie zaczyna ubywać podstron w indeksie.

16.04 – „stara” domena – 100% fraz jest odnajdowana (95% z odpowiednimi pozycjami), przy sprawdzaniu „nowej” znajdujemy tylko około 20% fraz. W tym dniu zauważyłem znaczny spadek stron w indeksie dla „nowej” a „stara” ma już około 55 tysięcy (Google).

28.04 – ostatni raz sprawdzane są pozycje dla „nowej” domeny – znajduję jedynie około 5% fraz, żadnej nie ma już w TOP10

W dniu dzisiejszym odnalazłem pozycje tylko dla dwóch fraz dla „nowej” domeny a site to już tylko około 5 tysięcy podstron.

Jak widać odwrócenie przekierowania zaowocowało błyskawicznym wręcz zmianami w indeksie Google i nie tylko w tej wyszukiwarce.

Bing 5.04 miał już ponad 300 „starej” domeny w indeksie a „nową” w znacznym stopniu usunął 14.04 (bardzo szybka reakcja).

Yahoo 5.04 miało ponad 4 tysiące podstron „starej” domeny w indeksie a gubić podstrony „nowej” zaczęło już 10.04. Jednak radykalnie zmniejszenie ilości podstron nastąpiło 30.04.

Jak widać cała operacja zakończyła się pełnym sukcesem. Pozycje są bardzo podobne, kilka fraz jest niżej niż w marcu ale tego się spodziewałem.

Oczywiście jest to doświadczenie tylko z jednego przypadku (o czym proszę pamiętać) ale dało mi do myślenia nad paroma sprawami.
Zastanawia mnie np naprawę szybka reakcja Binga (czyszczenie), jednak najbardziej mnie ciekawi moment, gdy dwie domeny były w TOP 10.

Ciekawe jakby się zachowywały wyszukiwarki gdy odwracać 301 co jakiś czas, powiedzmy co 7-10 dni?

Na pewno sytuacja musi być specyficzna, najpierw trzeba by pozycjonować jedną witrynę i doprowadzić frazę do TOP 10. Po jakimś czasie zrobić przekierowanie na drugą i jeśli wszystko będzie dobrze, pozycjonować „nową” domenę zostawiając linki do „starej”. Podbić parę miejsc, odczekać jakiś czas i ….

Udałoby się ? Jak myślicie….

Czyszczenie katalogów

Przez ostatnie 4 tygodnie powoli czyściłem swoje dwa moderowane katalogi. Powstały około 5 lat temu od tamtego czasu nie sprawdzałem co się dzieje z wpisami.

Nie nudzę się jak ktoś mógłby pomyśleć, do porządków zbierałem się długi czas co chwilę natrafiając na wpis, który nie istnieje lub z jakiegokolwiek innego powodu powinien być usunięty.

Podejmując decyzję o porządkach chwilkę zastanawiałem się jak to sprawdzić. Doszedłem do wniosku, że sprawdzenie wszystkiego automatem nie wchodzi w rachubę. Za duży margines błędu musiałbym założyć.

Sprawdziłem więc najpierw wszystkie adresy automatem pobierając tytuł witryny oraz kod odpowiedzi serwera.

W drugim etapie podzieliłem całość na te, które zwracają 200 oraz resztę.
Niestety kolejny etap to ręczne wyłapanie z dwusetek tych adresów, których tytuł mi nie pasował.
Zwracałem także uwagę na brak tytułów oraz tytuły o zawartości domeny i wszelkie hostingi, under construction itp tid.

Po usunięciu tych adresów, do których nie miałem zastrzeżeń resztę odwiedziłem, usuwając z listy te witryny, który były OK.

Pozostawiałem na liście do usunięcie wszelkie zaparkowane strony, witryny do sprzedaży, bezsensowne przekierowania oraz witające mnie witryny firmy hostingowej zamiast danej witryny.
Około 70-80% usuniętych w ten sposób witryn to witryny zaparkowane, wyświetlające reklamy.

Drugim torem sprawdzałem witryny, których serwery zwróciły inną odpowiedź niż 200. Założyłem, że sprawdzę odpowiedzi dwa razy.
Listę z pierwszego katalogu sprawdziłem po 5 dniach, w przypadku drugiego katalogu trwało to trochę dłużej bo prawie 3 tygodnie.

Po pierwszym katalogu wiedziałem, które witryny z innymi odpowiedziami niż 200 trzeba sprawdzić ręcznie a które można po prostu usunąć.

Jak widać starałem się zrobić założoną pracę dokładnie.

Oto efekty

1. Pierwszy katalog
Rozpoczynając sprawdzanie katalog miał 13184 wpisów (8121 domen)
– 7 sprawdzonych witryn miało wirusy
– kod 200 (działające) sprawdziłem ręcznie 339 witryn, usunąłem z tego 256 szt.
– kod 12007 – usunięte 275 szt.
– kod 404 – usunięte 56 szt. (3/4 adresów to były podstrony)
– kod 403 – usunięte 22szt. (usuwałem jeśli taki był cache Google)
– w innych błędach nie zapisywałem ilości bo przeważnie było po parę sztuk.
Po skończeniu w katalogu zostało 12165 wpisów, 32 podkategorie zostały usunięte ze względu na brak wpisów.

Jedna domena może być dodana kilka razy, za każdym razem jest to inny wpis (taka konstrukcja katalogu). Na liście do sprawdzenia duplikaty domen zostały usunięte.
Na starcie 13184 wpisy równało się 8121 domenom, osunąłem jakieś 650 adresów czyli około 8%.

2. Drugi katalog
Rozpoczynając sprawdzanie w katalogu było 6376 domen (nie wpisów).
– 9 sprawdzonych witryn miało wirusy
– kod 200 (działające) sprawdziłem ręcznie 435 witryn, usunąłem z tego 374 szt.
– kod 12007 – usunięte 195 szt.
– kod 404 – usunięte 23 szt. (100% to podstrony)
– kod 403 – usunięte 15szt. (usuwałem jeśli taki był cache Google)
– inne błędy – usunięte 16szt.
Po porządkach usunąłem 51 pustych podkategorii.
Jak łatwo policzyć w tym katalogu usunąłem 631 domen co daje prawie 10%.

Z obydwóch katalogów pozyskałem ponad 400 adresów, które prawdopodobnie nie istnieją. Nie sprawdzałem jeszcze jaki jest stosunek domen do subdomen, myślę jednak, że parę adresów do kupienia na pewno się znajdzie.

Jeśli ktoś dba o swoje katalogi to mimo moderacji co jakiś czas warto wymieść kurze z kątów.
10% usuniętych urli to moim zdaniem dużo, zastanawiam się ile tych procentów byłoby w przypadku katalogów bez moderacji.

Szkoda tylko, że ostatnio Google jest niełaskawy dla katalogów nie zależnie czy ktoś o nie dba czy też nie.

« Poprzednia stronaNastępna strona »

mkane blog
Przegląd prywatności

Ta strona używa plików cookie, abyśmy mogli zapewnić Ci jak najlepsze wrażenia z użytkowania. Informacje z plików cookie są przechowywane w przeglądarce użytkownika i pełnią takie funkcje, jak rozpoznawanie użytkownika przy ponownym wejściu na naszą stronę internetową oraz pomagają naszemu zespołowi zrozumieć, które sekcje strony internetowej są dla użytkownika najbardziej interesujące i przydatne.