Ech te SEOKatalogi

Jakbym się spytał kogokolwiek do jakich katalogów warto aktualnie dodawać swoje wpisy na pewno usłyszałbym w pierwszej kolejności o SEOKatalogach. Czyli o katalog opartych na skrypcie SEOKatalog.

Skrypt ten jest modyfikacją skryptu Otwarty.mini z wieloma ciekawymi funkcjami od strony administracji oraz uaktualnieniami do obecnie panujących standardów w Internecie.

Nie będę się wgłębiał w szczegóły bo mniemam, że każdy kto zajmuje się pozycjonowaniem wie o czym piszę. Nie chcę też pisać o jego zaletach i wadach ani o tym czy warto dodawać wpisy do takich katalogów. Po prostu przez ostatnie dni przejrzałem wiele SEOKatalogów i naszła mnie pewna refleksja :/.

Skrypt ten jest moim zdaniem pierwszym płatnym skryptem katalogu w Polsce, który odniósł niebywały sukces.

Dlaczego ?

Pamiętam rozmowę jaką usłyszałem poprzedniego lata na jednym ze spotkań SEO.
pyt. – to prawda, że na SEOKatalogu można zarobić..
odp. – tak, stawiasz na domenie z dobrym PR i ludzie płacą za wpisy. Słyszałem, że XXX zarobił XXX na swoich katalogach….

Właśnie w tym upatruję jednego z powodów sukcesu tego skryptu, właściciele wreszcie zaczęli zarabiać na swoich katalogach. Zmieniła się po prostu mentalność pozycjonerów i chętniej zaczęli płacić za linki co przełożyło się na mniejsze lub większe dochody katalogów.

Na początku drugim powodem było przeświadczenie, że jeśli skrypt katalog jest płatny to ludzie będą o nie dbali, nie będzie ich dużo i nie podzielą one losu innych skryptów jak choćby pierwowzoru czyli Otwarty.mini lub QlWeba, na które nagle Google dostało alergii.

Nie przypadkowo napisałem “na początku” – moim zdaniem prędzej a nie później te katalogi podzielą los innych skryptów.

Dlaczego tak uważam?
…Czytaj dalej »

Publiker – zbanowane katalogi

Publikera nie trzeba chyba przedstawiać nikomu kto zajmuje się pozycjonowaniem.

Jest to automatyczna dodawarka do katalogów. Obsługuje parę skryptów a jej zaletą jest dość rozbudowana możliwość konfiguracji dodawanych witryn.
Ta zaleta przez wielu wymieniana jest jako wada, mam jednak odmienne, co widać, od nich zdanie.

Używam tego skryptu bodajże rok. Obsługuje nim niewiele bo około 100 serwisów. Nie mam wielkich aspiracji co do skuteczności automatycznego dodawania do katalogów, do których dodaje się setki witryn także za pomocą automatów.

Ot różnicuje sobie po prostu tym anchory i IP, teksty mam autorskie, po parę na projekt + synonimy. Daje to parę dodatkowych linków widzialnych przez Google i nawet jakiś ruch z fraz użytych wyłącznie w tym programie.

Od początku za wielką wadę tego skryptu uważałem, brak automatycznej lub hurtowej możliwości oznaczenia zbanowanych katalogów jako nieaktywne, by nie wysyłać do nich swoich wpisów bo nie widzę w tym celu.

Jeden ze znajomych pozycjonerów napisał więc mały skrypt do hurtowej dezaktywacji katalogów z listy jaką zapisywałem w txt.

Mam całkiem dobrze działające narzędzia do sprawdzania site w Google, powoli więc czyściłem sobie w ten sposób bazę.

Pod koniec listopada na PiO jeden z użytkowników tego forum udostępnił swój skrypt, który wielowątkowo (zależy ile kto ma proxy :) ) sprawdzał i dezaktywował niepotrzebne katalogi.

Korzystając z obydwóch rozwiązań z zadowoleniem dezaktywowałem zbanowane katalogi.

Kilka dni później autor wydał aktualizację Publikera do 2.0, po aktualizacji i pobraniu sprawdzonej przez autora bazy okazało się, że cała moja robota poszła na marne :)
…Czytaj dalej »

Twoj link zostal dodany

Jakiś czas temu na jedną z moich skrzynek pocztowych, dostałem dwa maile informujące mnie o zatwierdzeniu przez moderatora proponowanych przeze mnie wpisów do pewnego katalogu.
Niby nic dziwnego, przecież wiele katalogów wysyła takie informacje..
W tym przypadku moją uwagę przyciągnął adres dodanej strony, strony nad którą już nie pracuje od bardzo dawna.
Był to jeden ze sklepów mojego klienta, który ze względu na problemy z dostawcę został na “chwilę” zawieszony i tak już zostało.

Postanowiłem się przyjrzeć sprawie, wyszukałem w rzeczonym katalogu podane strony i okazało się, że obydwa wpisy zostały dodane 12 lutego 2007.
…Czytaj dalej »

Czyszczenie katalogów

Przez ostatnie 4 tygodnie powoli czyściłem swoje dwa moderowane katalogi. Powstały około 5 lat temu od tamtego czasu nie sprawdzałem co się dzieje z wpisami.

Nie nudzę się jak ktoś mógłby pomyśleć, do porządków zbierałem się długi czas co chwilę natrafiając na wpis, który nie istnieje lub z jakiegokolwiek innego powodu powinien być usunięty.

Podejmując decyzję o porządkach chwilkę zastanawiałem się jak to sprawdzić. Doszedłem do wniosku, że sprawdzenie wszystkiego automatem nie wchodzi w rachubę. Za duży margines błędu musiałbym założyć.

Sprawdziłem więc najpierw wszystkie adresy automatem pobierając tytuł witryny oraz kod odpowiedzi serwera.

W drugim etapie podzieliłem całość na te, które zwracają 200 oraz resztę.
Niestety kolejny etap to ręczne wyłapanie z dwusetek tych adresów, których tytuł mi nie pasował.
Zwracałem także uwagę na brak tytułów oraz tytuły o zawartości domeny i wszelkie hostingi, under construction itp tid.

Po usunięciu tych adresów, do których nie miałem zastrzeżeń resztę odwiedziłem, usuwając z listy te witryny, który były OK.

Pozostawiałem na liście do usunięcie wszelkie zaparkowane strony, witryny do sprzedaży, bezsensowne przekierowania oraz witające mnie witryny firmy hostingowej zamiast danej witryny.
Około 70-80% usuniętych w ten sposób witryn to witryny zaparkowane, wyświetlające reklamy.

Drugim torem sprawdzałem witryny, których serwery zwróciły inną odpowiedź niż 200. Założyłem, że sprawdzę odpowiedzi dwa razy.
Listę z pierwszego katalogu sprawdziłem po 5 dniach, w przypadku drugiego katalogu trwało to trochę dłużej bo prawie 3 tygodnie.

Po pierwszym katalogu wiedziałem, które witryny z innymi odpowiedziami niż 200 trzeba sprawdzić ręcznie a które można po prostu usunąć.

Jak widać starałem się zrobić założoną pracę dokładnie.

Oto efekty

1. Pierwszy katalog
Rozpoczynając sprawdzanie katalog miał 13184 wpisów (8121 domen)
– 7 sprawdzonych witryn miało wirusy
– kod 200 (działające) sprawdziłem ręcznie 339 witryn, usunąłem z tego 256 szt.
– kod 12007 – usunięte 275 szt.
– kod 404 – usunięte 56 szt. (3/4 adresów to były podstrony)
– kod 403 – usunięte 22szt. (usuwałem jeśli taki był cache Google)
– w innych błędach nie zapisywałem ilości bo przeważnie było po parę sztuk.
Po skończeniu w katalogu zostało 12165 wpisów, 32 podkategorie zostały usunięte ze względu na brak wpisów.

Jedna domena może być dodana kilka razy, za każdym razem jest to inny wpis (taka konstrukcja katalogu). Na liście do sprawdzenia duplikaty domen zostały usunięte.
Na starcie 13184 wpisy równało się 8121 domenom, osunąłem jakieś 650 adresów czyli około 8%.

2. Drugi katalog
Rozpoczynając sprawdzanie w katalogu było 6376 domen (nie wpisów).
– 9 sprawdzonych witryn miało wirusy
– kod 200 (działające) sprawdziłem ręcznie 435 witryn, usunąłem z tego 374 szt.
– kod 12007 – usunięte 195 szt.
– kod 404 – usunięte 23 szt. (100% to podstrony)
– kod 403 – usunięte 15szt. (usuwałem jeśli taki był cache Google)
– inne błędy – usunięte 16szt.
Po porządkach usunąłem 51 pustych podkategorii.
Jak łatwo policzyć w tym katalogu usunąłem 631 domen co daje prawie 10%.

Z obydwóch katalogów pozyskałem ponad 400 adresów, które prawdopodobnie nie istnieją. Nie sprawdzałem jeszcze jaki jest stosunek domen do subdomen, myślę jednak, że parę adresów do kupienia na pewno się znajdzie.

Jeśli ktoś dba o swoje katalogi to mimo moderacji co jakiś czas warto wymieść kurze z kątów.
10% usuniętych urli to moim zdaniem dużo, zastanawiam się ile tych procentów byłoby w przypadku katalogów bez moderacji.

Szkoda tylko, że ostatnio Google jest niełaskawy dla katalogów nie zależnie czy ktoś o nie dba czy też nie.

Filtr – ilość podstron w indeksie

W marcu  poprzedniego roku jedną z moich witryn dotknął przedziwny filtr blokujący ilość podstron widocznych w indeksie Google.

Zafiltrowana witryna to jeden z moich katalogów, który założyłem w 2006 roku na skrypcie Easy-Directory. Jak już pisałem dbam o moje katalogi, linkuje je odpowiednio i moderuje, nie umieszczam na nich żadnych SWLi, więc zdziwiłem się, że zostałem “obdarzony” takim filtrem.

Gdy ilość zaindeksowanych  podstron gwałtowanie zmniejszyła się do 12 sztuk, pomyślałem, że jest to zwykłe wyindeksowanie i po jakimś czasie wróci wszystko do normy. Gdy jednak miesiąc później zauważyłem, że nic się nie zmieniło postanowiłem coś z tym zrobić.

W indeksie widziałem tylko stronę główną parę kategorii i podkategorii oraz jedną podstronę ze szczegółami wpisu. Ta podstrona była nieźle podlinkowana przez pozycjonera, który dodał ten wpis.

W pozycjonowaniu najważniejsze są linki, tak samo w indeksacji. Dlatego też pierwsze co zrobiłem to podlinkowanie strony głównej oraz paru podkategorii i wpisów.

Niestety mimo mojej pracy nic się nie zmieniło …

Wykres od 30.06 do 24.09.2009

Spadki na 0 są wynikiem intensywnej pracy z wyszukiwarką i blokadą (403)  moich IP w Google.

Dodanie  linków przyniosło wzrost liczby zindeksowanych podstron w Yahoo i w MSN, jednak nie o to mi chodziło.

Dlatego też 24.09.2009r. poświęciłem tej witrynie trochę czasu i

– przebudowałem linkowanie wewnętrzne, dodałem parę nofollow. Na podstronach podkategorii usunąłem linki bezpośrednie do witryn zostawiając jedynie link do szczegółów wpisu,

– zmieniłem URLe  podstron wg najprostrzej zasady  –> “kat-” to teraz “kategoria-, podkategoria to teraz “pod-” itd.. Chodziło mi tylko o to by boty dostały nowe nazwy podstron, zauważyłem już dawno, że bardzo to lubią,

– zmieniłem stałą część meta Description na prawie każdej postronie,

– zmieniłem układ podstrony ze szczególami poprzez przestawienie elementów miejscami,

– w pionowej kolumnie dodałem newsa z RSSa  tak by pojawiał się na nowych podstronach dodatkowy tekst,

– usunąłem z witryny wszystkie moje linki, kóre mogłem usunąć (z topu, stopki itp),

– dodałem parę drobnych elementów jak np tekst w stopce informujący jaki dziś dzień i która godzina,

– oczywiście w htaccess dodałem przekierowanie ze starych adresów podstron na nowe. Zastanawiałem się jakiś czas czy to zrobić (czy nie przeniosę filtra) ale doszedłem do wniosku, że szkoda mi jednak mocy jaką pozycjonerzy włożyli w swoje wpisy.

Jak widzicie i tym razem zmiany jakie dokonałem ograniczały się tylko do takich, które może dokonać prawie każda osoba, która ma parę stron ale nie zna się na programowaniu. Doszedłem do wniosku, że jeśli to nie pomoże dopiero zacznę się zastanawiać co zmienić w samym skrypcie (skrypt?) by wyjść z tego filtra.

Po dokonaniu zmian uzbrojony w cierpliwość oczekiwałem efektów… długo przyszło mi jednak czekać… :)

Już 27.09 ilość podstron w Google zaczęła się powoli zmniejszać.

Od 18.11 do 24.11 widoczna była tylko strona główna.

Zacząłem się zastanawiać co się dzieje i co będę musiał zmienić jeszcze by wszystko wróciło do normy.

Jednak 25.11 pojawiała się druga podstrona a 27.11 widać ich było już 91 szt.

Wykres od 24.09 do 27.11.2008

Jak widać filtr został pożegnany jednak postanowiłem poczekać jeszcze parę tygodni na “świętowanie” by upewnić się, że wszystko jest OK.

Wykres od 2.12.2009 do 15.01.2010

Wykres od 2.12.2009 do 15.01.2010

9 grudnia było już widoczne 2150 podstron, dziś jest 5290.

Jak widać żadne przedświąteczne wariacje Google nie dotknęły tej witryny. Wzrost już jest wolniejszy ale stały. Zmiany choć tak naprawdę niewielkie spowodowały dużo korzyści zwłaszcza biorąc pod uwagę fakt, że jest to katalog stron i wpisy zostały na nowo zaindeksowane.

Dodam jeszcze, że nie jest to moje pierwsze “spotkanie” z takim filtrem. Miałem już raz przypadek zamrożenia ilości podstron w okolicy 1 tysiąca, poradziłem sobie z tym w podobny sposób.

Dwa lata temu kupiłem używaną wcześniej domenę, po wypełnieniu ją treścią w Google było widoczne jedynie 13 podstron a powinno być dużo więcej. Z tamtym przypadkiem sobie nie poradziłem ale też niewiele sił w to włożyłem. Po prostu nie przedłużyłem tej domeny na kolejny rok.

Ostatnio na jednej z moich domen wrzuciłem jakiś skrypt z bazą dowcipów, powielanych już wiele razy na wielu nie tylko moich zapleczach. Tu sprawa jest o tyle ciekawa, że od razy w indeksie pojawiły się 4 podstrony i tak jest do tej pory. Żeby było śmieszniej nie ma w śród nich strony głównej. Podejrzewam, że tu nałożyło się więcej filtrów niż tylko na  indeksowanych podstron (powielenie treści i skryptu). Jak będę miał czas to spróbuje się i tego pozbyć….

Podsumowując jeśli pozycjonujesz jakąś witrynę a Google gwałtownie obniżył ilość podstron  w indeksie. Jeśli trwa to długi czas to może warto pomyśleć nad lekkim przebudowaniem witryny by zachęcić bota do odwiedzin…

Przebudowa witryny często pomaga też przy usunięciu filtrów na frazy, można więc upiec dwie pieczenie na jednym ogniu.

 

Następna strona »