Autor – Powiązane artykuły

Jakiś czas temu na PiO oraz w informacyjnych serwisach internetowych pojawiła się informacja, że Google bacznie obserwuje autorów artykułów naukowych.
Według serwisu seoblackhat.com, który poinformował o tym, Google może w przyszłości premiować niektórych autorów w wynikach wyszukiwania.

Cała teoria wydaje mi się dość nieprawdopodobna, jednak dziś przypadkowo natrafiłem w wynikach wyszukiwania na oznaczenie autora oraz link do powiązanych z nim artykułów w Google Scholar (beta oczywiście :))

autor powiązane artykuły

Poświęciłem chwilę by przyjrzeć się tym powiązanym artykułom oraz Google Scholar i niestety muszę stwierdzić, że jeśli Google ma premiować teksty na podstawie autora to długa droga jeszcze przed nimi.

Ten mechanizm ma wiele błędów jednym z kuriozalnych wręcz na jaki trafiłem jest powołanie do życia autora o tajemniczym imieniu i nazwisku – „M Mechanisms”. Przeszukałem ten dokument i okazało się, że wyszukiwarka utworzyła to ze słów „marketing mechanisms” – coś im nie wyszło.

W wielu dokumentach, Google jako autorów podaje ludzi, którzy jak się okazało są wymieniani w tekście jako źródła.

Czym dłużej przebywałem na poszukiwaniu autorów w Google Scholar, tym bardziej byłem zdziwiony, że ktoś mógł puścić w obieg taką plotkę gdy mechanizm określania autorów jest po prostu w powijakach.

Ktoś może mi zarzucić, że Google Scholar to inna wyszukiwarka niż „zwykłe” Google. Uważam jednak, że właśnie mechanizmy z predefinowanej wyszukiwarki tekstów naukowych byłby wykorzystane przy „premiowaniu”.

Na koniec Pan lub Pani „M Mechanisms” jest autorem 136 naukowych publikacji. Nie możemy jednak zapomnieć o innych znamienitych naukowcach jakimi są „B Features”, „C Features”, „B Present”, „A Present”, „H Suspicious” oraz znamienity „A Transcription” i wielu wielu innych mniej znanych nieistniejących autorów jakich do życia powołuje Gigant z Mountain View.

Jak widać by można było taki mechanizm użyć pozycjonując strony trzeba jeszcze długo poczekać.

PS
Tomku – i przypadkowo zostałeś przykładem :)

rel=”canonical”

W dniu wczorajszym Google poinformowało nas o wprowadzeniu nowego tagu rel=”canonical”.
Co ciekawe tag ten będzie używany przez największą konkurencję Firmy Google – MSN oraz Yahoo, czyli wchodzi do standardu, który trzeba uwzględnić przy optymalizacji SEO danego serwisu.

Po co nam to ? Wg słów Pana Joachima Kupke dostaliśmy niesamowity zaszczyt decydowania o tym, które podstrony w naszym serwisie serwują daną treść, a które ją duplikują.

Jak wiemy od czasu objawienia się mechanizmu SI, duplikowana treść w obrębie witryny jest w pewnym stopniu problemem. Co widać często obserwując potężną liczbę zaindeksowanych podstron i nikły ruch generowany dzięki nim.

Przykładem niech będą serwisy działające na źle skonfigurowanych serwerach, które doklejają sesje do adresów. W takich serwisach bardzo często zaindeksowana jest ta sama podstrona kilkukrotnie.

Jak to używać?
Na podstawowej podstronie z treścią umieszczamy w sekcji < head > informację dla botów wyszukiwarek o treści :
< link rel="canonical" href="adres_właściwej_podstrony" />.

Czytając oficjalną informację od razu zacząłem się zastanawiać czy czasem nie będzie to oddziaływać na inne domeny. Wg informacji na blogu Google, nie będzie to działało ale z przekory dodałem rel=”canonical” do linków wychodzących z tego wpisu :)

Teraz pozostaje przetestować ten tag i jego prawdziwy wpływ na boty wyszukiwarki internetowe. Może będzie można wspomóc tym pozycjonowanie stron…

Moje linki w SWLach 2 – poletko pozycjonera

W sierpniu 2007 we wpisie Systemy – gdzie moje linki?, przedstawiłem Wam za ile linków „płacicie”, w systemach wymiany linków stałych, choć ich brak.

Po tym wpisie właściciel pewnego systemu, wziął się do roboty a po jej zakończeniu poprosił mnie o ponowne ich sprawdzenie. Oczywiście obiecałem, że to zrobię, nigdzie jednak nie podałem kiedy to uczynię :). Zajmuje się pozycjonowaniem, cierpliwość to moje drugie imię :).

Co tu ukrywać zabierałem się do tego od jesieni. Kilka dni temu usuwałem kilka moich serwisów z systemów i w jednym „zabrakło” mi punktów. Postanowiłem sprawdzić ile punktów tracę, „płacąc” za coś czego nie ma.

Według zasady „jak coś robisz, rób to dobrze”, postanowiłem wykonać sprawdzenie dla wszystkich systemów.

W początkowej fazie planowałem sprawdzić 500 linków z każdego SWL, jednak już przy pierwszym (Linkme), zwiększyłem tą liczbę do 1000szt. by wynik był jak najbardziej miarodajny.

Myślę, że jest to odpowiednia liczba linków by pokazać dokładnie co się dzieje w danym systemie.

Niestety podczas sprawdzania Linkme, przy założeniu 500szt., czekając aż automat skończy swoją pracę, ręcznie sprawdzałem dużą liczbę od razu wysyłając raporty. Po zmianie decyzji o ilości linków do sprawdzenia okazało się, że nie uzbieram w Linkme Elite 1000 szt. dlatego włączyłem do testu wersje SLIM.

Tym razem mój test obejmował pięć systemów a nie trzy jak poprzednio. Cztery polskie – LinkMe Elite i SLIM, Livelink, LinujPro oraz Linkorn.

Linkorna mogłem sprawdzić jedynie dzięki pomocy Jankiela z Tenso.pl, który udostępnił mi linki do sprawdzenia. W tym systemie nie mam konta i prawdopodobnie nigdy mieć nie będę, z wiadomych chyba powodów.

Ostatni, piąty system to zagraniczny SWL- Link-Vault.

Tym razem sprawdzenie przebiegało w trzech etapach.

Pierwszy etap – sprawdzenie linków automatem (z poprzedniego razu). Skrypt sprawdza obecność danego adresu w kodzie, zgłasza się jako “Mozilla/4.0 (compatible; MSIE 5.0; Windows NT), timeout ustawiony na 30 sekund.

Drugi etap – ponowne sprawdzenie skryptem, wykonane w dniu kolejnym.

Trzeci etap – sprawdzenie ręczne adresów, które wg skryptu nie emitowały moich linków.
W tym miejscu muszę dodać, że tylko w jednym przypadku okazało się, że skryptu monitował brak, mimo, że link był na stronie.

Dla adresów, które się nie otwierały lub widniał na nich error 500 sprawdzałem cache w Google. Jeśli go nie było sprawdzałem stopień zaindeksowania domeny i cache strony głównej. Jeśli był z tego miesiąca, oznaczałem link jako istniejący. Jeśli jednak był z tamtego roku a stopień zaindeksowania serwisu nikły, uznawałem, że link nie istnieje.
Adresy z error 404 i 403 na początku sprawdzałem cache oraz czy reszta serwisu też daje taki błąd. Jednak po kilkunastu oznaczonych w ten sposób adresach, postanowiłem zaliczać je od razu jako nie istniejące. Powód był prosty, zawsze reszta serwisu działała poprawnie a podstrona po prostu została skasowana.

Do testu wybrałem najdłużej linkowane strony. Wydaje mi się, że link umieszczony kilka tygodni temu częściej będzie emitowany niż taki, który „wisi” już od roku.

Przejdźmy do wyników…

LinkMe

Elite – sprawdziłem 885 linków, nie znalazłem 83 szt. w 52 domenach, co daje 6,55%
Slim – tutaj mogłem sprawdzić tylko 237 lokalizacji (wszystkie linki jakie posiadam :) ) z czego nie znalazłem linka w 25 miejscach, na 25 domenach, co daje 10,55%.

Patrząc na Elite i Slim jako całość sprawdzone zostały 1122 adresy – odnotowałem brak 83szt., na 77 domenach, co daje 7,4%.

Oczywiście podczas sprawdzania ręcznego znalazłem jedną zaparkowaną domenę i dwie zbanowane.
Jedna z domen zaś miała w indeksie tylko dwie podstrony z kopią z początków listopada 2008.

Stosunek braku linków na nie otwierających się stronach lub z 404 do tych, które po prostu ich nie emitują to około 50/50.

Zwróćcie też uwagę, że brakowało 83 szt. na 77 domenach. Ta informacja wydaje mi się dość istotna bo pokazuje jak przydziela ten system. Podejrzewam, że priorytetem jest rozmieszczenie linków na jak największej ilości domen. Za tym idzie prawdopodobnie fakt, że Googlowi łatwiej znaleźć naszego linka. Czytając dalej domyślicie się dlaczego o tym piszę.

Dla przypomnienia ostatnio Linkme tracił 13,33% naszych linków- jest jakaś poprawa :)

LiveLink

Sprawdziłem 1000 lokalizacji, nie znalazłem 146 szt. na 53 domenach – procentowo 14,6%.
Tak naprawę w tym przypadku niewiele jest to opisania. Stosunek nie otwierających się serwisów i 404 do braku linków wynosi około 10/90.
Niestety w tym systemie maksymalnie kuleje sprawdzanie czy linki są emitowane przez serwisy w systemie.
146 szt. i 53 domeny, możliwe, że to efekt małej ilości serwisów w systemie. Wydaje mi się jednak, że system tak losuje.

W poprzednim teście w tym systemie brakowało 20,83% – jest poprawa :)

LinkujPro

Ten zapomniany przez wielu system linków stałych naprawdę mnie zadziwił.
Sprawdzone było 1000 adresów, nie znalazłem 50szt. na 28 domenach.
Nie trzeba być matematykiem by określić, że uciekło gdzieś 5% linków.

50/50 to stosunek serwisów, które się nie otwierały lub dawały 404 do tych, które nie emitowały linków.

Naprawdę, w tym przypadku, jestem pozytywnie zaskoczony, myślałem, że ten zapomniany przez Boga SWL będzie w bardziej opłakanym stanie. Punkty tutaj są tanie, podobnie jak w LiveLinku i wydawało mi sie, że są na podobnym poziomie a tu proszę jaka niespodzianka.

Linkorn

Jak już pisałem ten system nie jest w moim kręgu zainteresowań i nie brałem go pod uwagę rozpoczynając ten test. Nie mam tam konta, więc nie miałem potrzebnych mi danych.
Udało się jednak przeprowadzić sprawdzenie tego systemu.

Ponownie sprawdzone zostało 1000 linków nie znalazłem 156szt. na 63 domenach.
Jak łatwo policzyć 15,6% to linki, które nie istnieją.

Stosunek nie otwierających sie stron i 404 do serwisów gdzie nie znalazłem linków to około 20/80.

Przyznam się, że ręce mi opadły jak policzyłem braki. I to jest ten system, który był niby jednym z najlepszych w Polsce, porównywany do LinkMe ? To jest ten system trącony boską ręką Mości Pana Anioła vel DirElite tudzież Paweł K., który ma doktorat z zakresu marketingu oraz ukończone studia doktoranckie obejmujące problematykę pozycjonowania (w Stanach Zjednoczonych i Wielkiej Brytanii). wg PWN :)
Dobrze, że się chłop ukrywa bo kolejny raz nie wytrzymałbym i napisał mu parę jakże „pochlebnych” słów.
LiveLink – rozumiem, Linkorn – a fe, niedobry linkorn….może Igthorn (pamiętacie tą bajkę? :) )

Link-Vault

Ojoj coś czuję, że ktoś mi zarzuci matactwo :)

Sprawdziłem oczywiście 1000 linków, nie znalazłem ich aż 7 razy (słownie: siedem razy) na 3 domenach co daje nam 0,7%.
W tym jedna domena nie działa a miała emitować 5 linków, na pozostałych dwóch linków po prostu nie było.

Podczas pierwszego sprawdzania skryptem, nie zostało znalezionych 28 szt. Pomyślałem sobie, że jest i tak nieźle. Po drugim sprawdzeniu zgłupiałem na tyle by sprawdzić ręcznie cała ilość nie dowierzając skryptowi.

W ostatnim teście brakowało w LV 5,31% linków – tak dla informacji.

I co tu pisać ? Że twórcy polskich systemów mogliby być „podnóżkiem” (Tołdi i jego Księciunio :)) dla twórców LV patrząc pod tym kątem mechanizmu sprawdzania emitowanych linków….
Zobaczcie jak wiele macie do zrobienia i jak wiele jeszcze macie do roboty, a jak nie to przyjdzie kiedyś ktoś kto zrobi to lepiej i……..

Ranking systemów pod kątem poprawności emitowania linków by mkane :).

  • 1. Link-Vault – 0,7%
  • 2. LinkujPro – 5%
  • 3. LinkMe – 7,4%
  • 4. LiveLink – 14,6%
  • 5. Linkorn – 15,6%

Według mojej oceny, trzy pierwsze pozycje to stan, który można zaakceptować, jednak 4 i 5 pozycja to tragedia. Na każde użyte 10k pkt w kosmos idzie około 1500 szt. mało ?
Potwornie dużo bo tą ilością można naprawdę wiele fraz zrobić, bez wielkiego myślenia nad tym.

Gorąco zachęcam wszystkich do kontroli swoich linków w SWLach.
Zwłaszcza tych, którzy pozycjonowanie wykonują głównie poprzez systemy.
Wyjdzie Wam to naprawdę na dobre….

Podsumowanie roku – pozycjonowanie i nie tylko

I kolejny rok nam mija..
Jak zawsze o tej porze, kilka słów refleksji.

Pozycjonowanie – niewątpliwie tematem roku z naszej branży są dziwne działania Google w zakresie obdarowywania serwisów rożnej maści filtrami.
Kilka ironicznych słów, w tym temacie, napisałem we wpisie o „depozycjonowaniu„.
Niestety nie wszyscy zrozumieli sens mojej wypowiedzi, o czym mogłem sie przekonać w mailach jakie otrzymałem.
Sytuacja z filtrami trwa od sierpnia i choć ostatnio coraz mniej się ludzie żalą to niestety zjawisko to cały czas istnieje o czym przekonałem sie 23 grudnia, podczas swoistego kolejnego „rzutu”.

Parę słów, jakże oczekiwanego wyjaśnienia, pojawiło się na oficjalnym blogu Google. Nie omieszkałem oczywiście skomentować to w tym wpisie.
Dalej uważam, że część z tej wypowiedzi to swoiste brednie i pobożne życzenia ekipy Google.

Pozycjonowanie stron, na pierwszy rzut oka, nie jest mechanizmem skomplikowanym.
Wykorzystujemy algorytm wyszukiwarek, dodając plusiki tak by uzbierana miarka była „cięższa” od wagi konkurencji.

Nie dziwi mnie przeto zapał szerokiej publiki to samodzielnych prób pozycjonowania.

Niektórym to nawet nieźle wychodzi, szkoda tylko, że ośmieleni sukcesem często podejmują się pozycjonowania stron swoich klientów a z tym bywa już gorzej.
Nie wszyscy bowiem klienci przyjmują do wiadomości, że coś jest niezależne od pozycjonera, zwłaszcza po przeczytaniu mniej lub bardziej udanych wypocin pracowników Google.

Muszę też tutaj wspomnieć o „poradniku SEO” udostępnionym przez Google. Był to dobry krok by wskazać webmasterom podstawy, jeśli chodzi o korzyści z odpowiedniej budowy serwisu.
Dla pozycjonera powyższy spis reguł powinien być znany od podszewki, jeśli ktoś przeczytał w tym dokumencie jakąś sensacyjną informację to powinien się zastanowić nad swoją wiedzą.
Tak czy inaczej – „Google dziękujemy Ci” :).

Nie wiem czy możemy dziękować za nowe funkcje w wyszukiwarce Google, jakimi są podpowiedzi fraz oraz możliwość podbijania pozycji poprzez głosy użytkowników.
Podpowiedzi, mimo, że mają pomóc, powoli prawdopodobnie niszczą tzw „długi ogon”. Nie mam, w tym temacie, jeszcze 100% opinii, ponieważ wprowadzenie tego mechanizmu w czasie zbliżających się Świąt, moim zdaniem zafałszowało możliwość wyciągnięcia wniosków. Zobaczymy jak będzie w kolejnym roku.

Funkcja umożliwiająca głosowanie, na razie jest dostępna tylko zarejestrowanym użytkownikom, do tego z pewnych krajów. Powstał lekki szum w branży, jednak wydaje mi sie, że niewiele to zmieni sedno pozycjonowania. Najwyżej zmienią się narzędzia. Jeśli to wejdzie w standard to może się nawet okazać, że pozycjonowanie będzie prostsze niż było, bo takie mechanizmy jest naprawdę łatwo oszukać.

Czarnym koniem w branży pozycjonowania okazały się wszelkiego rodzaj listy stron zaplecza SWLi, tworzone przez teoretycznie „kolegów” z branży i wysyłanie owych list do Google.
Nie rozumiem do dziś po co te afery były i komu miały się przysłużyć. Tym bardziej, że skutek miały nijaki, SWLe stoją i mają się dobrze.

Porażką roku, w naszej branży jest SEODopalacz, system, który miał niby zrewolucjonizować naszą branże a dołączył do wielu mniej niż pośrednich systemów, które dają jakieś plusy jedynie właścicielom (jeśli dają).
Sorry Jeżu, pomysł w założeniach może OK ale wykonanie tragiczne o czym dobrze niestety wiesz.
Gratuluje za to PR`u, podbiłeś swoją ocenę w oczach wielu, tak niewiele od siebie dając.

O innych „nowych” systemach nie mam co pisać bo nauczony powyższym doświadczeniem jeszcze innych nie testowałem.

Będąc pozycjonerem, nie byłbym sobą jakbym nie wspomniał o pierwszym w Polsce procesie sądowym, w którym padło stwierdzenie „pozycjonowanie stron”. W procesie tym skazany został prawdopodobnie pozycjoner, który obraził w wyszukiwarce głowę naszego państwa. Obraza polegała na wypozycjonowaniu serwisu na obraźliwe słowo.
Swoją droga uśmiałem się słuchając „stworzył program komputerowy” i inne tego typu stwierdzenia ludzi, którzy tak naprawdę nie wiedzieli o co chodzi.

Patrząc na ten kończący już się rok, widzę, że branża pozycjonowania stron, poczyniła kolejne ważne kroki by wyjść z cienia i zająć odpowiednie miejsce w torcie reklamowym w Internecie.
Pojawia się coraz więcej firm pozycjonerskich, które mają na tyle dużą siłę przebicia by być zauważone przez innych dużych graczy internetowych. Przykładem niech będzie nawiązanie współpracy między Home.pl a Performance Media.
Oczywiście sama akcja była biciem piany ale nie można o tym fakcie zapomnieć. To nie jest jedyna współpraca jaką można było zauważyć, inni registratorzy też proponują usługi pozycjonowania.

Jeśli chodzi o reklamę i „bicie piany” to nie mogę pominąć majstersztyku jakim jest kampania na prezydenta USA – czarnoskórego Baracka Obamy. Niewątpliwie jest to najlepsza kampania marketingowa mijającego roku. Połączenie wszystkich dostępnych kanałów reklamowych, gry i internet, TV i prasa dała efekt, w postaci czarnoskórego prezydenta USA – czy ktoś podejrzewał kilka lat temu, że jest to w ogóle możliwe ?
Na szczęście u nas w Polsce politycy moją dużego laga w wyciąganiu wniosków, bo bałbym się co będzie w kolejnych wyborach prezydenckich u nas.

Podsumowując, mimo tego co tu napisałem, mijający rok nie był zły. Można nawet powiedzieć, że był to jeden z lepszych jakie ostatnio mieliśmy.
Lepszy patrząc branżę pozycjonowania i patrząc na życie w Polsce.

Oby nadchodzący rok nie był gorszy niż ten, który prawie już minął.
Tylko tego Wam życzę!

Start-up – finansowanie

Wczoraj odwiedziłem w Poznaniu warsztaty, organizowane przez ekipę Barcampu, o tym jak można pozyskać finansowanie swoich projektów.
Temat mnie średnio interesuje ale podejrzewam, że prędzej czy później moje zainteresowanie wzrośnie.
W warsztatach brało udział plus/minus z 50 osób.
Cztery prezentacje to niewiele ale i tak zajęło to około 2,5 godziny.

Dzięki tym warsztatom dowiedziałem się że:

– jeśli chciałbym dofinansowanie z PARPu (801) to muszę ich oszukać zakładając nową firmę pod projekt, nie ma jednak co się trudzić bo i tak nie zdarzę bo przyjmowanie wniosków będzie prawdopodobnie tylko w styczniu i koniec pieniędzy, wiec zostaje finansowanie z własnych zasobów.

– PARP i fundusz 802 jest dla „starszych” firm na poprawę „relacji” pomiędzy firmą a klientami, poprzez np zbudowanie odpowiednich e-narzędzi do tego. Jednak najpierw trzeba te e-narzędzia zbudować i sfinansować z własnych środków finansowych,  a później liczyć na to, że część zrefundują. No i najważniejsze, nie trzeba ich oszukiwać bo wystarczą dwie umowy o współpracy jakiekolwiek i z kimkolwiek, nawet z firmą z Laponii bo i tak tego nie sprawdzą.

– jeśli chciałbym porozmawiać z jakimś funduszem to najlepiej bym wiedział od razu za ile będzie projekt można sprzedać za jakiś czas. Jeśli bym, o zgrozo, przyszedł i powiedział, że chcę pieniądze i nie będę tego wiedział to zostanę zaliczony do grupy głupców, którzy tylko chcą pieniądze na projekt i musiałbym finansować wszystko z własnych środków.

– jeśli jednak wiem, ile wart może być projekt po 2-3 latach dziłalności ale nie jest to 40-50 milionów to prawdopodobnie czekałoby mnie finansowanie z własnych środków.

– jeśli model zarobkowy projektu to reklamy, to mogę zapomnieć o finansowaniu z innych funduszy niż z USA lub UK bo tylko tam są głupcy, którzy na to zwracają uwagę. Jeśli więc by tak było to musiałbym o wszystko zadbać z własnych środków.

– zanim w ogóle przyjdę do funduszu to powinien zbadać czy projekt ma sens. Mnie, moim współpracownikom i znajomym może zdawać, że jest OK i projekt będzie hitem. Jednak jak się przeprowadzi badania na grupie docelowej np na swoich znajomych z serwisów społecznościowych to może wyjść, że jednak nie jest tak różowo. Wtedy taki projekt czeka finansowanie z własnych środków a najlepiej to wcale nie zaczynać bo po co je tracić. Ta część jest dość skomplikowana i bardzo ważna, ja chyba nie dałbym rady tego zrealizować.

– niektóre fundusze, już podczas pierwszych rozmów chcą znać tzw „strategię wyjścia” czyli po polsku „sprzedajemy projekt”. To jest ważne bo fundusz wie, co właściciel będzie robił jakby nagle dostali dobrą ofertę. Jak strategia jest zła to czeka taki projekt finansowanie z własnych środków.

– większość funduszy nie ma nic przeciwko 100% kopii serwisu, który odniósł sukces w innym kraju. Jednak ta kopia musi być unikalna, no w ostateczności muszą być w niej zawarte jakieś unikalne funkcje bo inaczej czeka go finansowanie z własnych środków.

– w Polsce nie ma „Business Angel” z prawdziwego zdarzenia, więc prawdopodobnie pozostają własne środki, choć zawsze warto spróbować z jakimiś funduszami.

– jeden z prelegentów, próbował pozyskać dofinansowanie z różnych funduszy, niestety nie dogadał się z żadnym, dlatego finansuje swoje projekty z własnych środków.

– nie ma co liczyć, że ktokolwiek będzie zabiegał o to by finansować akurat Twój czy mój projekt, bez odzwu do nich trzeba mieć własne środki finansowe. No chyba, że to kolejny projekt typu Spryciarze.peel, wtedy mamy szansę poczuć się niczym gwiazda.

No i najważniejsze przesłanie jakie płynęło od rozmówców, prawdopodobnie jest to prawidło na całym Świecie, wszyscy prelegenci, oprócz Pana z PARP, o tym mówili.

Zastanów sie dwa razy czy potrzebna Ci pomoc finansowa. Jeśli tak naprawdę jest ona niepotrzebna to finansuj wszystko z własnych środków!

Na koniec, mimo wszystko, wiem dziś dużo więcej niż wczoraj przed warsztatami, i na coś się jednak może kiedyś ta wiedza przydać.

PS

Pozycjonowanie stron zostało przytoczone, na spotkaniu, jako przykład umowy o współpracy pomiedzy firmami :). Żeby było weselej, ten ktoś kto o tym wspmniał dorzucił „..i umawiamy się na jakąś pozycję pomiędzy jeden a dziesięć”. To ja chcę …hhmm… cyferkę siedem i proszę gwarancję utrzmania pozycji na piśmie :)

« Poprzednia stronaNastępna strona »

mkane blog
Przegląd prywatności

Ta strona używa plików cookie, abyśmy mogli zapewnić Ci jak najlepsze wrażenia z użytkowania. Informacje z plików cookie są przechowywane w przeglądarce użytkownika i pełnią takie funkcje, jak rozpoznawanie użytkownika przy ponownym wejściu na naszą stronę internetową oraz pomagają naszemu zespołowi zrozumieć, które sekcje strony internetowej są dla użytkownika najbardziej interesujące i przydatne.