Mariusz Gąsiewski

Google’s 950 Penalty

W poście Paragraf 31 w Google pisałem o dość znanym filtrze Google, który obniżał pozycje stron internetowych dokładnie o 31 pozycji.

Ostatnio na forum WebmasterWorld coraz głośniej jest o nowym filtrze Google, nazwanym Google’s 950 Penalty.

Najważniejsze cechy Google’s 950 Penalty:

  • Nazwa filtru wzięła się z tego, że strony internetowe, które były na czele wyników wyszukiwania na dość konkurencyjne frazy zostały zepchnięte na ostatnie miejsca wyników wyszukiwania pokazywanych przez Google (najczęściej około 950 wyniku).
  • Filtr dotyczy określonych fraz wyszukiwania ( lub też określonych podstron witryny, które były wysoko na określone słowa kluczowe), a nie witryn w całości ( w odróżnieniu od filtru 31).
  • Filtr bardzo często dotknął wartościowe strony, odgrywające dużą rolę w określonych niszach.
  • Witryny dotknięte filtrem zachowywały swój PR, traciły jednak pozycje na często najważniejsze dla nich frazy wyszukiwania.
  • Dotknięte strony posiadały często unikalną treść, przy czym były optymalizowane poprzez anchor linków przychodzących, tytuły podstron i nagłówków H1,częstotliwość występowania słów kluczowych w tekście dla określonych, popularnych fraz wyszukiwania.
  • Według jednej z teorii geneza działania filtru jest związana z dązeniem Google do typowania wśród określonych grup tematycznych stron autorytetów, przy czym problemy Google z typowaniem takich stron powodowały nagłe spadki w wynikach wyszukiwania stron, które przez wiele lat były takimi stronami na określone słowa kluczowe.
  • Bardzo często strony dotknięte filtrem Google’s 950 Penalty zostały uwzględniane już w wynikach wyszukiwania występujących dopiero za granicą wyników „Aby pokazać najbardziej trafne odpowiedzi, pominięto kilka bardzo podobnych stron do tych x już wyświetlonych.
    Jeśli chcesz, możesz powtórzyć szukanie we wszystkich stronach razem z pominiętymi wcześniej.”
    .
  • W każdym przypadku występowania filtra Google’s 950 Penalty stwierdzono występowania przynajmniej dwóch lub trzech czynników obniżających wartość witryny internetowej w oczach wyszukiwarek:

    a) więcej niż 100 linków na podstronach;
    b) linki afiliacyjne na witrynie;
    c) poważne błędy składni w budowie strony;
    d) niewielkie ilości treści na stronie głównej;
    e) nadmierne występowanie określonych słów kluczowych na witrynie ;
    f) skomplikowana struktura strony, w której prawdziwa treść strony jest dostępna dopiero po kilku kliknięciach;
    g) trudności w indeksowanie witryny przez roboty;
    h) linki do stron, uznawanych za „złe sąsiedztwo” tzn. stron spamerskich, stosujących cloaking, stron afiliacyjnych;
    i) duży udzial kupowanych linków przychodzących;
    udział w systemach wymiany linków.

Nowe światło na opisywany przeze mnie filtr może rzucić post Matta Cutts: “Undetectable” spam , w którym stwierdza on, że wszystkie spamerskie techniki wpływania na wyniki wyszukiwania w wyszukiwarkach są z czasem przez nie wykrywane i karane.

Osobom zainteresowanym tematem polecam przeczytanie:
Google’s 950 Penalty. What do we know about it, and how do we get out of it?
Google’s 950 Penalty – Part 2
Google’s 950 Penalty – Part 3

Update:
Nowe światło na tę sprawę rzuca niedawny temat na WebmasterWorld, w którym administrator sekcji, w której znajdowały się posty o Google 950 penalty snuje teorię, że za filtr ten jest odpowiada brak w teście fraz powiązanych fraz z frazą, na którą był pozycjonowany serwis.

It’s like getting a poor health symptom in one area of your body from not having enough of some important nutrient — even though you’ve got plenty of others and plenty of good health in many ways.

In one case I know of, the signs of this problem disappeared with one solid new inbound link from a very different domain, with the problematic phrase used as the anchor text. By „very different” I mean the linking domain was not in the 1,000 for the given search.

So, not less „SEO” fixed it, but more. The purely OOP assumptions don’t sit right with me, given this anecdotal result. Now it’s only one case, so it’s certainly not „proof” of anything, but the fix has now been stable for several data refreshes at Google, so it is a decent data point to keep in mind.

.

Według niego działanie tego filtra ma związek z nowym patentem Google, opisanym w poście http://www.webmasterworld.com/google/320287″.

Post Tedstera i odpowiedzi na niego w poście: It’s not a „950 Penalty” — it’s Phrase Based Re-ranking.

W przypadku, kiedy uznasz strone za przydatna dodaj na swojej stronie link do niej.
Po prostu skopiuj i wklej link podany nizej (Ctrl+C to copy)
Wyglad linku po wklejeniu na stronie: Google’s 950 Penalty

Dodaj link do:
| | | Y! MyWeb | +Google

48 komentarzy to “Google’s 950 Penalty”

  1. Belloison 30 sty 2007 at 10:37

    Z jednej strony to dobrze, bo niektórzy wreszcie zrozumieją że strony poprawnie napisane są doceniane przez Google 🙂 Z drugiej jednak może coś takiego dotknąć strony „niewinne”.

    Nie rozumiem jednak tego nie lubienia linków affilacyjnych…

    I dzieje się to co niektórzy zapowiadali – systemy wymiany linków mogą stracić na znaczeniu.

  2. adminon 30 sty 2007 at 11:35

    Głównym „zarzutem” Google wobec stron afiliacyjnych jest to, że duplikują one treść i z tego względu nie powinny się pojawiać wysoko w wynikach wyszukiwania. Jest to niby dbanie o użytkownika i relewantność wyników.

    Z drugiej jednak może coś takiego dotknąć strony “niewinne”.

    To niestety często się zdarza. Jak wynika z postu poprzez ten filtr ucierpiały nieraz naprawdę dobre strony, istniejące od wielu lat. Każda zmiana algorytmu w jakimś stopniu odbija się rykoszetem ( a do tego nierzadko tworzy potencjalnych klientów dla AdWords)

  3. Damianon 30 sty 2007 at 17:07

    Czy strony wydostają się kiedyś z rzekomego filtra?

    Byłbym skłonny uwierzyć w taki filtr. Moja ale nie tylko dużo stro n z czołowych pozycji poleciało daleko daleko..

  4. adminon 30 sty 2007 at 21:53

    To, czy się wydostają zależy od filtra i od samych działań właścicieli stron, które w ten filtr wpadły. Najczęściej spotykany filtr to filtr na określone słowa kluczowe, na które właściciel dodawał zbyt dużo linków. Trzeba pamiętać, że prawidłowe pozycjonowanie powinno uwzględniać starania o względną naturalność dodawanych linków. Silniki wyszukiwawcze oceniają, czy dane linki są naturalne, czy też są efektem działań pozycjonerskich. Oczywiście nie ma co tu też popadać w psychozę, to nie jest sprawdzane jakoś bardzo dogłębnie, ale z drugiej strony jeżeli 900 linków z 940 linków przychodzących do naszej strony ma anchor „noclegi Zakopane” to trudno się dziwić faktowi, że nagle pewnego dnia wyszukiwarka nałoży naszej stronie filtr na tę frazę kluczową. W przypadku filtrów, których genezę należy upatrywać w przesadnym dodawaniu linków często najlepszym sposobem na wyjście z nich jest zdobywanie jak najbardziej naturalnych linków z wartościowych i będących autorytetami w danej dziedzinie witryn internetowych.

  5. […] W Sieci pojawiły się informacje o nowym filtrze Google, czyli Google’s 950 Penalty. Mariusz Gąsiewski opisał go u siebie. Ponoć ma on powodować spadek pozycji strony w wynikach wyszukiwania do około 950 pozycji. […]

  6. Mendaxon 30 sty 2007 at 22:34

    nie, no przepraszam, ale ten „Wielki Filtr -950”, to najzwyczajniejszy filtr na slowo kluczowe, ktory googiel wymyslil juz pare lat temu.
    po prostu spada sie na sam dol w SERP – tak bylo do tej pory i nic sie w tej materii nie zmienilo; sam dla testow juz ponad rok temu celowo wywolalem to zjawsko dla pewnej domeny.

    natomiast, IMHO, zostaje teraz kwestia tego, ze googiel prawdopodobnie zaostrzyl kryteria przyznawania filtra na fraze; i dlatego tez polecialo(czasem nieslusznie) pare tysiecy serwisow…

    ps. nie mialem jeszcze okazji komentowac, wiec przy okazji chcialem serdecznie pogratulowac bloga – chyba najlepszy dotyczacy tej tematyki w polskiej Sieci.:)

  7. adminon 30 sty 2007 at 22:52

    nie, no przepraszam, ale ten “Wielki Filtr -950″, to najzwyczajniejszy filtr na slowo kluczowe, ktory googiel wymyslil juz pare lat temu

    I tak i nie. Masz rację, że w dużej mierze dotyczyło to dość dawno wprowadzonego filtru na słowa kluczowe. Jednak te filtry są na ogół związne z samym przyrostem linków. W tym przypadku miało to trochę szerszy zakres.

    sam dla testow juz ponad rok temu celowo wywolalem to zjawsko dla pewnej domeny.

    Bardzo mnie ciekawią szczegóły dotyczące Twojego testu:). Mógłbyś więcej powiedzieć o nim?. Jak bardzo konkurencyjna fraza, tempo dodawanie linków, otoczenie strony? Co chciałeś przez to zbadać?

    nie mialem jeszcze okazji komentowac, wiec przy okazji chcialem serdecznie pogratulowac bloga – chyba najlepszy dotyczacy tej tematyki w polskiej Sieci.:)

    Życzę sobie, aby moje posty były na tyle dobre,że będzie miało sens dla Ciebie bycie częstym gościem na moim blogu 🙂 Dzięki za słowa uznania, naprawdę motywują do dalszego pisania 🙂

  8. Belloison 31 sty 2007 at 09:40

    I tak i nie. Masz rację, że w dużej mierze dotyczyło to dość dawno wprowadzonego filtru na słowa kluczowe. Jednak te filtry są na ogół związne z samym przyrostem linków. W tym przypadku miało to trochę szerszy zakres.

    Może więc po prostu chodzi o że Google zaczęło mocniej sprawdzać strony pod kątem różnych niezgodnych z regulaminem technik seo? Bo ma przecież taką możliwość, ale do tej pory mnóstwo śmieci bez problemu wchodziło na samą górę indeksu. I to jest pewna różnica – nowy filtr a zaostrzenie kryteriów. I wówcza byłoby to coś automatycznego, wynikającego ze zmiany w algorytmie…

    Ale i tak niczego pewnego tutaj zapewne nie ustalimy

  9. adminon 31 sty 2007 at 09:59

    Może więc po prostu chodzi o że Google zaczęło mocniej sprawdzać strony pod kątem różnych niezgodnych z regulaminem technik seo?

    Po prostu Google może dowolnie interpretować sobie te „regulaminowe techniki seo”. Najprawdopodobniej mamy więc rzeczywiście do czynienia z zaostrzaniem już wcześniej istniejących kryteriów, do których prawdopodobnie dochodzą cały czas nowe.

    Ale i tak niczego pewnego tutaj zapewne nie ustalimy

    W SEO trudno ustalić jakiekolwiek konkrety. Pozostają domysły i własne testy 🙂

  10. Belloison 31 sty 2007 at 23:56

    To zróbmy jakiś spamik, wypromujmy i zobaczmy co się stanie ;-))

  11. adminon 01 lut 2007 at 07:33

    Co dokładnie proponujesz? Teścik 🙂

  12. Damianon 01 lut 2007 at 17:59

    A ja mam taki przypadek od miesiąca: Tydzień poza inteksem, wraca na 2 dni, tydzień poza, wraca na 2 dni… Co za .. To zaliczamy do google penatly xxx? Co sądzicie na ten temat ja tutaj tylko sprzątam nie wiem co mysleć.

  13. adminon 01 lut 2007 at 20:28

    To nie jest filtr. To są wahania indeksu, które są dość często spotykane w przypadku tej wyszukiwarki. Najlepszym sposobem na sprowadzanie strony do normalnego stanu jest dodawanie linków do niej (katalogi, artykuły, fora dyskusyjne, blogi i it). Sporo informacji znajdziesz na:
    http://www.ittechnology.us/zdobywanie-linkow-dla-strony/

  14. Damianon 01 lut 2007 at 20:34

    Wiem wiem :). Linkuję od początku jak to się mówi z głowąi linkuję dalej. Od początku roku stało się jednak cos dziwnego. Moja domena ma rok. I była na bardzo wysokich pozycjach obecnie pod główną fazę nie ma jej w indexie taki stan rzeczy przez ok. tydzień, później wraca 2 dni i znów kosmos. Index i podstrony. to nie są zwykłe przetasowania google, takie kiedys też już mi sie zdarzały. Jednak być może faktycznie się mylę ale sytuacja niecodzienna. Z tego co wyczytałem nie tylko mnie w ostatnim czasie dzieją się takie rzeczy.
    Dzięki za zainteresowanie.
    Uważam, że to miłe forum 🙂

  15. adminon 01 lut 2007 at 20:55

    Na jaką frazę pozycjonowałeś swoją stronę. Czy jak wraca to jest wysoko czy nisko. Czy z indeksu wylatuje cały serwis? Ile podstron masz zwykle zindeksowanych? Czy dodajesz linki tylko z katalogów czy z innych miejsc również?

  16. Damianon 01 lut 2007 at 21:02

    fraza typu biuro rachunkowe. Wraca jest wysoko tak jak było kiedys nawet wyżej. np Biuro rachunkowe warszawa nr 1. pozycjonowałem pod kilkadziesi±t fraz.. Wylatuje zupełnie index. Podstrony spadaj± bardzo bardzo nisko i zawsze spadaja tak samo i wracaj± na te same wysokie pozycje. Nie wszyskie frazy spadaja zauwazylem ze niektore ale bardzo sporadyczne trzymaja sie dalej. np rachunkowsc krakow, ale wszystko inne z krakowem spada. Mysle że to przypadek. Podstron zaindeksowanych nie chcialbym przesadzić +- 100.
    Linki dodaję głównie do katalogów choć teraz już nie do wszystkich. ale wszystko ręcznie cze¶to zmieniam frazy dla przykładu hipotetycznie rachunkowosc katowice , biuro rachunkowe warszawa, w krakowie biuro, etc. fraz naprawdę jużo różnych.. to oczywiscie frazy hipotetyczne.

  17. adminon 01 lut 2007 at 21:26

    Jak długo trwa ta sytuacja? Czy od czasu rozpoczęcia ostatniego update Google, czy wcześniej? Fraza jest dość konkurencyjna jak na polskie warunki.Czy ta sytuacja dotyczy tylko Ciebie czy też konkurencji?

  18. Damianon 01 lut 2007 at 21:36

    wydaje mi się żę od update. Ja tak naprawdę nie jestem żadnym fachowcem, i nawet nie wiem kiedy to było 🙂 w każdym razie od pocz±tku stycznia. Fraza była przykładowa ale jest b. konkurencyjna..

    z moich obserwacji dotyczy tylko mnie, chociaz firma maj±ca 3 strony została tylko jedna w czołówce ale to może byc przypadek. Innne strony bez zmian nawet nowe pna sie do góry.

    Ale spotkałem się z czym¶ takim w¶ród innych osób z innej branży. wła¶nie w tym czasie.

    Z racji tego ze chcialem zalozyc now± domenę mam jeszcze jedno pytanie czy jak zrobię stronę podobn± oczywiscie ale ze zmieniona trescia ale podobnym np plikiem style ukladem main i index choc tresc zmieniona. Czy za to mozna dostac duplicate? Czy cos sie stanie dla pozycjonowania jesli będę miał je na jednym serwerze w ramach jednego hostingu?

    Czy konkurencja moze mnie zglosic jako spam?

    Pytania moze s± banalne jednak ja nie znam na nie odpowiedzi i nie chodzi o pieniadze zainwestowane w domenę ale szkoda mi starej domeny.

    pytałem na innym forum ale nie udalo mi sie uzyskac sensownej odpowiedzi.

    p.s. jak dzi¶ nie odpiszę to znaczy ze mnie nie ma 😉

  19. adminon 01 lut 2007 at 22:38

    W takim razie jest to sprawa update i bardzo możliwe, że się ustabilizuje jak update się zakończy.
    Co do domeny to warto kupić domenę, która już trochę istnieje w sieci niż całkowicie nową. Wyszukiwarki podle traktuję nowe domeny (zwłaszcza Google).
    Jeśli chodzi o sam serwis to się nie masz przejmować. Tak długo, jak będą różne treści na serwisach nie ma problemu. Wyszukiwarki sprawdzają treść strony, a nie jej układ.
    Możesz spokojnie wrzucić obie domeny na tym samym hostingu. Oczywiście lepiej, jakby były na różnym, ale nie jest to jakoś bardzo istotne (o ile nie zamierzasz wprowadzić jakiegoś silnego linkowania wzajemnego, czego nie polecam).

  20. Mendaxon 01 lut 2007 at 23:54

    >I tak i nie. Masz rację, że w dużej mierze
    >dotyczyło to dość dawno wprowadzonego filtru na
    >słowa kluczowe. Jednak te filtry są na ogół
    >związne z samym przyrostem linków. W tym
    >przypadku miało to trochę szerszy zakres.

    generalnie chodzi mi o interpretacje nazwy, itp. nie ma sensu wprowadzac nowych nazw, skoro w gruncie rzeczy jest to po prostu auktualnienie algorytmu, ktory jest teraz nieco restrykcyjniejszy.
    mniejsza.;)

    >mnie ciekawią szczegóły dotyczące Twojego
    >testu:). Mógłbyś więcej powiedzieć o nim?. Jak
    >bardzo konkurencyjna fraza, tempo dodawanie >linków, otoczenie strony? Co chciałeś przez
    >to zbadać?

    byl to jeden z wielu testow, jakie przeprowadzilem zaczynajac zabawe z pozycjonowaniem – chcialam wybadac w praktyce jak tez ten googiel sie zachowuje.
    fraza malo konkurencyjna, wowczas okolo 15000 wynikow(niestety nie moge podac, bo teraz okupuje pierwsza pozycje). linkowalem bardzo ostro dwoma anchorami przede wszystkim katalogi + kilka linkow z systemow wymiany.
    po 4-5 tygodniach spadlem na oba anchory na sam dol; do tego stwierdzilem, ze jeszcze na kilka fraz(innych) jestem na samym dole – wlasnie takie „-950 penalty”.

  21. Damianon 02 lut 2007 at 00:54

    Dzięki. Ja też tak sobię myslę, że to update ale jak sprawa dotyczy osobiście to nie tak łatwo się nie przejmować. Tymbardziej, że strona mnie utrzymuje. Tą drugą domenę wykupię sobie choćby dla zabawy i moich pseudotestów. Tylko niedokońca rozumiem :”Co do domeny to warto kupić domenę, która już trochę istnieje w sieci niż całkowicie nową. Wyszukiwarki podle traktuję nowe domeny (zwłaszcza Google)”, jak rozpoznać takie domeny? chodzi tutaj o samą nazwę jeśli np w sieci jest biuro.pl to zakupić biuro.com ?

    I dzięki tutaj dowiedziałem się czegoś… gdzie na innym forum nie potrafiłem a jeśli otrzymywałem odpowiedzi to straszne – typu to ty tego nie wiesz?! – zamykam temat.

  22. adminon 02 lut 2007 at 07:21

    @Mendex Rozumiem, o co Ci chodzi. W gruncie rzeczy prawie wszystkie zmiany w algorytmie Google są rozszerzeniem czegoś, co istniało już wcześniej. Takie nazewnictwo ułatwia wymianę doświadczeń i wiedzy na temat tych zmian. Zwłaszcza, że każda taka zmiana ma swoją specyfikę. Nieraz jest to różnica bardzo subtelna, ale jednak jest. Czy uważasz inaczej?
    Bardzo ciekawy test. Kiedy z tego wyszedłeś. Czy to nie był jeden z elementów Fresh Site Bonus?
    @Damian

    jak rozpoznać takie domeny? chodzi tutaj o samą nazwę jeśli np w sieci jest biuro.pl to zakupić biuro.com ?

    Chodzi mi o odkupienie od kogoś domeny o odpowiedniej dla Ciebie nazwie, domenę, którąś już ktoś zarejestrował. Najlepiej, żeby była wcześniej wykorzystywana w tej samej tematyce i miała ze dwa lata.
    Cieszę się, że mój blog się na coś przydał 🙂

  23. Damianon 02 lut 2007 at 09:33

    Niestety takiej możliwośći odkupienia miał nie będę. Na 99 pr będę musiał zainwestować w nową domenę.

    A blog rewelacyjny :-). Profesjonalne podejście do tematu – zgodne z dyrektywą nie każdy zna się na wszystkim 🙂

    Dzięki raz jeszcze jeśli będę miał jeszcze jakieś wątpliwości na pewno tutaj zajrzę.

  24. adminon 02 lut 2007 at 16:16

    Życzę powodzenia:)
    Zapraszam oczywiście do ponownych odwiedzin 🙂

  25. Mendaxon 03 lut 2007 at 11:54

    kwestia nazwy: oczywiscie, mozna dawac nazwy wszelkim zmianom, ale w tym wypadku uwazam to za zwykle rozszerzenie filtra na fraze(frazy).
    oczywiscie, uwazam za warte odnotowania, ze taka zmiana istnieje, ale co, jesli za kilka tygodni googiel wprowadzi inny filtr, w ktorym strona spadnie o 500 pozycji? znow bedziemy mowic o „-500 penalty”?

    a co do testu: zaprzestalem dodawania linkow po niecalych 4 miesiacach, domena nigdy nie wyszla z tego filtra – jest 3-5 od konca w wynikach; nadal ja jednak trzymam, bo jest na pierwszej pozycji w msn-ie i yahoo. co ciekawe, ma ona tPR4, a mimo to w ciagu ostatnich 6 miesiecy nie zanotowalem wejscia z wyszukiwarki.

  26. adminon 03 lut 2007 at 20:52

    Oczywiście nazw nie można mnożyć w nieskończoność. Musi być jakaś rozwaga w tym wszystkim.
    Czy jej wyniki są w indeksie uzupełniajacym czy w głównym?

  27. Damianon 05 lut 2007 at 20:27

    A ja mam jeszcze jedno pytanie 🙂

    Moja sytuacja opisana powyżej. Podejrzewam to penatly lub page rank update. Co jakiś czas wraca index i podstrny później znów wylatuje. Ale tak myslalem nad drugą domeną. I chciałbym na poprzedniej umieścic tylko w index na głównej informacje kontaktowe oraz informacje o nowym adresie internetowym. Strona nie zawierałaby nic wiecej a całą starą stronę chciałbym przenieść na nową domenę. Czy jeśli dam bezpośredniego ahrefa d nowej domeny a moja strona stara ma filtr odbije sie to na domenie nowej?

    Czy wogóle ja mam ten filtr jeśli w koncie w goole piszą ze robot uzyskał dostęp co kilka dni, i piszą ze strony tej wwitryny uwzględnione są w indeksie.

    Jeśli mialbym filtr taka informacja moze się pojawiać w koncie w google? Czy wtedy automatycznie nie ma.
    Czy warto złożyc wniosek o reinkluzje przed przeneiesieniem całej strony? I jak długo +- się czeka na decyzję?

    Dzięki
    pozdrawiam
    Damian 🙂

  28. Mendaxon 05 lut 2007 at 20:37

    ciesze sie, ze sie zrozumielismy.:-)

    domena niedlugo po wprowadzeniu na wieksza skale „Supplemental index”, na kilku DC wlasnie w nim sie znajdowala. w tej chwili jest juz w zwyklym indeksie.

  29. adminon 05 lut 2007 at 21:10

    @Damian jak już wspominałem możliwe, że to zwykłe roszady przy update. Jednocześnie Twoja strona ma prawdopodobnie niski TrustRank i najlepszym sposobem poprawienia tego są linki, przy czym ważniejszą rolę odgrywa tu jakość linków, a nie ich ilość. Linki z autorytatywnych stron, jak najsilniejszych, powiązanych branżowo z Twoją stroną.
    Co do nowej domeny to muszę Cię zmartwić, że bardzo trudno jest pozycjonować nową domenę. Ona z miejsca dostaje coś w stylu filtra na wiek. Musi trochę przeczekać swoje i dostać dobre linki. Jeżeli już chcesz połączyć linkiem jedną stronę z drugą to zrób to tylko w jedną stronę. Daj linka ze strony A na B, ale nie dawaj linka z B na A.
    @Mendax Spoko 🙂 Co do strony to znasz się na tym, więc wiesz, że tak naprawdę filtry i wychodzenie z nich kończy się najlepiej na dodawaniu dobrych linków, z powiazanych tematycznie stron, które długo istnieją w branży, najlepiej usadowionych w treści, z odpowiednimi anchorami (ale też nie sztucznych, zbliżonych do naturalnych).

  30. Damianon 05 lut 2007 at 21:47

    wiem wiem adminie:) Ale to już trwa ponad miesiąc jeszcze jeden i stracę nadzieję. A oczywiście że tylko link z domeny starej A do domeny nowej B. Tylko na zasadzie informacji, ponieważ klienci znają starą stronę.

    Tylko bałem się że jeśli stara A jest w filtrze to przy ahrefie mozeniekorzystnie wpłynać na B.

    Do tej pory linkowałem gdzie popadnie to moja pierwsza domena;-), ale obecnie dodaję juz tylko wartościowe linki. I wiem że z domeną będę musiał czekać ale może podstrony już wskoczą na mniej pozycjonowane frazy.

    A co proponujesz z reinkluzją? Zgłaszać się czy nie?

    Pozdrawiam:)

  31. adminon 05 lut 2007 at 22:21

    Niestety dla Google potrzeba sporo cierpliwości. Jeszcze nie raz się o tym niestety przekonasz. Ja się przekonywałem wiele razy 🙂
    Reinkluzja to średni pomysł. To jest ostateczność. Możesz dodać mapę strony do swojego konta sitemaps w Google. Ale linki są najlepszym sposobem. Jak masz możliwość możesz od czasu do czasu dodać linka do danej podstrony. Takie linki dają mniej niż linki do domeny głównej, ale wyglądają naturalnie.
    Dla nowej domeny 3 miesiące to minimalny czas, żeby dało się coś z nią zrobić.
    Na początku nie dodawaj zbyt dużo linków. Przez pierwszy miesiąc kilka na miesiąć, ale z naprawdę silnych stron (katalog Onet, Wp, Interia, DMOZ i itp).

  32. Damianon 05 lut 2007 at 22:27

    O dzięki Ci :-). Ja pamiętam przechodziłem to jednak tylko z jedną domeną, przy pierwszej nie dało się nie popełnić błędów ale dużo się nauczyłem. Będę linkował nową oczywiśćie jeśli chodzi o starą to coś z google nie tak.

    a Dlaczego piszesz, że reinkuzja to nienajlepszy pomysł? Nie chcę się spierać ale chcialbym znów się czegoś dowiedzieć 🙂
    mapy nie dodam to trochę ponad moje siły :-).
    Ale z nową stroną zgadzam się; dlatego przy nowej stronie na początek polegałbym jedynie na frazach mniej pozycjonowanych z podstron.

  33. adminon 05 lut 2007 at 22:50

    Z Sitemaps sobie spokojnie dasz radę. Zresztą przyda Ci sie to na przyszłość. W tym filmiku masz krok po kroku jak to zrobić.
    http://www.youtube.com/v/CCZdE5_bpnw
    To się tylko wydaje trudne. Chyba, że nie znasz angielskiego to wtedy będzie problem 🙁
    Dlatego, że reinkluzja to strata czasu. Działa dobrze tylko te natychmiastowe wyindeksowanie, ale wtedy w indeksie strony nie będzie pół roku, a chyba nie to, Ci chodzi 🙂

    Mapę możesz zrobić na:
    http://www.rorweb.com/rormap.htm

  34. Damianon 05 lut 2007 at 23:41

    Dzięki:-)

    Spróbóję to zrobić. A na tym youtube to chyba wszystko jest 🙂

  35. adminon 05 lut 2007 at 23:47

    Powodzenia. Jak będziesz miał problemy to daj znać. Może się na coś jeszcze przydam 🙂

  36. Wskazówki Google dla webmasterówon 06 lut 2007 at 20:49

    […] czy też specyficzny filtr -950, bedący raczej rozszerzeniem filtru -30 przedstawiony w Google’s 950 Penalty […]

  37. Damianon 08 lut 2007 at 11:53

    Adminie jeszcze jedno pytanie. Czy domeny eu są takie same w pozycjonowaniu? czy wogóle końcówki domen mają znaczenie?

    I postanowiłem jednak złożyć wniosek o reinkluzję. Kiedys zostalem usunięty z wyszukiwwarki za ukryty tekst – tekst usunąłem złozyłem wniosek po tygodniu strona wróciła. Ale nie wtym rzecz zlożyłem wniosek wczoraj, dziś zadzwoniła jakaś Pani z firmy”wspólracującj z google” i oferuje mega promocję pomoc w pozycjonowaniu link sponsorowany (zwykłe adwords) 1000zł za 600 klikniec. Czy to przypadek? Czy google staje się powoli jak onet?

    Boję się, że jak już się namęczę z nową domeną dostanę nowy bonus…

    Pozdrowienia

  38. adminon 08 lut 2007 at 19:59

    Końcówki domen nie mają znaczenia, aczkolwiek domeny typu waw,pl mogą być nieco gorzej oceniane przez wyszukiwarki niż np. pl Jeśli chodzi o główne typy domen to nie ma to za bardzo znaczenia dla wyszukiwarek jakego rodzaju jest to domena.
    Co do tego przypadku tej firmy to rzeczywiście dziwna sprawa. Cena bardzo wysoka (chyba, że naprawdę bardzo konkurencyjna fraza)
    Są tylko dwie możliwości:
    a)zbieg okoliczności
    b)przeciek

    Co do Twoich obaw to nie ma póki co do nich powodu. Google nie ma żadnego interesu, aby wrzucać filtr na nieduże stronki. Za małe pieniądze są do wzięcia. Jak juz brać to miliony 🙂

  39. Damianon 09 lut 2007 at 13:19

    🙂

    OK poczekamy zobaczymy, chciałem jeszcze zrobić zmianę zazwy podstron
    tzn, zamiast index.php?s=oferta , chciałbym zrobić oferta. Słyszałem, że robi się to w htaccess.

    Zrobiłem zgodnie plik .htaccess ze wskazówkami na home.pl

    RewriteEngine on
    RewriteRule^http://mojadomena.pl/index.php?s=oferta\.html$ http://mojadomena.pl/oferta\.html

    Plik umieściłem na stronie głównej tam gdzie index i main.

    Nie działa 🙂

    Pewnie źle coś zrobiłem tylko nie wiem co. Już na nowej stronie chciałbym, żeby to mialo ręce i nogi.

    Dzięki za sugestie

  40. adminon 09 lut 2007 at 16:16

    Nie jestem ekspertem od mode rewrite, ale spróbuj tego:

    [code lang=”html”]
    Options +FollowSymLinks

    RewriteEngine On

    RewriteCond %{REQUEST_URI} !^/index [NC]
    RewriteRule ^([^/]+)\.html$ /index?s=$1 [QSA,L]
    [/code]

  41. adminon 09 lut 2007 at 16:17

    Sprawdź też, czy na pewno Twoje konto hostingowe obsługuje mode rewrite. Nie zawsze tak jest. Daj znać, czy działa 🙂

  42. Damianon 09 lut 2007 at 17:30

    Mam konto w home 🙂

    Wkleiłem to do pliku.htaccess i wgrałem na główną jeśli tak to nie działa. A jeśli mam to wkleić do index to do jakiej sekcji?:)

    p.s. wrociłem właśnie do wielkiego G. tYlko ciekawy jestem na jak długo i czy to przez reinkluzję czy to wszystko jest kwestią jednego wielkiego przypadku.

    Ale zmianę adresu w htaccesss będę wałkował zamierzam jeszcze zrobić inne strony a ja to wszysko wole robić sam:/ i nie chodzi juz o pieniądze tylko poprostu lubie sam wiedzieć co gdzie mam i mieszać co gdzie chcę :-).

    A bez htaccess
    postanowiłem, że nie będzie nowej strony:-). Musi byc jakiś krok naprzód.

    Pozdrowienia 🙂

  43. adminon 09 lut 2007 at 20:51

    Dziwne powinno działać. Ciężko mi bez strony to testować. Muszę mieć dojście do serwera, żeby coś próbać.

    Zawsze możesz użyć tego narzędzia, aby robić mode rewrite.

    Nie jest to automat, ale na nieduże stronki jest ok.

    http://www.linkvendor.com/seo-tools/url-rewrite.html

  44. Damianon 12 lut 2007 at 17:26

    Dzięki 🙂 długo mnie nie było. Spróbóję coś zadziałać z tym programem.

    Pozdrawiam wyrozumiałego admina 🙂

  45. adminon 12 lut 2007 at 17:35

    Powodzenia. 🙂 Nie powinieneś mieć problemu z tym narzędziem.

  46. Krzysztofon 28 kw. 2008 at 00:13

    Witam,
    chciałbym zapytać o Cloaking detection. Jest takie
    narzędzie w linkvendor.com. Mam http://www.forumx75.info. Kilka dni temu
    zmieniłem skrypt. Wcześniej stronę miałem na by Przemo, teraz kupiłem
    IPB.
    Wracając do Cloaking detection. Na starym skrypcie kiedy sprawdzałem
    to forum tym narzędziem w oknie Search Engine View wyświetlane jest
    białe pole. Tak samo jest i na nowym skrypcie. Jak czytałem, jeśli
    robot widzi co innego jak użytkownik, strona może być zbanowana. W tym
    wypadku jest tak, że robot nic nie widzi. Na większości for jest
    podobnie, chociaż zdarzają się bez zastrzeżeń. Proszę sprawdzić np. to forum: http://www.forum.optymalizacja.com. W 100% robot widzi tak jak użytkownik.
    Pytanie: W czym tkwi problem.
    Krzysztof

  47. adminon 28 kw. 2008 at 16:39

    U mnie wygląda wszystko ok. Sprawdź:
    http://www.ittechnology.us/images/ScreenShot169.jpg

  48. […] pojawiły się informacje o nowym filtrze Google, czyli Google’s 950 Penalty. Mariusz Gąsiewski opisał go u siebie. Ponoć ma on powodować spadek pozycji strony w wynikach wyszukiwania do około 950 […]

Trackback URI | Comments RSS

Odpowiedz komentarzem

You must be logged in to post a comment.