Spadł ruch na Twojej stronie - stoi za tym Pingwin

11 maja 2012 Łukasz Gierucki
Ostatnie tygodnie dla niektórych właścicieli stron były wyjątkowo nerwowe. Wszystko za sprawą aktualizacji algorytmu Google - Pingwin. Dowiedz się jak pozbyć się filtra.

Penguin - SEO Killer

W ostatnich tygodniach w kręgach SEO dużego namieszał jeden mały zwierzak, który stał się wrogiem SEO numer jeden. Mowa oczywiście o ostatnim update'cie Google o nazwie Penguin - Pingwin.

Panda czyli czasy przed-Pingwinowe

Ostatni tak dotkliwa aktualizacja o nazwie Panda uruchomiona została w lutym 2011. Szacunkowo mówiło się że Panda zgodnie z tym co podaje na swoim blogu Google dotyczyła ok 12% zapytań w wyszukiwarce po jej uruchomieniu w USA, jednak po modyfikacjach zmiany mają dotyczyć już "tylko" 7% zapytań.

Co już teraz wiemy na pewno, Panda jest poważną zmianą w algorytmie wyszukiwarki, nastawioną głównie na strony zawierające kontent niskiej jakości. Główny cel jaki stawia sobie Google to prezentowanie wartościowych wyników w swoim indeksie, co może być dla nas oczywiste, jednak z punktu widzenia właścicieli stron oczywiste jest że wysoka pozycja gwarantuje odpowiednio wysoki ruch, co od zawsze kusiło bardziej lub mniej etycznymi działaniami nastawionymi na pozycjonowanie i na podbijanie jakości własnej strony poprzez stosowanie mniej lub bardziej etycznych metod.

Dążąc do postawione celu Google musiało wprowadzić odpowiednie modyfikacje w algorytmie aby móc lepiej odróżniać wartościową treść od treści, która wartościową udaje. Nie jest to proste zadanie i wymaga ono ciągłych modyfikacji algorytmów aby w indeksie pozostawały wartościowe strony, które po prowadzeniu Pandy zostały z niego usunięte. 

I tak od wprowadzenia Pandy w lutym 2011 było ona już kilkukrotnie modyfikowana i modyfikacje mają charakter ciągły.

Jak podaje Simon Penson z Zazzle Media Google wprowadzał ok 500 modyfikacji algorytmu rocznie jednak nigdy nie miały one tak drastycznego przebiegu jak w przypadku Pandy i wydawało się wszystkim że nie może być już nic gorszego od Pandy. Wprawdzie od zawsze Google nawoływał do tworzenia treści wartościowych i podawanych dla ludzi, jednak biorąc pod uwagę korzyści z bycia wysoko w indeksie, treści głównie tworzone a strony optymalizowane były pod kątem wyszukiwarki, czyli tak aby spełniać jej oczekiwania - czyli podawane wytyczne, i to się udawało.

Google walczy z spamem - pierwsza wzmianka na blogu

Dokładnie 24 kwietnia wielu właścicieli stron analizujący swój ruch na stronie mogli przeżyć nie mały szok, kiedy zobaczyli że ich ilość wizyt spadła diametralnie. Mało kto spodziewał się kolejnej aktualizacji w tak krótkim czasie, zwłaszcza że kilka dni wcześniej - 19 kwietnia Google wprowadził update do algorytmów Pandy. A jednak Google znowu uderzył. Tym razem atak skierowany został na strony zbyt zoptymalizowane.

Na swoim blogu Matt Cuts - oręże Google w walce ze spamem, zamieścił wpis w którym czytamy, że "White Hat SEO", które dąży do poprawienia użyteczności strony poprzez np. zwiększenie szybkości działania, ułatwia przeglądanie strony poprzez dopracowaną nawigację i tym samym ułatwia indeksację przez wyszukiwarkę jest czym dobrym.

Z drugiej strony "Black Hat Webspam", które dąży do nienaturalnego podbijania stron w rankingu poprzez różnego rodzaju niezgodne czynności jak zbytnie nasycanie słowami kluczowymi, schematy linkowania itp. jest czymś z czym Google walczy. W tym samym wpisie Google wspomina o ostatniej aktualizacji Pandy i że wkrótce uruchomi kolejną nakierowaną na walkę ze spamem, co okazało się niestety prawdą gdyż w tym samym dniu wszystkie znaki na niebie i ziemi - głównie płaczący na forach właściciele stron - wskazały, że algorytm został uruchomiony w dniu wpisu. 

  1. Matt podaje przykłady na co nowy algorytm ma zwracać głównie uwagę i tu na pierwszym miejscu mamy nienaturalne nasycenie słowami kluczowymi czyli. "keyword, bla keyword, bla bla keyword, ble bla keyword itd.".

  2. Drugi przykład spamu to umieszczanie linków o anchorach nie związanych z treścią strony. Czyli mamy np. artykuł o żabach a w środku linki do oferty kredytowej.
     

Można wymienia również kilka dodatkowych cech używanych jako webspam, które nie są zgodne z wytycznymi Google i które mogą przyczynić się do ataku Pingwina na naszą stronę, m.in.:

  • wysokie zagęszczenie słów kluczowych - wymienione przez Matt'a w punkcie pierwszym, w wersji lżejszej ale wciąż o dużym natężeniu keywords w tekście

  • zbyt duża ilość linków tym samym lub bardzo podobnym anchorze - jeśli np. do strony linkuje zbyt duża ilość identycznych linków

  • strony ze zduplikowaną treścią z innych stron /własną lub co gorszą cudzą czyli tzw. duplicate content

  • nienaturalne, nieorganiczne, zakupione na innych stronach linki.


Dodatkowo można dorzucić zagrożenia które niosą inne działania:
  • zbyt duża liczba przekierowań - głównie chodzi o przekierowania własnych subdomen i innych domen na nasz serwis poprzez redirect 301

  • linki z serwisów umieszczonych na tych samych serwerach lub z tej samej puli adresowej

  • strony jako bramy do innych serwisów

  • programy linków czyli tzw. SWLe - systemy wymiany linków

  • ukryty tekst / ukryte linki.
     

Co może zasmucić Pingwin ma dotyczyć aż 5% zapytań wśród zapytań w polskiej wersji językowej, które strony, jak podaje Mat należą do bardziej zaspamowanych - zmiany w wersji angielskiej czy niemieckiej będą dotyczyć "tylko" 3%.
 

Jak zdiagnozować czy staliśmy się celem Pingwina

Diagnoza jest bardzo prosta jeśli korzystamy z narzędzie do analizy i statystyk ruchu na stronie np. Google Analytics lub e-Spy.

  • Sprawdź statystyki wizyt na stronie i jeśli okaże się że po 24 kwietnia liczba wizyt diametralnie spadła tzn. że strona otrzymała filtr

  • Zajrzyj do Google Webmaster Tools i sprawdź czy nie dostałeś wiadomości z powiadomieniem - Google wysyłał wiadomości z informacją że do strony kierują nienaturalne linki.

  • Ręcznie sprawdź pozycję strony w rankingu dla kluczowych fraz generujących największy ruch.

  • Używając narzędzi sprawdź swój profil linków czyli zaplecze linków przychodzących.
     

Co udało się ustalić czyli główne źródło problemów

Dzięki wnikliwym analizom wielu specjalistów od SEO i wymianie swoich poglądów i wyników własnych obserwacji udało się ustalić jakie działania zostały uznane jak najbardziej sprzeczne z wytycznymi Google i które Pingwin potraktował bardzo surowo, czyli obniżeniem pozycji lub usunięciem stron z rankingu.

Jon Cooper na swoim blogu jako główne źródło problemów wymienia linki zewnętrzne (linkujące do naszego strony) czyli tzw. inbound links. Poniżej lista głównych przewinień:

  1. Linki o dokładnym anchorze - jeśli do strony linkuje spora ilość stron o takim samym anchorze, odpowiadającym tytułowi (title) strony oraz głównemu H1, a zwłaszcza jeśli są to strony niskiej jakości, o marnej historii i kontencie.

  2. Linki w katalogach - podobnie jak wyżej, jeśli do strony linkuje spora ilość katalogów a anchory są identyczne i dokładnie pasujące do strony - mamy szansę dostać Pingwina. Jeśli korzystamy z katalogów to tylko takich, które są moderowane i wartościowe i nigdy nie używamy linków z dokładnymi anchorami tylko linków z nazwą naszej marki czyli np. nazwą firmy.

  3. Linki w komentarzach - również nie używamy dokładnych anchorów, oraz używamy swojego imienia w komentarzu co ułatwi otrzymanie akceptacji.

  4. Linki z Tumblr - również unikamy linków z dokładnym anchorem.
     

Jak pokonać Pingwina

Jeśli już się upewnimy że za spadek ruchu odpowiedzialny jest Pingwin, nie ma co płakać tylko trzeba wziąć się do roboty usuwając najważniejsze źródła problemów.

Korzystając z odpowiednich narzędzi SEO należy sprawdzić:
  1. jakość linków przychodzących, jaka ilość procentowo to linki o danym anchorze, jeśli jest ich zbyt dużo należy zdywersyfikować anchor
     
  2. sprawdzić linki przychodzące pod kątem jakości i wykluczyć atak negatywnego SEO - czy nie linkują do nas strony o niskiej reputacji ze słabym profilem - pozbycie się jednego kiepskiego linku może być bardziej wartościowe niż zdobycie wartościowego
     
  3. duplicate content - czyli wyszukać strony i skopiowanym kontencie które linkują do naszej strony w wyniku działania negatywnego SEO lub przez przypadek
     
  4. ostatnie i najważniejsze - przeanalizować wartość treści na naszej stronie, czy jest unikalna, czy nie powielamy tej samej treści na wielu stronach - możemy sami być twórcami duplice contentu i skupić się na tworzeniu nowej wartościowej treści.

Wygląda na to, że Google robi się coraz mądrzejsze i coraz lepiej radzi sobie ze stronami udającymi wartościowe. Oczywiście zawsze znajdą się sposoby na oszukanie algorytmu tyle że jest to coraz trudniejsze i niesie za sobą ryzyko że kolejna kolejna aktualizacja algorytmu znów wyrzuci naszą stronę a otchłań.

Może jednak nie warto kombinować i korzystniej skupić się na tym aby nasza strona dostarczała wartościowej treści co z perspektywy czasu może okazać się jedyną słuszną decyzją.
 

Bezpłatna konsultacja

optymalizacja

content marketing

link building