Expert Insights 03.11.2016, 08:10 Uhr

Penguin 4.0: Warum die Ära der manuellen Google-Updates endet

Penguin 4.0: Google hat das Linkspam-Update in die neue Ära überführt. Dank Machine Learning arbeitet Penguin künftig als Teil des Kernalgorithmus - in Echtzeit und selbstlernend. Was bedeutet das für die SEO-Zukunft?
Mit dem Penguin 4.0-Update, das Google im Oktober 2016 released hat, arbeiten die Algorithmen, die das Web auf Linkspam-Signale prüfen, nun in Echtzeit. Das war bisher anders. Hatten Webmaster in der Vergangenheit nach einer Penguin-Abstrafung ihr Backlinkprofil bereinigt, konnte es trotzdem Monate oder gar Jahre dauern, bis Google die Website wieder aus dem Filter entließ. Denn bisher waren Penguin-Updates "Handarbeit" - und eine Erholung war erst durch eine manuelle Iteration des Updates möglich. Und manche Seiten erholten sich selbst dann nicht aus dem Filter.

Vierjähriges Google-Gefängnis

Das neue Update kennt aber (fast) nur Sieger: In den wöchentlichen Top100-Gewinnern der SEO Visibility seit dem 16. Oktober sind zahlreiche Websites zu finden, deren Zuwachs möglicherweise mit dem Penguin-Rollout zusammenhängen könnte. Dies zeigt sich in der Analyse zum Penguin-Update. Beispielhaft kann die Domain schicksal.com betrachtet werden, die vom ersten Update im Jahr 2012 betroffen war. Nach mehr als vier Jahren konnte die Seite mit dem Release von Penguin 4.0 erstmals wieder den SEO-Visibility-Wert erreichen, den sie vor dem Absturz hatte. Georg Franz, Geschäftsführer der Website, spricht von einem vierjährigen "Google-Gefängnis". Neben dem Aufräumen im Backlink-Bereich sei die Content-Strategie umgestellt und die Redaktion ausgebaut worden.
 
Auch Andor Palau, Head of SEO bei der Berliner Agentur Peak Ace, kennt diese Effekte: "Ende 2015 ist ein Kunde mit Penguin-Problemen zu uns gekommen. Wir haben auch zwei Runden Link-Cleanups gemacht. Jetzt, pünktlich zum Penguin 4.0 Update, ist die SEO Visibility dann um 86 Prozent gestiegen."
 
Neben der Echtzeit-Evaluation von Spamsignalen bei Websites hat der Penguin eine weitere gravierende Neuerung erhalten. Die Google-Bewertungen beziehen sich ab sofort "nur" noch auf die einzelne Ziel-URL, auf die der Backlink verweist. Entsprechend wird nicht gleich die komplette Domain "bestraft", wie dies in früheren Iterationen der Fall war. Google erklärt die Änderungen im Webmaster Blog wie folgt: "Die Penguin-Auswirkungen sind jetzt detaillierter. Penguin wirkt sich jetzt auf Spam aus, indem das Ranking basierend auf Spamsignalen angepasst wird, statt das Ranking der gesamten Website zu betreffen."

Das letzte Update seiner Art

Penguin ist dabei nur eines von mehr als 200 Signalen, die Google zur Ermittlung von Rankings verwendet. Allerdings sind inzwischen wichtige Teile in den Google-Kernalgorithmus eingeflossen und bewerten Suchanfragen beziehungsweise Websites in Echtzeit. Entsprechend seltener und weniger gravierend dürften Anzahl und Auswirkungen künftiger Updates ausfallen. Die Evolution, die Google bei der Update-Entwicklung genommen hat, kann entsprechend in drei Phasen eingeteilt werden. Anfänglich waren die Updates statisch, zeitlich relativ weit voneinander entfernt und mussten manuell per Knopfdruck initiiert werden.
In Phase zwei gab es keine konkret abzugrenzenden Zeitpunkte, in denen Google-Updates ausgespielt wurden. Stattdessen war diese Phase durch kontinuierliche Updates gekennzeichnet - etwa wie der Panda 2015, dessen Rollout über mehrere Monate dauerte. Jetzt sind wir in Phase drei angekommen: Die separaten Updates werden Teil des immer komplexeren Kernalgorithmus, der in Echtzeit arbeitet und selbstständig hinzulernt.
 
Schauen wir uns die Bereiche an, die Google bereits in den Echtzeit-Kernalgorithmus integriert hat, der auf datengetriebenem Machine-Learning-Ansatz basiert. Den Beginn machten Hummingbird (2013) und RankBrain (2015), mit denen ein Echtzeit-Verständnis von Suchintention und entsprechend passenden Ergebnissen in den Algorithmus eingeflossen ist.
Hummingbird war dabei ein Meilenstein im Bereich der kontextuellen Suche. RankBrain diente anfangs dazu, vor allem Ranking-Ergebnisse für die rund 15 Prozent an täglichen Suchanfragen selbstlernend zu bestimmen, die noch nie zuvor gestellt worden waren. Inzwischen, bestätigte Google, komme RankBrain bei allen Suchanfragen zum Einsatz und habe sich zum drittwichtigsten Ranking-Faktor entwickelt.
 
Als einer der wichtigsten weiteren Bausteine im Gefüge der Ranking-Signale sind die User Signals anzunehmen. Click-Through-Rate, Bounce Rate oder Time On Site geben wichtige Indizien, ob Nutzer mit dem Suchergebnis zufrieden waren. In den Kernalgorithmus von Google wurde auch Panda Anfang 2016 integriert. Mit Panda-Updates werden Aspekte der Content-Qualität bewertet; zuvor war mit Panda 4.2 im Jahr 2015 das letzte, reguläre Update eingespielt worden. Als eines der wichtigsten Ranking-Signale erlaubt der Panda, Qualität ins Ranking einzubeziehen, so Google.



Das könnte Sie auch interessieren