Expert Insights 03.11.2016, 08:10 Uhr

Penguin 4.0: Warum die Ära der manuellen Google-Updates endet

Penguin 4.0: Google hat das Linkspam-Update in die neue Ära überführt. Dank Machine Learning arbeitet Penguin künftig als Teil des Kernalgorithmus - in Echtzeit und selbstlernend. Was bedeutet das für die SEO-Zukunft?
Marcus Tober, CTO von Searchmetrics
Mit dem Penguin 4.0-Update, das Google im Oktober 2016 released hat, arbeiten die Algorithmen, die das Web auf Linkspam-Signale prüfen, nun in Echtzeit. Das war bisher anders. Hatten Webmaster in der Vergangenheit nach einer Penguin-Abstrafung ihr Backlinkprofil bereinigt, konnte es trotzdem Monate oder gar Jahre dauern, bis Google die Website wieder aus dem Filter entließ. Denn bisher waren Penguin-Updates "Handarbeit" - und eine Erholung war erst durch eine manuelle Iteration des Updates möglich. Und manche Seiten erholten sich selbst dann nicht aus dem Filter.

Vierjähriges Google-Gefängnis

Das neue Update kennt aber (fast) nur Sieger: In den wöchentlichen Top100-Gewinnern der SEO Visibility seit dem 16. Oktober sind zahlreiche Websites zu finden, deren Zuwachs möglicherweise mit dem Penguin-Rollout zusammenhängen könnte. Dies zeigt sich in der Analyse zum Penguin-Update. Beispielhaft kann die Domain schicksal.com betrachtet werden, die vom ersten Update im Jahr 2012 betroffen war. Nach mehr als vier Jahren konnte die Seite mit dem Release von Penguin 4.0 erstmals wieder den SEO-Visibility-Wert erreichen, den sie vor dem Absturz hatte. Georg Franz, Geschäftsführer der Website, spricht von einem vierjährigen "Google-Gefängnis". Neben dem Aufräumen im Backlink-Bereich sei die Content-Strategie umgestellt und die Redaktion ausgebaut worden.
 
Auch Andor Palau, Head of SEO bei der Berliner Agentur Peak Ace, kennt diese Effekte: "Ende 2015 ist ein Kunde mit Penguin-Problemen zu uns gekommen. Wir haben auch zwei Runden Link-Cleanups gemacht. Jetzt, pünktlich zum Penguin 4.0 Update, ist die SEO Visibility dann um 86 Prozent gestiegen."
 
Neben der Echtzeit-Evaluation von Spamsignalen bei Websites hat der Penguin eine weitere gravierende Neuerung erhalten. Die Google-Bewertungen beziehen sich ab sofort "nur" noch auf die einzelne Ziel-URL, auf die der Backlink verweist. Entsprechend wird nicht gleich die komplette Domain "bestraft", wie dies in früheren Iterationen der Fall war. Google erklärt die Änderungen im Webmaster Blog wie folgt: "Die Penguin-Auswirkungen sind jetzt detaillierter. Penguin wirkt sich jetzt auf Spam aus, indem das Ranking basierend auf Spamsignalen angepasst wird, statt das Ranking der gesamten Website zu betreffen."

Das letzte Update seiner Art

Penguin ist dabei nur eines von mehr als 200 Signalen, die Google zur Ermittlung von Rankings verwendet. Allerdings sind inzwischen wichtige Teile in den Google-Kernalgorithmus eingeflossen und bewerten Suchanfragen beziehungsweise Websites in Echtzeit. Entsprechend seltener und weniger gravierend dürften Anzahl und Auswirkungen künftiger Updates ausfallen. Die Evolution, die Google bei der Update-Entwicklung genommen hat, kann entsprechend in drei Phasen eingeteilt werden. Anfänglich waren die Updates statisch, zeitlich relativ weit voneinander entfernt und mussten manuell per Knopfdruck initiiert werden.
In Phase zwei gab es keine konkret abzugrenzenden Zeitpunkte, in denen Google-Updates ausgespielt wurden. Stattdessen war diese Phase durch kontinuierliche Updates gekennzeichnet - etwa wie der Panda 2015, dessen Rollout über mehrere Monate dauerte. Jetzt sind wir in Phase drei angekommen: Die separaten Updates werden Teil des immer komplexeren Kernalgorithmus, der in Echtzeit arbeitet und selbstständig hinzulernt.
 
Schauen wir uns die Bereiche an, die Google bereits in den Echtzeit-Kernalgorithmus integriert hat, der auf datengetriebenem Machine-Learning-Ansatz basiert. Den Beginn machten Hummingbird (2013) und RankBrain (2015), mit denen ein Echtzeit-Verständnis von Suchintention und entsprechend passenden Ergebnissen in den Algorithmus eingeflossen ist.
Hummingbird war dabei ein Meilenstein im Bereich der kontextuellen Suche. RankBrain diente anfangs dazu, vor allem Ranking-Ergebnisse für die rund 15 Prozent an täglichen Suchanfragen selbstlernend zu bestimmen, die noch nie zuvor gestellt worden waren. Inzwischen, bestätigte Google, komme RankBrain bei allen Suchanfragen zum Einsatz und habe sich zum drittwichtigsten Ranking-Faktor entwickelt.
 
Als einer der wichtigsten weiteren Bausteine im Gefüge der Ranking-Signale sind die User Signals anzunehmen. Click-Through-Rate, Bounce Rate oder Time On Site geben wichtige Indizien, ob Nutzer mit dem Suchergebnis zufrieden waren. In den Kernalgorithmus von Google wurde auch Panda Anfang 2016 integriert. Mit Panda-Updates werden Aspekte der Content-Qualität bewertet; zuvor war mit Panda 4.2 im Jahr 2015 das letzte, reguläre Update eingespielt worden. Als eines der wichtigsten Ranking-Signale erlaubt der Panda, Qualität ins Ranking einzubeziehen, so Google.

Penguin-Konsequenzen für Webmaster

Diese Implementierung in den Kernalgorithmus betrifft nun auch den Penguin. Künftig werden also Bewertungen und Anpassungen von URLs aufgrund ihrer Backlinkstruktur in Echtzeit und vor allem geräuschlos erfolgen. Entsprechend wird es schwieriger, Backlinks als Ursache für einen Ranking-Abfall zu identifizieren. Trotzdem ist ein kontinuierlicher Backlink-Audit weiterhin unerlässlich, um Tendenzen erkennen zu können und Google etwa durch das Disawowen von Links dabei zu helfen, die Backlink-Struktur der eigenen Website besser zu verstehen.

Was können SEOs & Webmaster künftig tun?

Angesichts des immer komplexeren Google-Kernalgorithmus dürften taktische, kurzfristige SEO-Maßnahmen der Vergangenheit immer seltener zum Erfolg führen. Was bleibt also für Webmaster, SEOs und Online Marketer zu tun? Das Rezept dafür ist klar: Es gilt, Websites zu schaffen, die einmaligen Content bieten. Websites, die perfekt auf die Nutzerintention abgestimmt sind. Websites mit Relevanz - keine nur auf einen kurzfristigen Erfolg getrimmte "SEO-Seite". Neben der Content-Relevanz ist die technisch überzeugende Umsetzung zweite Grundvoraussetzung für ein langanhaltendes Wachstum.
 
Kontinuierliche Ranking-Änderungen dank eines selbstlernenden Algorithmus, der immer stärker auf die Content-Relevanz sowie die Erfüllung der Nutzerintention durch die Berücksichtigung von User Signals setzt - dieser Tatsache müssen nicht nur SEOs und Online Marketer heute begegnen, sondern auch ein Technologie-Anbieter. Deshalb werden künftig nicht nur "allgemeine" Ranking-Faktoren veröffentlicht. Geplant sind separate Analysen für unterschiedliche Branchen, was topplatzierte Landingpages von all jenen unterscheidet, die erst auf den hinteren Plätzen ranken. Und zwar für Branchen wie Touristik, E-Commerce, Finanzen oder Medien.
 
Damit relevanter Content erstellt werden kann, muss zunächst die Nutzerintention ermittelt werden. Dazu gibt es verschiedene Möglichkeiten - Google-Tools wie Auto Suggest, Google Correlate / Trends oder die Liste verwandter Suchanfragen am Ende einer Ergebnisseite können bei der Evaluierung helfen. Begleitete, voll integrierte technische Lösungen zur Content-Recherche, -Erstellung & -Optimierung sowie -Erfolgsmessung sind bislang aber noch rar.

Fazit: Strategie statt Taktiken für den Echtzeit-Algorithmus

Nach Panda, Hummingbird und RankBrain hat Google mit Penguin einen weiteren Baustein zur Evaluierung von Websites in seinen Kernalgorithmus integriert - dank der Fortschritte im Bereich des datengetriebenes Machine Learning. Entsprechend dürfte Penguin 4.0 das letzte Update seiner Art sein; künftige Bewertungen von Linkspam erfolgen in Echtzeit und URL-basiert.
 
Nachdem Penguin-Betroffene bei bisherigen Iterationen teilweise jahrelang im "Google-Gefängnis" ausharren mussten, bis eine neue Version des Updates veröffentlicht wurde und die Sanktionen aufgehoben wurden, ist dies ab sofort nicht mehr zu befürchten: Google beurteilt Linksignale jetzt detaillierter und in Echtzeit auf URL-Ebene.

Alte SEO-Taktiken gehören der Vergangenheit an

Spätestens jetzt ist klar, dass alte SEO-Taktiken wie der Aufbau einer künstlichen Backlink-Architektur oder Keyword-Stuffing der Vergangenheit angehören. Da Google immer mehr bedeutende Signale zur Evaluation von Websites in Echtzeit analysiert und die Content-Relevanz so immens an Bedeutung gewonnen hat, ist vor allem ein Weg der Schlüssel für einen langfristigen Search-Erfolg entscheidend: Die Schaffung von relevantem Content, der die Nutzerintention perfekt bedienen kann.
(Quelle: Searchmetrics)




Das könnte Sie auch interessieren