Die schlimmsten Fallen für manuelle Abstrafungen

28.09.2017

Bekanntlich setzt Google beim Erstellen des Rankings vor allem auf Algorithmen, die mit der Zeit immer schlauer werden sollen. Doch nicht in allen Fällen reicht die Technik aus. Gerade dann, wenn es Feedback von den Nutzern gibt, müssen auch die Teams tätig werden. Manchmal nutzen sie die Rückmeldungen dann, um die Algorithmen anzupassen. Und es gibt auch das Webspam Team, welches manuelle Abstrafungen verteilen kann. Doch was sind diese Abstrafungen genau – und was sind die häufigsten Ursachen, dass eine Website eine solche erhält? Wir klären diese Fragen im folgenden Artikel.

Algorithmische Herabstufungen vs. Manuelle Abstrafungen

Bei algorithmischen Herabstufungen schlägt einer von Google’s zahlreichen Algorithmen auf Dinge an, die er als negativ ansieht. Dann kann die entsprechende Seite herabgestuft werden. Beispiele für solche Algorithmen sind Panda und Penguin, die sich auf die inhaltliche Qualität beziehungsweise das Backlinkprofil konzentrieren.

Wer einmal in einer solchen Abstrafung gefangen ist, wird hart arbeiten müssen, damit die Seite sich wieder erholt.

Zudem werden diese Abstrafungen dem Webmaster nicht mitgeteilt – er muss also oft mehrere Dinge tun, um wirklich eine Erholung zu sehen.

Manuelle Abstrafungen können zum Beispiel die Folge von Spam Reports sein. Diese werden von Google Mitarbeitern händisch durchgegangen und, wenn sie berechtigt sind – kann eine Strafe erfolgen. Der Vorteil bei manuellen Abstrafungen ist, dass man in der Search Console mehr oder weniger genaue Hintergrundinformationen erhält. Entsprechend kann es einfacher sein, sich wieder zu befreien. Dies funktioniert, indem man die beanstandeten Dinge abarbeitet und dann eine Reconsideration Request einreicht. Ist diese erfolgreich, so wird man aus der Abstrafung entlassen.

Es ist jedoch ein Trugschluss, zu glauben, dass man nach dem Ende einer Abstrafung – ob manuell oder algorithmisch – wieder genauso ranken wird wie vorher. Denn in vielen Fällen war das ehemals gute Ranking ein direktes Resultat der beanstandeten Taktiken. Hat man diese also beseitigt, ist ein zentraler Grund für die guten Positionen nicht mehr gegeben. Dann muss man sich um die Inhalte kümmern, um sich wieder nach vorne zu arbeiten. Es ist aber nicht so, dass Google einer Seite nach einer einmal ausgesprochenen Strafe auf lange Sicht nicht mehr vertraut – vielmehr wünscht sich die Suchmaschine, dass man zu White Hat Taktiken und guten Inhalten zurückkehrt, was dann auch mit guten Rankings belohnt werden sollte. Im Folgenden haben wir nun einige Stolperfallen zusammengetragen, die ihr besser umgehen solltet.

Unnatürliche Backlinks

Der Klassiker sind fraglos unnatürliche Backlinks. Wir alle wissen, dass Backlinks essentiell für eine gute Position in den SERPs sind – sie sollten jedoch zumindest halbwegs natürlich sein. Denn ansonsten kann es schnell passieren, dass der Penguin anschlägt oder ein Google-Mitarbeiter die Seite manuell herabstuft. In solchen Fällen hilft es dann nur, sich ausführlich mit dem Disavow Tool in der Search Console zu befassen. Hier kann es nicht schaden, die Links in unterschiedliche Kategorien einzuteilen, und notfalls mehrere Reconsideration Requests zu stellen, bis man alle erwischt hat.

Doorway Pages

Ein weiteres großes Thea sind Doorway Pages. Diese werden meist erstellt, um Nutzer mit Suchanfragen für gleiche Dienstleistungen an unterschiedlichen Orte oder mit ähnlichen Dienstleistungen am gleichen Ort abzugreifen. Google erkennt jedoch keinen Mehrwert darin, wenn sich die Seiten bis auf die entsprechende Adresse komplett gleichen. In solchen Fällen werden entweder fast alle Seiten ignoriert – oder die dahinterstehende Website erhält direkt eine manuelle Abstrafung. Dann empfiehlt es sich, entweder mehrere Regionen zusammenzufassen. Denn bei beispielsweise fünf ähnlichen Seiten wird es eher weniger Probleme geben als bei fünfzig. Zudem kann man einzigartige Dinge hinzufügen, beispielsweise im Hinblick auf die jeweilige Filiale und ihre Eigenheiten. So kann man erreichen, dass sowohl Google als auch der Nutzer einen Mehrwert aus den einzelnen Unterseiten ziehen kann.

Cloaking

Cloaking bedeutet, der Suchmaschine andere Inhalte zu zeigen, als dem Nutzer. Das kann passieren, indem man Nutzer nach der Ankunft auf einer Seite direkt weiterleitet oder eine Paywall anzeigt. Während das erste einfach zu unterlassen ist, kann man im zweiten Fall mit der First Click Free Regel arbeiten. Diese besagt, dass Benutzern aus Suchmaschinen die Paywall erst nach einer gewissen Anzahl von Klicks gezeigt werden darf.

Es gibt beim Cloaking jedoch auch Ausnahmen. Wenn man aus rechtlichen Gründen eine Altersabfrage oder ähnliches zeigen muss, ist das natürlich auch für Google ok. Werden Inhalte personalisiert, so muss man den Googlebot ganz einfach als Erstnutzer behandeln und ihm genau die Inhalte zeigen, die auch ein erstmaliger Benutzer auf der Seite sehen würde. Cloaking ist also deutlich weniger schwarz/weiß als einige andere Dinge auf dieser Liste.

Spam in den strukturierten Daten

Der erste Eindruck in den organischen Suchergebnissen entscheidet über den Klick. Hier kommen strukturierte Daten ins Spiel, die ein Suchergebnis mit Description oder Bewertungssternen versehen. Entsprechend wird natürlich auch hier zum Teil gespamt, dass sich die Balken biegen. Man muss also beachten, dass Bewertungssterne nur für das gelten dürfen, was auf der entsprechenden Unterseite angeboten wird. Außerdem sollte man Keyword Stuffing im Title und in der Description vermeiden.

Andernfalls kann es passieren, dass Google allen aus den strukturierten Daten gewonnenen Inhalten misstraut und die Snippets einfach abschaltet. Dann hätte man beim Versuch, ein mittelmäßiges in ein tolles Snippet zu verändern, den kompletten Verlust des Snippets und damit eine grobe Verschlechterung in Kauf genommen.

Dünne Inhalte und Spam

Zum Abschluss noch ein weiterer Klassiker: Dünne Inhalte und Spam. Hierbei handelt es sich um Keyword Stuffing, weiße Inhalte auf weißem Grund, SEO-Texte ohne Mehrwert und all die anderen Taktiken von vor zehn Jahren. Diese können für eine Weile zu einem guten Ranking führen, stellen aber mitnichten eine nachhaltige Vorgehensweise dar. Vielmehr wird Google dies, ob mit Spam Reports oder ohne, früher oder später merken und die Seite mittels Panda oder manueller Abstrafung nach unten befördern. Ohne tolle und einzigartige Inhalte geht es einfach nicht.

Fazit:

Anstatt verzweifelt zu versuchen, die Suchmaschine auszutricksen, sollte man den Blickwinkel ändern. Denn was bringt es, wenn Google wegen falscher Informationen viele Besucher auf eine Seite bringt, die dann aber nicht konvertieren und sofort wieder verschwinden? Viel besser wäre es doch, eine tolle Seite für den Nutzer zu erstellen, die für Suchmaschinen technisch richtig aufgebreitet ist – dann kommen die Rankings in vielen Fällen von ganz alleine.

Diesen Beitrag teilen