SEO-Mythen – Was ist dran an diesen Aussagen?

SEO Mythen

20.07.2017

Vor allem in den Google Webmaster Hangouts mit John Mueller begegnen uns immer wieder äußerst abenteuerliche Thesen. Auch Dinge, die eigentlich seit Jahren zum Standardwissen eines SEOs gehören sollten, werden dann hinterfragt und mit selbstgemachten Erfahrungen und Statistiken untermauert. Und durch dieses immer wiederkehrende Erzählen verfestigen sich Mythen, die wenig bis gar nichts mit der Realität zu tun haben. Wir haben uns einmal die ein paar Aussagen herausgegriffen und stellen ihnen die offiziellen Statements aus dem Hause Google gegenüber.

Versteckte Inhalte

Mythos: Google kann Inhalte, die ich verstecke (zum Beispiel hinter Tabs oder Akkordeons) nicht sehen und damit auch nicht indexieren.

Realität: In den allermeisten Fällen kann Google solche Inhalte natürlich sehen. Zwar gibt immer Situationen, in denen der Webmaster etwas technisch ganz falsch gemacht hat und Google die Inhalte dann nicht sehen kann – aber das hat ja nichts mit dem Verstecken an sich zu tun. Grundsätzlich ist es aktuell so, dass Google versteckte Inhalte ausliest und indexiert, sie aber als weniger wichtig einstuft als die direkt sichtbaren Inhalte.

Doch auch dieser Ansatz wird bald Geschichte sein. In nicht mehr allzu ferner Zukunft wird Google auf den Mobile First Index umsteigen. Und auf mobilen Endgeräten ist es oft überaus sinnvoll, Inhalte hinter Tabs oder Akkordeons zu verstecken – denn ansonsten wird eine Website auf dem vergleichsweise kleinen Smartphone-Bildschirm schnell unübersichtlich. Diesem Umstand will Google dann künftig Rechnung tragen, indem beim Mobile First Index auch versteckte Inhalte als Hauptinhalte gezählt werden.

Penalties bei Überschriften

Mythos: Wenn ich mehrere Überschriften eines Typs benutze, also zum Beispiel mehrere H1 oder H2 Überschriften, dann werde ich einen Penalty erhalten.

Realität: Es ist weit verbreitet, dass SEOs versuchen, durch das Anpassen der Überschriften besser zu ranken. Hier werden dann Keywords ohne Ende in die Überschriften gepackt oder alles wird als H1 deklariert. Es besteht jedoch die Angst, dass man dadurch in Gefahr gerät, einen Penalty zu erhalten. Doch das ist genauso unrealistisch wie die Hoffnung, die Suchmaschine mit diesem Vorgehen auszutricksen.

Denn Google nutzt die Überschriften vor allem, um die Struktur der Inhalte zu verstehen. Es ist daher zunächst einmal kein Problem, mehrere Überschriften desselben Typen zu verwenden. Zugleich macht es aber auch keinen Sinn, alles unter eine H1 zu packen – denn damit geht die Struktur verloren und Google wird ein solches Vorgehen wohl ignorieren. Gleiches gilt auch bei Keywords: Wird ein Keyword immer und immer wieder verwendet, dann ist die Gefahr groß, dass Google es einfach fallen lässt. Es gibt also keinen Penalty, aber ein großer Erfolg ist mit diesen Taktiken auch nicht zu erwarten.

Social Signals

Mythos: Social Signals werden für das Ranking genutzt.

Realität: Google nutzt Social Signals nicht für das Ranking. Denn zum einen sind eigentlich alle Links in den sozialen Medien Nofollow und leiten damit keine Signale weiter. Und zum anderen kann Google gar nicht alle Netzwerke vollständig crawlen.

Man darf dabei jedoch nicht vergessen, dass Social Signals nichtsdestotrotz für Besucher auf der Website sorgen können. Und diese können dann nicht nur zu dauerhaften Fans werden, sondern empfehlen die Seite unter Umständen auch weiter. Damit verbessern sie dann vielleicht dank indirekter Faktoren doch das Ranking. Aber wie bei allem heißt es auch hier: Arbeit in den sozialen Medien bringt nur dann etwas, wenn sie den Nutzern einen Mehrwert bietet. Denn hunderte Links auf Facebook und Co., auf die nie jemand klickt, fallen wohl eher in die Kategorie Zeitverschwendung.

Duplicate Content Penalty

Mythos: Wenn ich doppelte Inhalte habe, riskiere ich eine Abstrafung für meine Website.

Realität: Es gibt keinen Duplicate Content Penalty. Wenn Google identische Inhalte mehrmals findet, dann sucht es sich einfach eine Variante aus und rankt diese in den Suchergebnissen. Welche das dann ist, hängt von vielen Faktoren ab, und kann zum Beispiel durch den Einsatz des Canonical Tag beeinflusst werden. Interne doppelte Inhalte sind also, bei technisch sauberer Ausgestaltung, absolut kein Problem – man muss nur die „richtige“ Version per Canonical zum Ranken bringen, damit sich die gesammelten Signale nicht auf mehrere Inhalte verteilen.

Ärgerlich ist es jedoch, wenn eine fremde Seite die eigenen Inhalte klaut, und dann vielleicht sogar vor dem Original rankt. Hier ist dann die ganze Palette an Gegenmaßnahmen – vom Spam Report bis hin zum Anwalt – angebracht, um dieses Verhalten zu verhindern.

Dies zeigt auch, warum viele Affiliate-Seiten Probleme mit dem Ranken haben. Denn es reicht nicht, einfach denselben Produktfeed wie fünf andere Mitbewerber einzubauen. Google kennt diese Inhalte dann schon und sieht berechtigterweise keinen Grund, den Neuankömmling auch noch zu ranken. In solchen Fällen muss man sich also zwingend zusätzliche Inhalte ausdenken, die dem Nutzer einen Mehrwert bringen können. Aber auch hier gibt es keine Abstrafung, sondern Google belohnt einfach nur Individualität.

Crawl Budget

Mythos: Wenn Google meine Seite mehr crawlt, werde ich besser ranken.

Realität: Das Crawling führt nicht zu besseren Rankings – es ist vielmehr die technische Voraussetzung, um überhaupt zu ranken. Denn damit Google eine Seite indexieren und ranken kann, muss die Suchmaschine sie erst einmal sehen, verstehen und einordnen. Der erste Schritt, das Sehen, ist dabei das Crawling. Der Googlebot schaut sich die einzelnen Unterseiten an, damit die Inhalte im nächsten Schritt eingeordnet werden können. Wenn eine Seite nicht gecrawlt werden kann, kann sie also auch nicht ranken.

Es ist aber nicht so, dass man die Crawlrate künstlich verbessern muss, um besser zu ranken. In den allermeisten Fällen kann Google das von selbst gut verstehen. Zwar gibt es Momente, wenn das Crawlen entweder hoch- oder runtergefahren werden sollte – dies hat jedoch meist mit dem Server zu tun und kann von Google auch oft erkannt werden. Wichtig sind also im Hinblick auf das Crawlen vor allem zwei Dinge: Eine gute interne Verlinkung, damit der Googlebot alle wichtigen Seiten erreichen kann, sowie ein Blockieren von sinnlosen Dingen wie endlosen Kalendern. Und wenn sich Dinge wirklich einmal ändern und schnell gecrawlt werden müssen, helfen Sitemaps oder die Search Console. So werden dann immer die aktuellen Inhalte indexiert.

Fazit

Oft machen sich SEOs über Dinge Gedanken, die man nur als Zeitverschwendung ansehen kann. Dann werden kleine Dinge verändert und verschoben, anstatt das große Ganze im Blick zu haben. Denn solange eine Website technisch sauber aufgesetzt ist, einzigartige Inhalte hat und keinen Spam beinhaltet, sollte es von Seiten Google keine Probleme geben. Dann geht es nur noch darum, den Nutzer zu begeistern und seine Suchintentionen zu befriedigen. Ob ein Wort dann in der H1 oder H3 steht, ist nebensächlich.

Diesen Beitrag teilen