Vorschaubild für: SEO-Mythen: Was ist dran an diesen Aussagen? Loch Ness als SEO-Monster

7 hartnäckige SEO-Mythen, die sich 2023 noch halten

Anna Maria von Kentzinsky
Anna Maria von Kentzinsky | 09.01.2023

SEO-Mythen gibt es wie Sand am Meer. Teilweise haben sie ihren Ursprung in einer inzwischen längst ausgedienten SEO-Maßnahme. Andere wiederum gehen auf bloße Schlussfolgerungen zurück, die sich in den Köpfen der SEOs festgefressen haben. Auch 2023 halten sich noch eisern SEO-Mythen, die so nicht (mehr) wahr sind.

Hier findest du einige der hartnäckigsten SEO-Mythen, gepaart mit offiziellen Antworten von Google-Mitarbeitern wie John Müller und Matt Cutts.

1. Die ideale Keyword-Dichte ist XY…

Icon Mythos Damit die Seite ranken kann, muss sie das Keyword mindestens X mal enthalten.
Icon Fakt Dieser weit verbreitete Glauben war vielleicht bis Ende der 2000er noch aktuell — doch er hält sich hartnäckig bis heute. Suchmaschinen haben ihr Sprachverständnis im letzten Jahrzehnt drastisch verbessert:
Image Google Hummingbird Update Das Hummingbird-Update bescherte uns 2013 ein semantisches Sprachverständnis. Suchanfragen konnten besser verstanden werden und Google ist seither in der Lage, die Suchintention hinter einer Suchanfrage zu verstehen. Auch Voice-Search ist intuitiver geworden.
Image Google RankBrain 2015 wurde dann mit RankBrain eine künstliche Intelligenz in den Algorithmus eingeführt. RankBrain lernt kontinuierlich mehr über Suchintentionen und nutzt Nutzersignale wie Return to SERPs oder die Absprungrate, um die Relevanz des Suchergebnisses zu bewerten.
Icon für Google-Update BERT 2019 gesellte sich BERT zum Hummingbird und dem Brain. Dank BERT ist Google in der Lage, Suchanfragen differenzierter zu verstehen und die Bedeutung von einzelnen Wörtern im Kontext der Suchanfrage zu identifizieren. Google versteht nun, dass bei der Suchanfrage “Kann ich für jemanden ein Auto anmelden” andere Informationen gesucht werden, als das Prozedere einer Auto-Anmeldung.

Eine bloße Keyword-Optimierung der Seite reicht schon längst nicht mehr aus, damit eine Seite wirklich als relevant gilt. Es ist längst nicht mehr nötig, dass Keyword X einen gewissen Prozentsatz in einem Text vorkommt.

Schon allein deswegen nicht, weil Google auch Synonyme erkennt und den Kontext des Inhalts ermittelt. So können auch Seiten für ein Keyword ranken, die nicht auf dieses Keyword optimiert sind — aber dennoch das Thema hochrelevant behandeln.

Erstelle Inhalte, die für den User nützlich sind

Statt dich auf eine Keyword-Dichte zu fokussieren, sollte der/die User:in im Mittelpunkt stehen. Frage dich:

  • Was ist die Suchintention?
  • Was ist der Auslöser für die Suche?
  • Welche Probleme oder Herausforderungen sollen gelöst werden?
  • Welche Fragen stellt sich der/die User:in?
  • Was braucht er/sie, um diese Herausforderungen möglichst leicht zu bewältigen?
  • Welches Content-Format eignet sich am besten?

All diese Fragen kannst du mithilfe einer SERP-Analyse beantworten. Wir haben für dich eine Schritt-für-Schritt-Anleitung erstellt. Lerne, wie du die Suchergebnisse analysierst, um wirklich nützlichen Content zu erschaffen.

2. Meta-Keywords müssen angegeben werden

Icon Mythos Google nutzt Meta-Keywords für das Ranking.
Icon Fakt Google ignoriert Meta-Keywords.

Meta-Keywords sind ein Teil der Meta-Daten, über die jede URL verfügt. Dieser Datensatz besteht aus

  1. Meta-Title
  2. Meta-Description
  3. Meta-Keywords

Wichtig: Meta-Title & -Description

Meta-Title und Meta-Description sind sehr wichtige Bestandteile jeder URL. Zusammen mit der URL ergeben sie das sogenannte Snippet, also das Suchergebnis in den Suchmaschinen. Dein Snippet ist dein Aushängeschild und muss Menschen davon überzeugen, von den Suchergebnissen auf deine Seite zu kommen. Der Meta-Title ist zudem ein Rankingfaktor.

Damit dein Suchergebnis möglichst überzeugend ist, solltest du Meta-Title und -Description optimieren.

Meta-Keywords werden ignoriert

…und das schon mindestens seit 2009! Das Sprachverständnis der Suchmaschinen ist schon lange gut genug, um das Thema und den Kontext des Inhalts zu ermitteln. Im Video sagt Matt Cutts ganz klar: „Wir benutzen den Keywords-Meta-Tag nicht für das Ranking … es wurde einfach zu viel Spam damit betrieben. Wir benutzen diese Information nicht.“

3. Versteckte Inhalte werden nicht indexiert

Icon Mythos Google kann Inhalte, die ich verstecke (zum Beispiel hinter Tabs oder Akkordeons) nicht sehen und damit auch nicht indexieren.
Icon Fakt In den meisten Fällen kann Google solche Inhalte sehen. Es kommt darauf an, wie die versteckten Inhalte technisch umgesetzt sind:
  1. Werden die Inhalte durch CSS geladen und ausgeblendet, können Googles Crawler die Inhalte auslesen und indexieren.
  2. Werden die Inhalte erst nach einer Interaktion geladen (z.B. Klick, Tap oder Swipe), können Googles Crawler die Inhalte nicht auslesen (sie wurden ja nicht geladen) und damit auch nicht indexieren. Google klickt beim Crawl einer Seite schließlich nicht auf jedes Element um zu testen, ob dahinter noch ungeladene Inhalte versteckt sein könnten.

Das bestätigt auch John Müller im Google Webmaster Central Hangout vom 14. Juni 2019

4. Penalties für multiple H1-Überschriften

Icon Mythos Wenn ich mehrere Überschriften eines Typs benutze, also zum Beispiel mehrere H1- oder H2-Überschriften, dann riskiere ich eine Google Penalty.
Icon Fakt Wir empfehlen eine semantisch sinnvoll strukturierte Seite. Dazu zählt: Pro Dokument gibt es eine H1-Überschrift, denn sie ist ihr Titel. H2-Überschriften sind ganz normale Zwischenüberschriften.

Überschriften strukturieren einen Artikel. Zwischenüberschriften können in beliebiger Menge vorkommen.

ABER: Das sind nur Empfehlungen. Google arbeitet mit dem, was es im Web findet. Wie John Müller im Video erklärt, ist das Web voll von nicht korrekt verwendeten Überschriften. Eine hochrelevante Antwort auf eine Suchanfrage wird dem User nicht vorenthalten, nur weil es mehrere H1-Überschriften gibt. Und auch eine Google Penalty wirst du dir damit nicht einhandeln.

Saubere Überschriften für den User

Tatsächlich solltest du dir (wie bei allem anderen auch) eher Gedanken um deine User:innen machen, als um die Suchmaschine. Eine sinnvolle Seitenstruktur mit sauber gesetzten Überschriften  wird es ihnen einfacher machen, deine Inhalte zu erfassen und zu verstehen.

Deswegen geben auch SEO-Tools multiple H1-Überschriften, fehlende H2-Überschriften oder eine fehlerhafte Verschachtelung als Fehler aus.

5. Social Signals sind ein Rankingfaktor

Icon Mythos Social Signals sind ein Rankingfaktor.
Icon Fakt Social Signals sind kein direkter Rankingfaktor bei Google. Das bestätigte Matt Cutts bereits 2014 in einem Video von Google Search Central.

Im Video sagt er ganz deutlich:

„Geh nicht davon aus, dass Google Zugriff auf jedes Signal von Facebook oder Twitter hat. Seiten können blockiert sein, es gibt nofollow-Links, oder ähnliches.“

Es gibt allerdings Korrelationen zwischen häufig geteilten Inhalten und guten Rankings:

Wie nofollow-Links auch, sind Social Signals alles andere als unnütz. Schließlich bringen auch sie wichtigen Traffic auf die eigene Seite. Und: Je öfter dein Inhalt über soziale Medien geteilt wird, desto mehr Menschen kommen auf deine Seite, interagieren mit ihr und sorgen für positive Nutzersignale.

Durch die Aufmerksamkeit, die häufig geteilte Inhalte bekommen, erhalten sie oft mehr Backlinks — die wiederum ein Rankingfaktor sind und noch mehr Traffic auf die Seite bringen können.

Dass ein Inhalt in den sozialen Medien häufig geteilt werden, liegt aber daran, dass der Content besonders nützlich und/oder unterhaltsam ist.

6. Es gibt eine Duplicate Content-Penalty

Icon Mythos Wenn ich doppelte Inhalte habe, riskiere ich eine Abstrafung für meine Website.
Icon Fakt Es gibt keine Duplicate Content-Penalty. Wenn Google identische Inhalte findet, sucht es entweder eine Variante aus und rankt diese in den Suchergebnissen. Oder es kommt zu Keyword-Kannibalisierung, ausgelöst durch Duplicate Content.

Du siehst, um eine Google Penalty brauchst du dir keine Gedanken machen, um deine Rankings aber schon. Daher ist es immer sinnvoll, internen Duplicate Content zu identifizieren und zu beheben.

Die Ursachen von Duplicate Content

Interner Duplicate Content kann viele Ursachen haben, z.B.:

  1. Eine Seite ist mit und ohne www. erreichbar
  2. Online-Shops mit Produkt-Varianten: Hat jede Variante des Produkts (Größe, Farbe, etc) eine eigene URL, aber die Produktbeschreibungen sind bis auf die Varianz identisch, kann Duplicate Content entstehen.
  3. Sehr ähnliche Landing Pages (z.B. für Local SEO). Unterscheiden diese sich lediglich durch den Namen der Stadt und sind sonst identisch, kann das zu Problemen führen.
  4. Indexierte URL-Parameter, die z.B. durch Session-IDs, Filter oder die interne Suche entstehen. Die Inhalte auf diesen URLs sind dann identisch.
  5. Ein Artikel ist gleich mehreren Kategorien eines Blogs oder Online-Magazins zugeordnet und diese Kategorien befinden sich im Pfad der URL.

Verhindere Duplicate Content mit dem Canonical Tag

Du kannst doppelte Inhalte in den Suchmaschinen verhindern, indem du mit dem Canonical Tag arbeitest. Mit dem Der Canonical Tag enthält die URL des „Originals“ und zeigt den Suchmaschinen so, welche Seite nun wirklich in den Suchergebnissen erscheinen soll.

Hier findest du einen ausführlichen Artikel über Duplicate Content und Canonical Tags. Du lernst auch, wie du den Canonical Tag richtig einsetzt und worauf du achten solltest.

Urheberrechtsverletzungen melden

Findest du eine exakte Kopie deines Artikels oder dein Bild auf einer fremden Website, ohne dass du jemals deine Erlaubnis dazu gegeben hast, musst du das nicht hinnehmen. Weise den/die Webmaster:in darauf hin und bitte um sofortige Entfernung innerhalb eines festgelegten Zeitraumes. Kommt er/sie dieser Aufforderung nicht nach, kannst du bei Google das Entfernen von Inhalten aus Google beantragen. Damit wird dein Artikel zwar nicht von der fremden Seite entfernt, aber zumindest erscheint sie nicht mehr in den Suchergebnissen.

Außerdem handelt es sich dabei um eine klare Urheberrechtsverletzung und das Recht ist auf deiner Seite. Sollte es keine Reaktion geben, kannst du den Anwalt einschalten.

Selbstverständlich solltest auch du keine Inhalte von fremden Websites kopieren und dich so einer Urheberrechtsverletzung strafbar machen.

7. Häufiges Crawlen führt zu besseren Rankings

Icon Mythos Wenn Google meine Seite mehr crawlt, werde ich besser ranken.
Icon Fakt Das Crawling führt nicht zu besseren Rankings – Crawling ist die technische Voraussetzung, um zu ranken.

Damit Google eine Seite indexieren und positionieren kann, muss die Suchmaschine sie erst einmal

  • sehen,
  • verstehen und
  • einordnen.

Das Crawling erlaubt es der Suchmaschine, die Website zu sehen (oder zumindest ihr erlaubte Teile zu sehen). Welche Seiten sie sich anschauen darf und welche nicht, wird über die robots.txt gesteuert. Der Googlebot schaut sich die einzelnen Unterseiten an, damit die Inhalte im nächsten Schritt eingeordnet werden können. Wenn eine Seite nicht gecrawlt werden kann, kann sie also auch nicht ranken.

Was ist das Crawl Budget?

Wie häufig eine Website gecrawlt wird, bestimmt das Crawl Budget. Jeder Website wird ein Crawl Budget zugeordnet. Wie groß es ist, hängt u.a. von der Größe der Website und der Häufigkeit der Änderungen ab.

Ziel ist es, dass möglichst alle Neuerungen und Änderungen der Website schnell in den Suchmaschinenindex (SERPs) aufgenommen werden und im zweiten Schritt gute bzw. bessere Rankings erreichen. Die Crawl Budget-Optimierung ist besonders für große Websites mit vielen Unterseiten relevant, wie beispielsweise Online-Shops.

Die Optimierung des Crawl Budgets ist kein Rankingfaktor und führt nicht zu besseren Rankings. Aber es ist eine Maßnahme, neue und aktualisierte Inhalte schneller in den Index zu bekommen – und damit ggf. schneller bessere Rankings zu erreichen.

Für wen ist das Crawl Budget wichtig?

Das Crawl Budget wird schnell für große Websites knapp, auf denen sich täglich viele Änderungen ergeben oder die eine große Anzahl an Unterseiten haben, die eigentlich nicht gecrawlt werden müssten. Besonders häufig betroffen sind Online-Shops mit tausenden Produkten, Produktkategorien, Filtermöglichkeiten, Suchfunktionen, etc.

Wenn du bemerkst, dass neue Seiten oder aktualisierte Inhalte sehr lange brauchen, bis sie in den Suchergebnissen erscheinen, ist ein Blick auf dein Crawl Budget sinnvoll.

Fazit

Lass dich nicht von SEO-Mythen ins Bockshorn jagen! Solange deine Website technisch sauber aufgesetzt ist, einzigartige Inhalte hat und keinen Spam beinhaltet, sollte es von Seiten Google keine Probleme geben. Dann geht es nur noch darum, den/die Nutzer:in zu begeistern und die Suchintentionen zu befriedigen. Ob ein Wort dann in der H1 oder H3 steht, ist nebensächlich.