Technische SEO Tipps

Kevin Jackowski
| 22.06.2015

Bevor man als Webmaster mit der SEO-Optimierung der eigenen Internetpräsenz beginnt, sollte man zuerst ein Gefühl dafür entwickeln, worauf Suchmaschinen besonders Wert legen und wie diese überhaupt funktionieren. Damit gute Inhalte auch gute Rankings zur Folge haben, müssen die Inhalte auch suchmaschinenfreundlich ausgezeichnet werden, sodass die Suchmaschinencrawler diese optimal interpretieren und verarbeiten können. Vor allem ist es wichtig technische Faktoren und Voraussetzungen zu kennen um so zu gewährleisten, dass mehrwerthaltige Inhalte auch optimal ranken können. Die SEO Tools von XOVI können dabei einen sehr gut unterstützen, nachfolgend werde ich aber auf die wichtigste Punkte in der Theorie eingehen.

Bevor Webmaster überhaupt Traffic über die organische Suche der Suchmaschine erhalten können, muss die Website mit den einzelnen Unterseiten in den Suchmaschinenindex aufgenommen worden sein. Dieser Vorgang ist sehr wichtig und wird häufig von Webmastern zu sehr vernachlässigt, da sie sich nicht bewusst sind, dass auch Suchmaschinencrawler aus technischer Sicht an ihre Grenzen stoßen können. Aus diesem Grund sollte man den Crawlern möglichst viele Hinweise und Informationen zur Verfügung stellen.

Limitierung des Crawling- und Indexbudgets

Es gibt viele Gründe als Webmaster über den aktuellen Stand des Crawlings und der Indexierung der eigenen Inhalte informiert zu sein. Einer der Wichtigsten besteht darin, dass die Suchmaschine Google jeder Website und somit auch jedem Online-Shop nur ein begrenztes Crawling- und Indexierungsbudget zur Verfügung stellt. Findige Webmaster treffen aus dem Grund technische Vorkehrungen, damit die Suchmaschinencrawler nur die Dokumente finden und bearbeiten, die auch in den Suchmaschinenindex aufgenommen werden sollen.

Diese Fehler und Probleme haben einen negativen Einfluss auf das Crawling und die Indexierung:

Crawlingprobleme: Doppelte Arbeit und schwere Erreichbarkeit

Jeder Internetpräsenz wird von der Suchmaschine Budgets zugewiesen, die definieren, wie viel Aufwand und Indexvolumen für diese aufgewendet werden darf. Aus diesem Grund spielt Effizienz eine sehr wichtige Rolle, wenn es darum geht das volle Potential aus den Inhalten und den Leistungsmöglichkeiten der eigenen Internetpräsenz zu schöpfen. Suchmaschinencrawler haben die Intention mit so wenig Aufwand und Energie wie möglich neue bzw. geänderte Inhalte zu finden und weiterzuverarbeiten. Wenn diese Crawler Inhalte aber nur sehr schwer finden können, dann hat das zur Folge, dass weniger Dokumente gefunden und bearbeitet werden können, da bereits sehr viel Energie in den Suchprozess fließen musste. Webmaster sollten daher darauf achten, dass folgende Crawlingprobleme vermieden werden:

Zu lange Ladezeiten

Zu lange Ladezeiten führen dazu, dass Crawlingprozesse unterbrochen werden, da die Suchmaschinencrawler den Webserver nicht durch zusätzliche Anfragen belasten möchten. Diese Prozesse werden zwar zu einem späteren Zeitpunkt fortgeführt, dennoch sollten diese Unterbrechungen und Abbrüche des Crawlingprozesses vermieden werden.

Mangelhafte Website-Architektur

Je dichter Inhalte an der Startseite platziert sind, desto einfacher haben es die Crawler diese zu finden. Inhalte, die sich in sehr tiefen Ebenen befinden, können teilweise schwer oder auch gar nicht von den Suchmaschinencrawlern erreicht werden. Da die Crawler neue Inhalte über Links finden, sollte die interne Verlinkung genutzt werden um die Erreichbarkeit der Dokumente zu verbessern.

Schwer auslesbare Inhalte

Es gibt Inhalte, die nur schwer oder in einigen Fällen auch gar nicht von der Suchmaschine ausgelesen werden können. Dazu gehören beispielsweise Ajax-basierte Inhalte. Auch auf Javascript-Links sollte verzichtet werden, damit gewährleistet bleibt, dass die Crawler den Links auch folgen können. Auch wenn bereits die neuesten Tests ergaben, dass Google Crawler sehr wohl in der Lage sind Javascript-Links zu folgen und Javascript-Inhalte auslesen, sollte man es den Crawlern möglichst einfach machen und noch auf diese Art der Bereitstellung verzichten.

Indexbudgetverschwendung: Doppelte Inhalte

„Duplicate Content“, also gleiche Dokumente unter verschiedenen URLs, verschwenden relevantes Crawling- und Indexierungsbudget, da auch diese Inhalte sowohl bearbeitet, als auch in den meisten Fällen indexiert werden. Wenn Webmaster keine Vorkehrungen getroffen haben, diese Inhalte nicht indexieren zu lassen, dann hat das meist starke Rankingschwankungen und Verschwendung von Crawling- und Indexierungsbudget zur Folge. Zudem kann es sein, dass relevante Inhalte nicht in den Index aufgenommen werden können, da das Indexierungsbudget bereits durch doppelte Inhalte aufgebraucht wurde. Aus diesem Grund sollten folgende Fehler vermieden werden:

Https und http

Die meisten Online-Shops nutzen mittlerweile SSL Zertifikate zur verschlüsselten Datenübertragung. Wenn allerdings die Inhalte des Online-Shops sowohl unter http, als auch unter https erreichbar sind, dann handelt es sich um Duplicate Content. In diesem Fall sollte die http-Version auf die https-Version der Website mit dem Statuscode 301 weitergeleitet werden und in den Webmaster Tools eine neue Sitemap eingereicht werden, damit diese Änderungen möglichst schnell und effizient übernommen werden können.

Groß-und Kleinschreibung von URLs

Viele Webmaster wissen nicht, dass es einen Unterschied macht, ob URLs groß, oder klein geschrieben werden. Unterschiedliche Schreibweisen von URLs können auch Duplicate-Content erzeugen, daher sollte man sich als Webmaster für die Kleinschreibung der URLs entscheiden.

Trailing-Slash am Ende der URL

Wenn Inhalte sowohl mit Trailing-Slash am Ende der URL indexiert werden, als auch ohne, dann handelt es sich auch hier um doppelte Inhalte. Hier sollten die Inhalte ohne Trailing-Slash auf die Version mit Trailing-Slash weitergeleitet werden (Statuscode 301).

www. und nicht www. Varianten

Wenn die eigene Internetseite, oder der eigene Online-Shop sowohl mit www. als auch ohne www. aufgerufen werden kann, dann müssen auch hier wieder mehrere Versionen des gleichen Inhalts von den Suchmaschinencrawlern bearbeitet und indexiert werden. Um diesen technischen SEO-Fehler zu beheben, sollte auch hier die nicht www. Version auf die Version mit www. weitergeleitet werden (Statuscode 301).

Near-Duplicate Content bei Produktbeschreibungen

Diese Duplicate-Content Problematik ist sehr häufig in Online-Shops zu finden. Produktbeschreibungen werden meist sehr ähnlich aufgebaut und strukturiert und unterscheiden sich nur in sehr wenigen Kriterien voneinander. Im schlimmsten Fall werden diese sogar 1:1 übernommen. Suchmaschinen legen großen Wert auf einzigartige Inhalte, daher sollten auch die Produktbeschreibungen unique sein.

Tag-Seiten und Kategorieseiten

Auch wenn sogenannte Tag-Clouds aus Usability-Sicht sehr praktisch sind, sind diese aus SEO Sicht nicht unproblematisch. In den meisten Fällen generieren diese Tag-Seiten eine Auflistung der vertaggten Inhalte, die identisch sind mit den Inhalten der Kategorieseiten. Aus diesem Grund sollten Webmaster prüfen, ob Tag-Seiten tatsächlich identische Ergebnisse wie die Kategorien ausliefern. Sollte das der Fall sein, dann sollten diese Tag-Seiten nicht indexiert werden.

Parameter-URLs und Session Ids

Meist geben Parameter-URLs und Session Ids Inhalte wider, die bereits unter einer anderen URL existieren und indexiert wurden. Werden nun auch diese URLs in den Index aufgenommen, dann entsteht Duplicate Content. Aus diesem Grund sollten Parameter/Session Id – URLs in den meisten Fällen nicht indexiert werden.

Änderungen der Link-Struktur

Im Rahmen der SEO Onpage-Optimierungen kommt es häufiger zu Änderungen der Linkstruktur. Meist werden die URLs dahingehend optimiert, dass diese zukünftig die relevantesten Keywords enthalten. Wenn die alten URLs allerdings nicht mit dem Statuscode 301 auf die neuen URLs weitergeleitet werden, dann sind identische Inhalte unter mehreren Versionen aufrufbar, sowohl für den Leser, als auch für die Suchmaschinencrawler.

Zusatzangebote, die Duplicate Content erzeugen

In einigen Fällen wird den Lesern die Möglichkeit geboten, Inhalte, die bereits auf der Website zu finden sind, auszudrucken, oder als pdf-Datei herunterzuladen. Sowohl Druck-Versionen, als auch pdf-Dateien können Duplicate Content erzeugen.

So wird Duplicate Content vermieden:

Es gibt aus technischer Sicht mehrere Möglichkeiten den Suchmaschinencrawlern mitzuteilen, dass ein Dokument nicht in den Suchmaschinenindex aufgenommen werden soll.

  • Die Meta-Angabe: noindex
  • Weiterleitungen mit Hilfe der .htaccess Datei auf dem Webserver
  • Nutzung von Canonical-Tags
  • robots.txt zum Ausschluss von Dateien (beispielsweise .pdf-Dateien, die nicht in den Suchmaschinenindex aufgenommen werden sollen).

Crawling durch Sitemaps erleichtern

Sitemaps bieten eine sehr gute Möglichkeit der Suchmaschine mitzuteilen, welche URLs von einem Webmaster präferiert werden und daher bevorzugt behandelt werden sollen. Damit die Suchmaschinencrawler diese auch gleich zu Beginn des Crawlings finden können, sollten Sitemaps in der robots.txt der Website angegeben werden.

Es gibt verschiedene Arten von Sitemaps:

  • Content
  • News
  • Mobile
  • Videos
  • Bilder

Zudem können die Sitemaps in den Google Webmaster Tools eingereicht werden. Unter „Crawling“ -> „Sitemaps“ können diese sowohl getestet, als auch eingereicht werden. Es ist empfehlenswert diese Funktionen zu nutzen, da Webmaster in diesem Bereich wertvolle Informationen über den aktuellen Stand des Crawlings und der Indexierung der Inhalte erhalten. Fehler, oder andere Crawlingprobleme, werden so transparent gemacht und können gezielt vermieden werden.

Sitemaps sind vor allem sinnvoll, wenn:

  • Die eigene Website noch sehr neu ist und die Suchmaschine die Inhalte noch nicht kennt
  • Größere Änderungen vorgenommen wurden (beispielsweise an der URL-Struktur)
  • Die eigene Website sehr viele Unterseiten besitzt

Semantische Auszeichnungen der Inhalte

Eine weitere Möglichkeit Suchmaschinen zusätzliche Informationen zu den einzelnen Inhalten zur Verfügung zu stellen, ist die Nutzung von strukturierten Daten mittels schema.org. Mit Hilfe der Markups können Suchmaschinencrawler die Inhalte leichter thematisch zuordnen und sind so eher in der Lage Zusammenhänge und Kontext zu erkennen. Die Auszeichnungsmöglichkeiten sind sehr breit gefächert, sodass sämtliche Themen und Inhalte abgedeckt werden können. Zu den häufigsten Auszeichnungen gehören:

  • Bewertungen
  • Orte (vor allem relevant für Local SEO)
  • Unternehmen
  • Produkte
  • Breadcrumbs
  • Musik
  • Veranstaltungen
  • Personen
  • Rezepte

Online Shops profitieren häufig von der Microdata-Auszeichnung „Bewertungen“, da diese in vielen Fällen als Rich Snippets in den Suchergebnissen dargestellt werden. Sterne-Bewertungen in den Suchergebnissen sind deutlich auffälliger und können die Klickraten drastisch erhöhen. Zukünftig wird es immer wichtiger werden der Suchmaschine strukturierte Inhalte zur Verfügung zu stellen, da Suchanfragen intentionsbasierter beantwortet werden.

Author

Kevin Jackowski
Kevin Jackowski ist Online Marketing Experte und kann mittlerweile auf über 12 Jahre Online Marketing Erfahrungen zurückblicken. Er entwickelt zusammen mit z.T. internationalen Unternehmen nachhaltige und ganzheitliche Online Marketing Strategien, hält eigene SEO Seminare und veröffentlicht regelmäßig Fachartikel rund um das Thema "Strategisches Online Marketing".