Best of Google Webmaster Hangout 2015

17.12.2015

Seit einigen Jahren sind die Google Webmaster Sprechstunden Hangouts zur beliebten Anlaufstelle für deutsche und internationale SEOs geworden. Mehrmals im Monat informiert hier der Schweizer Google Webmaster Trends Analyst John Mueller über Neuigkeiten bei Google. Und was noch viel wichtiger ist: Er beantwortet die Fragen der Zuschauer.

Da in diesen Google+ Hangouts, die in deutscher und englischer Sprache stattfinden, immer nur maximal 10 Besucher teilnehmen können, haben wir es uns beim SEO Portal zur Aufgabe gemacht, die Hangouts mitzuschreiben – und die Englischen Ausgaben zudem ins Deutsche zu übersetzen. Damit brauchen auch die Websitebetreiber, die nicht anwesend sein können – und auch die, die keine Zeit für ein einstündiges Video haben – keine Informationen mehr verpassen.

Exklusiv für XOVI haben wir nun, kurz vor Weihnachten, unsere Best Of für das Jahr 2015 zusammengestellt. Hier findet ihr also die besten Fragen und die spannendsten Antworten des letzten Jahres. Viel Spaß beim Stöbern.

Subfolder oder Subdomain (13.02.2015, 00:51)

Frage: Was sagt Google zu der Behauptung, dass Subfolders besser sind als Subdomains in Bezug auf SEO? Welche Variante würdest du zu einem Blog empfehlen?

Antwort: Für Google gibt es da keinen Unterschied, beide sind gleichwertig. Es ist im Wesentlichen von der eigenen Infrastruktur abhängig und davon, was für den Webmaster einfacher ist.

301 Weiterleitungen (13.02.2015, 02:59)

Frage: Warum ist Google sehr, sehr, sehr langsam dabei, 301-Weiterleitungen zu erkennen und zu verarbeiten? Oft scheint monatelang nichts zu passieren.

Antwort:

Google befolgt 301-Weiterleitungen, sobald die entsprechende URL gecrawlt wird. Wenn die Weiterleitung site-wide passiert, betrifft das sehr viele Pages. Nicht alle Seiten werden regelmäßig gecrawlt, deswegen kann es einige Wochen bis Monate dauern, bis Google die URLs crawlt und auf vorhandene Weiterleitungen trifft. Ihr solltet dabei immer unsere Best Practice befolgen.

Serverausfall (25.02.2015, 43:51)

Frage: Welche Auswirkungen haben kurze Ausfälle einer Website auf die Rankings? Ich hatte 1 ½ Tage mit einem Serverausfall zu kämpfen und habe beobachtet, dass die Rankings im Vergleich zur Vorwoche signifikant gefallen sind.

Antwort:

Für Google ist es wichtig, dass der Server im Fall eines Ausfalls eine 503-Meldung an Google gibt und somit signalisiert, dass es sich um ein temporäres Problem handelt. Google würde dann ein weiteres Mal versuchen, die Website zu crawlen, bevor es Auswirkungen hinsichtlich der Rankings gibt.

Website vorab testen (03.06.2015, 31:50)

Frage: Ich möchte eine Website testen, bevor ich sie indexieren lasse. Ich wollte sie in der Google Search Console prüfen, aber das funktioniert nicht, da in der robots.txt „Disallow: / (All)“ steht. Wenn ich „Abruf wie Google“ in der Google Search Console durchführe, erhalte ich die Meldung, dass der Zugriff blockiert ist. Wie kann ich meine Website vorab prüfen?

Antwort:

Robots.txt entfernen, x robots no index tag http header benutzen. Google indexiert den Inhalt dann nicht, kann die Seiten aber crawlen.

Disavow für Subdomains (05.06.2015, 04:30)

Frage: Unsere Seite hat viele Subdomains. Wenn wir das File hochladen, dass die Links enthält welche wir auf disavow stellen wollen: Ist es besser, ein File für die ganze Seite zu erstellen, oder lieber eines für jede Subdomain?

Antwort:

Es muss immer auf der entsprechenden Subdomain hochgeladen werden, etwas anderen funktioniert nicht.

Indexieren und blockieren (05.06.2015, 35:15)

Frage: Ich habe einige Seiten, die ich per robots.txt geblockt habe, aber sie verschwinden nicht aus dem Index. Was kann ich tun, um sie loszuwerden?

Antwort:

Du solltest sie in robots.txt freigeben und auf Noindex setzen, beim nächsten Crawlen fliegen sie dann aus dem Index. Um das schneller zu machen kannst du uns ein Sitemap File schicken. Man kann auch das Parametertool nutzen, dies bringt aber nur etwas, bevor die Seiten im Index sind.

Lokales Ranking (18.06.2015, 36:54)

Frage: Was funktioniert besser für das lokale Ranking? Vier verschiedene Websites für jede Filiale meiner Firma oder eine Website mit jeweils einer Page für jede Filiale? Aktuell haben wir vier Domains?

Antwort:

Sobald man mehr als eine Handvoll Filialen hat und für jede Filiale eine Website aufmacht, geht das schnell in Richtung Doorway Page, wo im Grunde jeweils die gleichen Inhalte zu finden sind und nur die Städte ersetzt werden. Da sollte man aufpassen!

Wenn es jedoch auf der anderen Seite jedoch vier völlig unterschiedliche Filialen mit sehr unterschiedlicher Kundschaft gibt (Beispiel: Hotels in verschiedenen Städten), dann kann das Sinn machen. Aus der Sicht von Google gibt es da keine Variante, die bevorzugt wird. Persönlich würde ich eher verschiedene Pages auf einer Website gestalten, hauptsächlich deshalb, weil diese viel einfacher zu verwalten sind.

Search Console Filter (19.06.2015, 49:15)

Frage: Wird es innerhalb der Suchanalyse in der Google Search Console zukünftig die Möglichkeit geben, bestimmte Filter zu speichern? Aktuell muss man die Filter jedes Mal neu setzen, was ziemlich aufwendig ist.

Antwort:

Ich bookmarke einfach die Page, wenn die Filter gesetzt sind. Da die Filter in der URL sind, kann man das Bookmark dann einfach beim nächsten Mal aufrufen und muss dann die Filter nicht neu setzen. Google arbeitet diesbezüglich aktuell an einer API.

Disavow (30.06.2015, 24:43)

Frage: Einer unserer Kunden hat versehentlich alle Backlinks zu seiner Seite Disavowed. Wie können wir das in Search Console bereinigen? Wenn jemand versehentlich zu viele Links Disavowed hat, wird dies doch keinen Effekt haben, wenn er schnell ein neues File hochlädt bevor es ein Update gab, oder? Aber eines eurer Patente sagt, dass wenn man eine Seite erneut verlinkt, es weniger Wert hat.

Antwort:

Ihr könnt ein leeres Disavow-File in Search Console hochladen – das wird dann über alle vorherigen gestellt. In eurem Fall könnt ihr auch eines hochladen, das nur die Links enthält, die wirklich disavowed werden sollten. Das wird dann automatisch durchgeführt.

Es sollte keinen großen Effekt haben. Aber alle URLs, die in der Zwischenzeit gecrawlt wurden, wurden dann bereits Disavowed. Diese werden dann bald erneut gecrawlt, also sollte es keine großen Änderungen in der Suche geben.

Ich habe keine Ahnung, von welchem Patent du sprichst. Aber wir haben viele Patente, und nur weil wir eines haben heißt es nicht, dass wir es auch nutzen. Es ist also immer interessant, sich die Patente anzugucken, aber geht nicht davon aus dass wir alles machen was darin steht.

URL-Struktur in Online-Shops (02.07.2015, 09:46)

Frage: Vermehrt verwenden Shopseiten statt einer Verzeichnisstruktur mit „/“ eine Verknüpfung der Verzeichnisse mit „-„ Welche URL-Struktur empfiehlt Google und warum?

Beispiel:
/kinder/kindermode/kinderhose2
/kinder-kindermode-kinderhose2

Antwort:

Im Grunde genommen ist das egal und kann frei entschieden werden. Was allerdings nicht gut ist: Zwischen „/“ und „–„ wechseln. Webmaster sollten sich für eine Variante entscheiden und diese dann möglichst beibehalten!

Exact Match Domains (02.07.2015, 24:05)

Frage: Hi, ist der Exact Match Domain Penalty mit schlechter Qualität der Inhalte gekoppelt? Ist eine Exact Match Domain unproblematisch, wenn gute Inhalte produziert werden?
Antwort:

Aus der Sicht von Google ist das kein Problem. Exact Match Domain und guter Content sind in Ordnung.

Crawlen von JavaScript und CSS (30.07.2015, 00:33)

Frage: Viele Webmaster befürchten, dass es durch das crawlen von Java und CSS zu Sicherheitsproblemen kommen könnte. Du hast ausgeschlossen, dass diese Daten indexiert werden. Aber es gibt doch die Befürchtung, dass gewisse Sachen mit ausgelesen werden und dadurch Sicherheitslücken entstehen.

Antwort:

Wenn die Dateien in einer HMTL-Seite eingebunden sind, dann werden die JavaScript-Dateien nicht separat indexiert, also nicht in der Websuche sichtbar gemacht. Wichtig finde ich, dass die Sicherheit von Webseiten eigentlich nicht von solchen Maßnahmen abhängen sollte. Die robots.txt Datei ist eigentlich kein Weg, um eine Webseite sicherer zu machen. Ein Hacker, der eine Seite angreifen will, schaut nicht auf die robots.txt und hält sich an die dortigen Vorgaben. Hacker lassen eher Programme über alle Seiten laufen, um Sicherheitslücken zu finden – sie nutzen nicht die Websuche, um einzelne JavaScript-Versionen zu finden. Wenn man merkt, dass es Sicherheitslücken – beispielsweise im JavaScript – gibt, bringt auch das Verstecken nichts. Dann muss man diese Lücken schließen und die Webseite immer aktuell halten.

Lazy Load (30.07.2015, 23:50)

Frage: Wir haben Lazy Load auf der Startseite implementiert und das Problem, dass nun die Bilder nicht mehr vom Googlebot indexiert werden. Welchen Lösungsansatz schlägt Google da vor?

Antwort:

Das Hauptproblem auf der Seite ist, dass die Bilder erst geladen werden, wenn man runterscrollt. Googlebot scrollt nicht aktiv auf der Seite, kann die Bilder also nicht sehen und nicht indexieren. Da gibt es keine direkte Lösung, vielleicht müssen manche Bilder direkt eingebaut werden. Man kann die Bilder auch im Hintergrund laden lassen – nutze das Fetch and Render Tool um das einzustellen.

JavaScript und CSS (31.07.2015, 14:55)

Frage: Hi John, ich habe in der Search Console eine Nachricht erhalten, dass Google keinen Zugriff auf JavaScript/CSS hat. Warum benötigt Google Zugang zu diesen Dateien? Nach welchen Daten schaut Google in diesen Dateien?

Antwort:

Google möchte die Seiten im Prinzip so rendern, wie Browser es auch machen. Google möchte sichergehen, dass Google den gleichen Content sieht wie die Besucher. Das hat auch etwas mit dem Mobile-Friendly Update zu tun. Wenn die Crawler erkennen können, dass die Website mobilfreundlich ist, dann kann sie in der mobilen Suche und mit dem Mobile-Friendly Label angezeigt werden. Dafür benötigen wir Zugriff auf JavaScript/CSS.

Weiterleitungen (31.07.2015, 27:54)

Frage: Hallo John, kannst du den technischen Unterschied zwischen einem 302er und einem 303er erklären? Wann würde man einen 303er nutzen?

Antwort:

Das ist eine häufige Frage. Google unterscheidet nur zwischen temporären und dauerhaften Weiterleitungen und versucht herauszufinden, welche Kategorie jeweils passt. Google versucht bei temporären Weiterleitungen die Originalseite im Index zu behalten, während bei permanenten Weiterleitungen versucht wird, die neue Seite in den Index zu holen. Wenn Google feststellt, dass eine temporäre Weiterleitung permanent ist, handelt Google entsprechend.

Duplicate Content (12.08.2015, 21:49)

Frage: Würden folgende URLs als Duplicate Content zählen:
domain.com/product/item-25 <- das reguläre englische Produkt url domain.com/es/product/item-25 <- dasselbe Produkt, aber auf Spanisch Antwort:

Übersetzungen sind kein Duplicate Content. Sobald etwas übersetzt wird, zählt es als einzigartig. Aber ein Hreflang kann uns helfen, bei Suchanfragen die jeweils passende Seite anzuzeigen.

404 (14.08.2015, 03:55)

Frage: Warum sehen wir immer noch Seiten, die seit Jahren 404 zurückgeben? Warum crawlt Google sie immer wieder?

Antwort:

Wir crawlen sie nicht mehr so oft. Aber manchmal sehen wir einen neuen Link zu der Seite und prüfen sie dann erneut. Und allgemein kommen wir manchmal zurück, da viele Seiten nach einiger Zeit wiederkommen und wir keine Inhalte verpassen wollen.

Analytics für das Ranking (14.08.2015, 10:09)

Frage: Eine der MOZ 2015 SEO-Korrelationen zeigt, dass es eine positive Korrelation zur Nutzung mit Google Analytics gibt. Was kannst du dazu sagen, ist das nicht ein Monopol?

Antwort:

Wir nutzen Analytics nicht für das Crawlen, Indexieren und Ranken, daher sind alle diesbezüglichen Korrelationen zufällig. Diese Programme werden bei großen Seiten, die gut ranken, oft genutzt – aber es hilft ihnen nicht beim Ranken. Die Korrelationen in solchen Studien zeigen nicht, dass etwas unbedingt zusammen gehört, es gibt also keinen Boost wenn jemand Analytics oder AdWords benutzt. Wir versuchen, in der Suche so neutral wie möglich zu sein, damit Google Produkte keinen positiven oder negativen Einfluss haben.

Geklaute Inhalte (28.08.2015, 02:25)

Frage: Eine Website mit 190.000 Seiten ist – ohne Erlaubnis – kopiert worden. Hat der so entstandene Duplicate Content Einfluss auf die Rankings der Originalwebsite?

Antwort:

Das ist kein Problem. Google ist ziemlich gut darin, festzustellen, welche Website das Original ist und zeigt diese dann auch in den Suchergebnissen an.

Fetch as Google (28.08.2015, 23:56)

Frage: Auf meiner Website gibt es Posts, die mit 7.000 Wörtern sehr lang sind. Diese werden in der Vorschau unter Fetch as Google (Search Console) nicht komplett angezeigt. Bei kürzeren Posts ist das nicht der Fall. Liegt das daran, dass die Vorschau begrenzt ist, oder gibt es ein größeres Problem?

Antwort:

Ja, ich glaube der Vorschau Screenshot ist vom Platz her begrenzt. Um sicherzugehen, dass alles richtig indexiert wird, kann man einfach einen Textabschnitt aus dem unteren Bereich kopieren und in die Google Suche eingeben. Erscheint die passende Seite dann in der Suche, ist alles okay.

Neuer Tab (10.09.2015, 51:12)

Frage: Hallo John, aktuell stellt sich mir die Frage, ob es aus SEO-Sicht nachteilig sein kann, interne Links einer Seite grundsätzlich in einem neuen Browser-Tab öffnen zu lassen. Aus Usability-Sicht scheiden sich hier die Geister.

Antwort:

Das ist dir überlassen. Für uns ist das egal.

Duplicate Content (24.09.2015, 00:30)

Frage: Beschreibungen in Verzeichnissen sind meist gleich, so auch in Google+. Ist das ein DC Problem?

Antwort:

Nein, wir wählen dann eine der Seiten aus. Es ist zwar DC, man muss es aber nicht um jeden Preis vermeiden. Es führt zu keinem Problem für eure Seite.

Breadcrumbs (24.09.2015, 15:59)

Frage: Hi John, wie ist der beste Weg, Breadcrumbs auszuzeichnen? Bisher sollte das immer via data-vocabulary gemacht werden. Kann man für Google inzwischen auch schema.org nutzen, oder sollte man bei data-vocabulary bleiben? Vielen Dank!

Antwort:

Das schema.org Markup für Breadcrumbs funktioniert für Google und sollte problemlos laufen. Aber achtet darauf, dass ihr das einheitlich macht – beide Versionen funktionieren gleich gut.

Plural und Synonym (16.10.2015, 12:17)

Frage: Bei Google.de sehen wir unterschiedliche Ergebnisse für “Fähre” und “Fähren” für unsere Domain AFerry.de Wir verstehen das Singular und Plural verschieden sind, aber die Unterschiede sind enorm (Seite 1 vs. Seite 5). Weißt du woran das liegen kann?

Antwort:

Wir haben kein semantisches Modell, um Singular und Plural herauszuarbeiten – wir versuchen, das durch algorithmisches Lernen zu erreichen. Es kommt also darauf an, was Nutzer als Ihr Suchziel angeben. Ihr seht vielleicht einfach das Ergebnis des deutschen Suchverhaltens – da könnt ihr nicht viel dran ändern.

Google Translate Penalty (27.10.2015, 03:32)

Frage: Ich habe mich grad mit einem Journalisten unterhalten. Er wollte etwas über einen Google Translate Penalty wissen – was sich für mich nach totalem Quatsch anhört. Kannst du dazu etwas sagen? Sind Leute vielleicht verwirrt, weil sie Autotranslate nutzen und dann an Duplicate Content denken?

Antwort:

Was soll das sein? Ich bin ziemlich sicher, dass wir keinen Translate Penalty haben. Aber wenn ihr Übersetzungsprogramme nutzt, dann sehen wir das vielleicht als autogenerierte Inhalte und dann kümmert sich das Webspam Team darum. Aber es ist nicht so, dass die Nutzung eines Übersetzers ein Problem darstellt – es ist nur der autogenerierte Content ohne Mehrwert.

Serverstandort (05.11.2015, 08:59)

Frage: Unser Webhoster zieht von München nach Frankreich mit seiner Serverfarm. Wir haben viele gute lokale Rankings im Raum München. Könnte das Einfluss haben auf das Ranking unserer Seite?

Antwort:

Nein, das sollte total unproblematisch sein. Aber geht sicher, dass wir während des Umzugs kein 404 sehen.

Pagespeed (11.05.2015, 14:57)

Frage: Was ist die aktuelle Google Benchmark für die empfohlenen optimalen Ladezeiten von Webseiten?

Antwort:

Wir haben da eigentlich keine genauen Zahlen. Wir versuchen, zu unterscheiden, ob die Seite normal schnell ist (das ist ein breiter Rahmen) oder ob sie extrem langsam ist. Man kann also nicht sagen, dass eine Seite besser ranken wird, nur weil sie ein paar Zehntelsekunden schneller ist. Aber Nutzer können auf einer Seite mehr machen, wenn sie schneller ist – und würden sie dann vielleicht auch eher empfehlen. Das ist also eher ein indirekter Effekt, weil es gut für den Benutzer ist.

Noindex (06.11.2015, 23:43)

Frage: Ein Shop hat Seiten mit ähnlichen Inhalten, wo sich nur die Farben unterscheiden. Entsprechend sind auch die URLs ähnlich. Sollten immer alle Versionen eines Produkts außer einer auf Noindex stehen, um einen Penalty zu vermeiden?

Antwort:

Das kann nur zu einem Penalty führen, wenn die Inhalte schlecht sind. Aber grundsätzlich führt so etwas im E-Commerce nicht zu Problemen. Wir werden sie vielleicht in den SERPs zusammenklappen, aber ihr solltet kein Noindex benutzen.

Forum (01.12.2015, 04:53)

Frage: Ein Freund hat ein Forum und seit 2012 nimmt sein Traffic rapide ab. Ich glaube, das hat mit Panda zu tun. Wie kann ein Webmaster wie er für den User Generated Content verantwortlich sein?

Antwort:

Es ist immer so, dass ein Webmaster für seine Seite verantwortlich ist. Wenn du ein Forum mit schlechten nutzergenerierten Inhalten hast, dann sind das deine schlechten Inhalte. Wie andere Webmaster auch musst du dich dann um sie kümmern – selbst wenn das bei einem großen Forum schwer ist. Vielleicht kann auch vieles auf Noindex gestellt werden?

SSL Zertifikate (03.12.2015, 15:03)

Frage: Gibt es Unterschiede beim Ranking von verschiedenen SSL-Zertifikaten oder ist es lediglich wichtig, ein Zertifikat zu haben?

Antwort:

Es gibt im Moment keinen Unterschied zwischen den verschiedenen Arten. Solange es modern ist, gibt es keine Probleme. Wir machen keine Unterschiede, es ist nur wichtig, dass die Seite über HTTPS erreichbar ist.

Diesen Beitrag teilen

  • Hallo Michael, DANKE – eine extrem gute Zusammenfassung um nochmals das Google SEO Jahr Revue passieren zu lassen. Und man lernt dadurch noch besser zu verstehen was die Message in den Aussagen von Meister Müller ist. In Google du gut indexiert sein wirst wenn du dich für die richtige Seite entscheidest junger SEO! Gruß, Michael

  • Sehr gerne! Und ja wir haben es ja zuerst nur intern für uns gemacht und irgendwann dann beschlossen eben durch das SEO Portal so etwas auch nach außen zu tragen.