kontakt@seotraffic.de 0151 43 13 23 37

Google Webmaster Central Sprechstunden-Hangout vom 28.08.2014

Am 28.08.2014 fand erneut der Google Webmaster Hangout statt. Auch dieses Mal habe ich, aus meiner Sicht interessante Fragen & Antworten zusammengefasst.

Der Google Hangout ist insbesondere interessant, da es einer der wenigen Möglichkeiten ist, offiziellen Google Mitarbeitern im Bereich SEO fragen stellen zu können. Bei den Antworten muss man John Mueller meist sehr genau zuhören. Genaue Antworten sucht man vergeblich und durch sein Lieblingswort “Grundsätzlich” sind die Antworten auch meist recht allgemein gehalten. Trotzdem finde ich jeden Google Hangout recht lehrreich und sinnvoll.

Dieses Mal waren folgende Themen enthalten: …

Fragen & Antworten des Google Webmaster Hangouts

Google Analytics Parameter nicht indexieren: Was kann man machen, wenn Google Urls des eigenen Shops indexiert, die mit Google-Analytics Parametern versehen sind? Auf allen betroffenen Seiten befindet sich bereits ein Canonical Tag – Die Seiten bleiben dennoch im Index. Was kann noch getan werden?

Grundsätzlich funktioniert die Verwendung eines Canonicals bei Parametern recht gut. Die Seiten können jedoch trotzdem zunächst einmal, wie sie gefunden werden, mit Parameter indexiert werden. Im Laufe der Zeit konzentriert sich Google dann, auf die Seite, welche im Canonical angegeben wurde. Wichtig ist natürlich hierbei, dass der Canonical Tag richtig angegeben wird. Er darf also bspw. nicht immer nur auf die Startseite verweisen.

John Mueller erklärt, dass ein Canonical Tag kein direkter Prozess ist wie bspw. bei einem Redirect. Dem Redirect wird gefolgt und nur die Zielseite wird indexiert. Bei einem Canonical Tag wird die Seite jedoch zunächst indexiert, der Canonical Tag wird ausgelesen und im nächsten / übernächsten Schritt verwendet Google die Seite, die im Canonical Tag angegeben ist (indirekter Prozess).

Eine weitere Möglichkeit sind die Parameter Handling Tools in den Google Webmaster Tools. Hier kann explizit angegeben werden, dass gewisse Parameter nicht indexiert werden sollen. Jedoch ist diese Maßnahme keine Garantie um solche Parameter aus dem Index raushalten zu können.

 

Verlinkung bei Punycode URLs: Was passiert, wenn eine IDN-Domain nicht per Puny verlinkt wird? Also z.B. nicht auf “xn--mller-kva.de” sondern auf “müller.de”? Kann es auch DC-Probleme geben? Wie geht Google mit IDNs grundsätzlich um? Gibt es Nachteile, außer den sprachspezifischen?

Google sieht diese URLs grundsätzlich als eigene Domainnamen. Die Links zählen zusammen und werden nicht separat gezählt. Es gibt sicher kein DC-Problem.

 

Link Ghosts: Gibt es “Link Ghosts” auch bei Disavowed bzw. bei nofollow links?

Für John Mueller ist es ganz normal, dass bei einem Wegfall von Links auf eine Seite nicht sofort Maßnahmen von seitens Google folgen. Google benötigt einfach ein bisschen Zeit um diese Links neu zu bearbeiten. Außerdem kann es eine kleine Schutzreaktion des Algorithmus sein, damit mehr Stabilisierung in die Rankings gebracht wird. Dies passiert allgemein, also auch bei nofollow Links und Disavowed Links.

 

Return-to-SERP Rankingfaktor: Fliest die Nutzererfahrung zum Beispiel der User klickt auf ein Suchergebnis und er geht direkt über den Zurückbutton wieder zur Googlesuche, als Rankingfaktor mit ein? Siehe http://www.sistrix.de/news/auswirkungen-von-negativen-nutzersignalen-auf-das-ranking-bei-google/

Aus Google Sicht ist das Nutzerverhalten eher problematisch, d.h. Google kann es nicht unbedingt auf eine Seitenebene zurückführen, da es zu viele Schwankungen gibt. Google benutzt das Nutzerverhalten um Algorithmen allgemein zu erkennen bzw. um die Suchqualität allgemein einigermaßen einzustufen zu können. Zusammenfassend lässt sich folgendes sagen: Google verwendet das Nutzerverhalten gesamthaft um die Suchergebnisse zu optimieren/testen aber nicht um etwas was auf einer Seitenebene zu bewerten.

 

Starker Anstieg indexierter Seiten Bei einigen Domains (z.B. amazon.de) ist bei der Site-Abfrage seit Mai 2014 ein starker Anstieg indexierter Seiten zu beobachten. Auch wenn die Werte nur grobe Schätzungen von Google sind, überraschen die hohen Zahlen. Gibt es bei der gestiegenen Anzahl indexierter Seiten einen Zusammenhang zu den im Mai angekündigten Verbesserungen (JavaScript ) des Googlebot? http://googlewebmastercentral.blogspot.de/2014/05/understanding-web-pages-better.html

Die site-Abfrage ist laut John Mueller eher auf Geschwindigkeit als auf Genauigkeit fokussiert. Der gegebene Wert kann durchaus um den Faktor 10 oder auch 100 neben dem effektiven, von Google wirklich bewerteten, Index liegen. Ein großer Anstieg an indexierten Seiten kann bspw. durch DC zustande kommen. DC wird gecrawlt und in den Index aufgenommen. Dadurch erscheinen DC Seiten auch zunächst bei einer site-Abfrage, werden aber effektiv von Google zusammengezählt und nicht mehr beurteilt. Theoretisch kann es auch mit dem JavaScript Update zusammenhängen, müsste jedoch manuell angesehen werden.

 

Indexierte Seiten: Wie kann es sein, dass bei 30.000 eingereichten Seiten nur ca. 400 indexiert werden? Unter WMT Indexierungsstatus: ca. 6.000, aber unter sitemap indexiert nur 400. Was bedeuten diese Unterschiede?

Bei den Sitemap Abfragen in den WMTs sieht sich Google sehr genau die zu indexierenden Seiten an. Wird eine URL, die sich nur minimal von der Sitemap URL unterscheidet (Parameter), indexiert, erscheint diese nicht in den WMTs Sitemap Daten. Dies würde bedeuten, die Sitemap ist nicht so genau, wie sie sein sollte. Jedoch sollte es dadurch nicht zu Rankingproblemen kommen. John Mueller gibt als Tipp, die Sitemap in kleinere Stücke aufzuteilen um besser beurteilen zu können, welche Sitemap gut funktioniert bzw. sauber erstellt wurde.

 

WordPress robots.txt: Wie beurteilt Google die offiziell von WordPress empfohlene, eher kleine robots.txt: http://codex.wordpress.org/Search_Engine_Optimization_for_WordPress#Robots.txt_Optimization . Sie schließt v.a. themes/plugin/cache/admin/trackback/comment-Verzeichn. aus.

John Mueller kritisiert an der WordPress robots.txt, dass Verzeichnisse ausgeschlossen werden, welche CSS und JavaScript Dateien beinhalten. Gerade bei mobilen Webseiten ist dies problematisch, da Google nicht erkennen kann, ob diese Webseite eine mobile Version anbietet. Wenn möglich sollen CSS und JavaScript Dateien in der robots.txt nicht ausgeschlossen werden. Google möchte die Information, ob es eine mobile Variante gibt, in den Suchergebnissen berücksichtigen.

 

HTTPS Bewertung: Gibt es ein Update zum Thema HTTPS Umstellung. Sollte es zwecks Ranking schnellstmöglichst umgesetzt werden?

Längerfristig wird es auf jeden Fall relevant sein, diese Richtung einzuschlagen. Es ist jedoch aus Google Sicht ein kleiner Rankingfaktor, welchen man nun sofort umstellen müsste.

 

Canonical und noindex: Kann es sein, dass durch den Canonical Google nicht weiß, ob das NOINDEX übertragen werden soll?

Grundsätzlich empfiehlt Google einen Canonical Tag nicht zusammen mit noindex zu kombinieren. Google könnte Probleme haben, da auf der einen Seite durch das Canonical Tag angegeben wird, dass beide Seiten equivalent sind, auf der anderen Seite unterscheiden sich jedoch die beiden Seiten wieder, da eine indexiert werden sollte und eine nicht. Dies kann sogar soweit gehen, dass Google das noindex auch auf die kanonische URL bezieht. Praktisch versucht Google jedoch dieses Problem zu verhindern. Die Signale an die Suchmaschinen sollten jedoch sehr genau und sabuer sein.

 

Verlinkung zwischen eigenen Projekten: Ist es erlaubt Besitzer mehrerer Webseiten im gleichem Geschäftsbereich zu sein, um diese dann gegenseitig untereinander zu verlinken? Ziel ist es den Link Juice weiter zu geben, so dass sich diese verschiedenen Webseiten mehrmals unter den Top 10 befinden

Aus Google Sicht ergeben sich solche Strukturen meist von alleine. Grundsätzlich versucht Google jedoch möglichst, auch unterschiedliche Webseiten in den SERPs zu bringen. In manchen Fällen kann hier jedoch auch manuell eingegriffen werden. Grundsätzlich ist es jedoch nicht “verboten” mehrere Webseiten zu einem gleichen Thema zu haben.

 

Abstrafung durch Duplicate Content: Kann interner duplicate Content/sehr ähnlicher Content zu einer Abstrafung der gesamten Website führen?

Grundsätzlich nein. Eine Außnahme wäre jedoch, wenn eine Webseite sich den kompletten Inhalt von anderen Webseiten zusammenkopiert. Hier kann es zu manuellen Abstrafungen kommen.

 

Die nächsten Google Webmaster Hangouts

  • Aktuell steht noch kein Termin fest. Vermutlich findet der nächste Hangout Mitte September statt.

 

Der Hangout findet 1-2 mal pro Monat auf Deutsch statt. Weitere Termine werden unter Office Hours gelistet.

Die Fragen wurden leicht abgewandelt aus dem Hangout übernommen. Bei den Antworten handelt es sich zum Teil um meine eigene Interpretation des Gesagten.

 

Teilen macht Freunde:

1
Shares

Deine Meinung ist gefragt!

Deine Email Adresse wird nicht veröffentlicht.