kontakt@seotraffic.de 0151 43 13 23 37

Google Webmaster Central Sprechstunden-Hangout vom 26.06.2014

Am 26.06. fand erneut der Google Webmaster Hangout statt. Auch dieses Mal habe ich, aus meiner Sicht interessante Fragen & Antworten zusammengefasst.

Der Google Hangout ist insbesondere interessant, da es einer der wenigen Möglichkeiten ist, offiziellen Google Mitarbeitern im Bereich SEO fragen stellen zu können. Bei den Antworten muss man John Mueller meist sehr genau zuhören. Genaue Antworten sucht man vergeblich und durch sein Lieblingswort “Grundsätzlich” sind die Antworten auch meist recht allgemein gehalten. Trotzdem finde ich jeden Google Hangout recht lehrreich und sinnvoll.

Dieses Mal waren folgende Themen enthalten: Publisher Tag, Panda 4.0, Umlaute in URLs, Content bei responsive Webdesign, HTML5, mehrere H1 Tags pro Seite, Disavow Datei, Google Webspam, mehrere rel publisher pro Seite. 

Fragen & Antworten des Google Webmaster Hangouts

Indexierung von Produktvarianten: In einem Onlineshop haben wir Produkte mit je 3-100 Farbvarianten (z.B. Nagellacke). Sollen wir die Varianten indexieren lassen, oder einen Canonical setzen auf das Masterprodukt? Inkl. aller Varianten sind es zu Beginn ca. 15.000 Produkte.

Man sollte überlegen ob die Farbe für das Produkt relevant oder nur ein Attribut ist. Wenn es ein Attribut ist sollte man es auf das Master lenken. Wenn die Farbe jedoch sehr relevant ist und Besucher wirklich danach suchen, sollte man die jeweilige Seite auch indexieren lassen. Laut John Mueller ist ein doppelter Produkttext auf diesen Seiten nicht negativ, da Google einzelne kleinere Veränderungen auf diesen Seiten erkennen kann, wie bspw. die Farbe. Auf Rückfrage erwähnt John Mueller jedoch noch einmal, dass Duplicate Content kein Penalty ist, sondern eine Herausforderung für Google unterschiedliche Seiten interpretieren zu können und um dem User zur passenden Query anzeigen zu können.

Eigene Meinung: John Mueller hat nun schon ein paar mal bestätigt, dass Duplicate Content kein Penalty ist, sondern für Google eher eine technische Herausforderung um Inhalte perfekt verstehen zu können. Meiner Meinung nach sollte man jedoch bei diesem Duplicate Content immer an interne doppelte Inhalte denken. Das gleiche Argument wird bei externen Duplicate Content (gleiche Texte in unterschiedlichen Shops, gleiche Texte auf Affiliate Seiten und Preisssuchmaschinen…) sicherlich nicht gelten.

 

PageSpeed Insights und Google Scripts: Die “PageSpeed Insights” bemängeln die Google-Scripts http://ajax.googleapis.com/ajax/libs/jquery/1.3.2/jquery.min.js und http://www.googleadservices.com/pagead/conversion.js. Wieso? Der Code, den ich einzubinden habe, wird mir doch von Google geliefert.

Bei PageSpeed Insights werden Google Scripts nicht extra ausgeblendet da diese Scripte wie jede andere auch sind. Wenn durch diese Scripte Probleme auftauchen sollte man sich Gedanken darüber machen, wie diese Scripte ansonsten eingebunden werden können. Bspw. kann man diese unten oder oben laden oder auch mit Hilfe von JavaScript nachladen.

 

Webmaster Tools: Über die Webmastertools entferne ich ungültige URLs. Leider tauchen diese bei Google häufig als Crawling Fehler wieder auf. Bein manchen URLs habe ich bereits mehrere Anträge auf Entfernung gestellt. Wie kann ich diese alten URLs endgültig löschen?

Das Tool blendet diese URLs nur in der Google Suche aus. Die URLs sind jedoch trotzdem noch im System vorhanden. Diese URLs werden auch noch gecrawlt.

 

Content bei responsive Webdesign: Inwieweit ist der Content einer Seite auch bei der Responsive-Version wichtig? Dieser wird aktuell ausgeblendet (display:none) und auch nicht in den GWT (Abrufen & Rendern) angezeigt. Welche “Auflösung” crawlt und bewertet Google?

Bei responsive Webdesign wird empfohlen Inhalte nicht komplett auszublenden für einzelne Endgeräte, sondern diese anzupassen. Für Google ist es wichtig, dass Inhalte zwischen den verschiedenen Versionen äkquivalent sind. Dies bedeutet jedoch nicht,  dass Inhalte 1 zu 1 identisch sein müssen. Gekürzte oder eingeklappte Inhalte sind hier vollkommen in Ordnung. Bei der Auflösung versucht Google dass zu sehen, was der Durchschnittsbesucher auch sieht. Dies sind jedoch Sachen, welche nach einiger Zeit immer wieder angepasst werden. Man sollte sich somit nicht auf eine bestimmte Auflösung stützen.

 

HTML 5 & mehrere H1 Tags: Eine bestimmte Seite wurde in HTML5 programmiert. Dass in einer Seite mehrere H1 verbaut sind hat die Agentur damit argumentiert, dass *pro SECTION nur ein H1* sei und dies sei in Ordnung. Interpretiert Google dies auch so?

Google behandelt HTML5 aktuell noch nicht speziell. Wenn mehrere H1 verbaut sind, versucht Google diese auch korrekt zu bewerten. Auch auf einer normalen HTML Seite gibt es keinen Google Algorithmus welcher vorschreibt, dass es nicht mehrere H1 Tags geben darf.

 

Disavow Datei: Werden bei einem erneuten Penguin Update alle bisher von Google noch nicht berücksichtigten Daten einer Disavow Datei mit einem mal zur Neubewertung hinzugezogen oder geht das weiterhin in dem Rythmus, in dem die entwerteten Backlinks gescrawlt werden?

Das geht effektiv beim Penguin Update durch den Crawl Schritt für Schritt. Die Links aus der Disavow Datei fallen also erst bei einem erneuten Crawl raus. Dies kann unter umständen ein halbes Jahr oder länger dauern bis alles erkannt wurde. Der Algorithmus berücksichtigt jedoch schon das Einreichen vieler Links bevor diese überhaupt komplett gecrawlt wurden. Das heißt es muss unter umständen nicht gewartet werden, bis alle Links zu 100% gecrawlt wurden.

 

Disavow Datei: Ich habe die Backlinks einer Domain disavowed. Wenn ich die Domain aus der Disavow Datei wieder herausnehme, werden die Backlinks dann wieder gewertet?

Ja, die Disavow Datei ist immer nur der aktuelle Zustand. Werden Links aus der Datei genommen, werden beim nächsten Crawl der Seite diese Links wieder bewertet.

 

Google Webspam: Wie kann es sein das eine offensichtliche Spamseite die das Keyword XYZ in der eigenen .com.de Domain und 247x auf der Seite im Quelltext erwähnt hochgelobt auf Position 1 steht seit über einem Jahr? Nimmt Google es da nicht so genau in Nichen-Branchen?

Wenn das klare Spam Probleme sind sollte man diese bei Google melden. Das Thema Keyword Stuffing kann vom Algorithmus relativ gut erkannt und somit von Google auch ausgeblendet werden. Das heißt auf der Webseite besteht Keyword Stuffing, Google beachtet jedoch dies nicht und bewertet nur die relevanten Bereiche dieser Seite. Nur weil die Seite auf Position 1 steht, muss es nicht unbedingt heißen, dass die Seite wegen den Spampraktiken dort steht.

 

Mehrere Rel Publisher: Konnte man mehrere Google+ Seiten auf eine einzige Website verlinken über rel=publisher -wie sieht Google mehr als einen publisher link?

Dies kann problemlos gemacht werden. Es kann ja auch vorkommen, dass eine Firme mehrere Standorte oder Filialen hat, welche alle eine eigene Google Plus Seite besitzen.

 

Die nächsten Google Webmaster Hangouts

  • Aktuell steht noch kein Termin fest. Vermutlich findet der nächste Hangout Anfang Juli statt.

 

Der Hangout findet 1-2 mal pro Monat auf Deutsch statt. Weitere Termine werden unter Office Hours gelistet.

Die Fragen wurden leicht abgewandelt aus dem Hangout übernommen. Bei den Antworten handelt es sich zum Teil um meine eigene Interpretation des Gesagten.

Teilen macht Freunde:

0
Shares

Deine Meinung ist gefragt!

Deine Email Adresse wird nicht veröffentlicht.