kontakt@seotraffic.de 0151 43 13 23 37

Google Webmaster Central Sprechstunden-Hangout vom 25.04.2014

Letzte Woche war es mal wieder Zeit für einen Google Webmaster Central Sprechstunden Hangout mit John Mueller. Der Google Hangout ist insbesondere interessant, da es einer der wenigen Möglichkeiten ist, offiziellen Google Mitarbeitern im Bereich SEO fragen stellen zu können.

Bei den Antworten muss man John Mueller meist sehr genau zuhören. Genaue Antworten sucht man vergeblich und durch sein Lieblingswort “Grundsätzlich” sind die Antworten auch meist recht Allgemein gehalten. Trotzdem finde ich jeden Google Hangout recht lehrreich und sinnvoll. Aus diesem Grund möchte ich zu dem unteren Video eine kleine Zusammenfassung des Google Webmaster Hangouts vom 25.04.2014 geben. Dabei stelle ich die interessanten Fragen sowie meine Interpretation der Antworten vor.

Fragen & Antworten des Google Webmaster Hangouts

Wie genau wird duplicated content innerhalb einer Domain behandelt (bspw. Unternehmen mit mehreren Standorten, die den gleichen Text besitzen). Ist es sinnvoller verschiedene Texte für die einzelnen Standorte zu erstellen oder ist dies weniger relevant?

Hier geht John Mueller speziell auf Standortseiten ein, welche einen wiederverwendbaren Textblock besitzen. Solange die Inhalte zu dem jeweiligen Standort enthalten sind (Karten, Öffnungszeiten…) stellen solche Textblöcke kein Problem dar. Der Textblock wird für jede Seite ebenso einzeln bewertet und für das Ranking hergenommen. Problematisch ist das Ganze erst, wenn dies in sehr großem Maß gemacht wird. Beispielsweise wenn hundert von gleichen Seiten automatisiert erstellt werden und sich nur einige Ortsnamen unterscheiden.

Verlangsamt Google die Crawlrate auf Unterseiten die mehrere Monate sich nicht wirklich veraendert haben? Falls ja, gibt es hier ein ungefaehre Zeitangabe z.B. 3 oder 6 Monate ab wann man dies sehen kann oder haengt dies von der Staerke der Seite ab?

Im Grunde wird jede Seite einer Webseite unterschiedlich behandelt und somit unterschiedlich gecrawlt. Startseiten sowie Nachrichtenübersichten sowie Kategorien werden öfters gecrawlt als bspw. Produktdetailseiten. Dies kann man jedoch mit der Erstellung einer Sitemap verbessern. John Mueller deutet jedoch darauf hin, dass Seiten nicht wegen Ihrer Qualität sondern oft eher aus technischer Sicht nicht so häufig gecrawlt werden. Meist ist ein häufigeres Crawling daher auch überhaupt nicht notwendig, da sich Inhalte nicht so häufig ändern.

Google empfiehlt alle Seiten auf “HTTPS” umzustellen. Wie wird es bewertet, wenn die Seiten per HTTP und HTTPS erreichbar sind? Duplicate Content? Bei der Website aus techn. Gründen kein Canonical Tag setzen können. Weiterleitung von HTTP zu HTTPS?

Aus Google Sicht macht es mehr und mehr Sinn HTTPS auf einer Webseite zu verwenden. John Mueller betont jedoch hier, dass dies kein Ranking Plus darstellt. Befindet sich der gleiche Inhalt sowohl unter HTTP als auch unter HTTPS ist es technisch gesehen Duplicate Content. Aus Google Sicht aber eher unproblematisch weil Google erkennen sollte, dass es sich um die gleiche Domain handelt. Die beste Lösung um auf Nummer sicher gehen zu können wäre jedoch die Verwendung von Canonical Tags.

Sollte man einen Shop der in mehreren Ländern (jeweils länderspezifische Domain + hreflang-Attribut) vertreten ist, auf Servern im jeweiligen Land hosten oder reicht etwa ein zentraler Server-Standort mit eigener IP je Shop? Ist die eigene IP notwendig?

Das Hosting bleibt dem Webmaster überlassen. Solange Google genügend Informationen über eine eindeutige Länderzuordnung besitzt (TLD, Webmaster Tools Einstellungen..) reicht dies für Google. Somit ist keine IP Adresse im jeweiligen Land notwendig. Aus Ladezeit Aspekten macht es jedoch oft Sinn sich Gedanken über die Verwendung von CDN zu machen.

Wir haben einen Onlineshop in Deutschland und ein weiterer wird demnächst in Österreiche eröffnet. Zählt es als Duplicate Content wenn die Produktbeschreibungen in beiden Ländern die Gleichen sind?

Technisch gesehen bedeutet dies auch Duplicate Content, da Textblöcke identisch sind. Jedoch ist dies laut John Mueller kein Webspam Problem sondern ein Problem welches Google lösen muss. Hier muss Google das Hreflang Attribut verstehen und dem User die richtige Seite zeigen.

Reconsideration Request: Wie schnell verarbeitet Google eine Disavow-Liste? Kann ich am selben Tag eine Liste hochladen und den Recon stellen? Sollte vielleicht etwas Zeit zwischen den beiden Vorgängen gelassen werden?

Ein Recon kann am gleichen Tag gestellt werden, an welchem eine Disavow Liste hochgeladen werden kann. Hier sollte es aktuell zu keinen Problemen mehr kommen.

Beim betrachten der top platzierten Beiträge meiner Konkurrenz wird mir regelmäßig schlecht. Diese lassen sich kaum auf guten Inhalt der Seite zurückführen. Meist sind es furchtbar billige SEO Tricks. Muss ich wirklich auch darauf zurückgreifen um oben.

John Mueller verweist bei spammigen Ergebnissen gerne auf das Google eigene Spamformular. Er betont, dass solche “billigen SEO Tricks” nicht nachgemacht werden sollen. Meist ist der jeweilige Konkurrent wahrscheinlich nicht wegen dem “billigen SEO Trick” auf den vorderen Plätzen sonder macht etwas anderes außergewöhnlich gut. Kopiert man also nur diesen “billigen Trick” kann es sein, dass dies sich eher negativ auf die eigene Seite auswirkt.

Die nächsten Google Webmaster Hangouts

Die nächsten Termine stehen noch aus. Der Hangout findet 1-2 mal pro Monat auf Deutsch statt. Sobald Termine feststehen werden diese unter Office Hours gelistet.

Die Fragen wurden eins zu eins aus dem Hangout übernommen. Bei den Antworten handelt es sich zum Teil um meine eigene Interpretation des Gesagten.

Teilen macht Freunde:

0
Shares

mtraeger

  • Eine sehr schöne Zusammenfassung des Hangout vom 25.04.2014. Herzlichen Dank Mario Träger, ich habe den Beitrag auf SEO United auf Google+ gefunden und werde ihn auf Google+ teilen.
    Wir (LISA! Sprachreisen) betreiten um die 20 Länderseiten, Deutschland, Österreich und die Schweiz haben jeweils ähnliche Seiten auf Deutsch, nur einige Ausdrücke sind landesspezifisch anders. Es würde keinen Sinn machen, die Texte künstlich pro Landesdomain zu verändern, daher danken wir Google, die Suchmaschine listet auf Grund der ccTLD`s und physischen Büroadressen die Domains korrekt in der jeweiligen Landessuche, z.B. sprachreisen.at erscheint auf google.at, dort erscheint unsere deutsche Domain nicht.

    Viele Grüße
    Elke Greim
    Gründerin von LISA! Sprachreisen

  • Scheinbar ist die Nutzung von identischen Textblöcken auf zwei verschiedenen Domains gar kein wirkliches Problem. Das steht zwar nicht wirklich in diesem Artikel bzw. wurde nicht so direkt im Hangout behandelt, aber das lese ich zwischen den Zeilen heraus.

    Da frage ich mich wirklich, ob ich nicht zukünftig redaktionell erstellte Texte auf bis zu zwei Domains veröffentlichen soll, ohne den Text vorher abzuändern. Natürlich haben diese zwei Domains dann eine ähnliche Projektierung – sprich – behandeln das gleiche Thema, würde also inhaltlich passen.

    Rankingtechnisch für Google wohl kein wirkliches Problem (zumal der veröffentliche Autor mit Google+ Autor-Verlinkung dann auf beiden Domains/Projekten der Gleiche wäre).

    Mario, wie ist deine Meinung dazu? (gerne auch andere :))

    • Hi Robert, schön dass du hier die Diskussion ein bisschen anregst :-) Deine Vermutung konnte ich zwischen den Zeilen nicht herauslesen.

      Solltest du wirklich einen komplett gleichen Text auf zwei verschiedenen Domains veröffentlichen dürfte dies nicht so funktionieren wie gewünscht. Im Endeffekt sollte nur eine Domain mit dem jeweiligen Text ranken können, da dies ja 100% Duplicate Content ist. Ein veröffentlichter Autor mit Google+ Verlinkung sollte hierbei auch nichts mehr ändern können.

      Im Beispiel vom Google Hangout ging es ja um Standortseiten. Solange ein Teil des Inhalts also unique ist, geht das völlig ok. Warum auch nicht? Wenn man sich mal vorstellt, man hat eine Friseurkette in 3 verschiedenen Städten will man bspw. zu Friseur München, Friseur Nürnberg und Friseur Regensburg ranken. Für jeden Standort erstellt man eine Unterseite. Die Vorteile sowie USPs der Friseurkette kommuniziert man auf allen drei Seiten gleich (Textblock). Unterscheiden tun sich lediglich Filialfotos, die Filialadresse sowie weitere Kontaktdaten, Öffnungszeiten und der Titel der Filiale. Somit ist es möglich mit allen drei Seiten zu unterschiedlichen Keywords zu ranken ohne drei verschiedene Texte schreiben zu müssen.

      Beste Grüße
      Mario

  • Ich bin regelmäßig bei den Hangouts dabei und habe schon viele interessante und wichtige Punkte für mich da heraus ziehen können.
    Für mich war das Thema viele Artikel mit identischen Beschreibungen in einem Onlineshop sehr interessant. Wenn auch viel durch die Blume gesagt worden ist.

  • Guter Beitrag. Die Insight helfen weiter. Die Umstellung auf https ist sicherlich in einigen Fällen sinnvoll. Für mich war auch das Gesamtthema unterschiedliche Artikel mit identen Artikelbeschreibungen in Onlineshops eine sehr wertvolle Information. Man erfährt bei den regelmäßigen Hangouts immer wieder aufs Neue – wie man noch besser auf die Vorgaben und Wünsche von Google eingehen kann. Ohne diese Insiderinfos würde ich das Gefühl haben, etwas Wichtiges zu versäumen. Danke für diesen tollen Artikel zum Thema.

  • Pingback: Top 10 der Woche 18/14 - SEO-united.de Blog ()

Deine Meinung ist gefragt!

Deine Email Adresse wird nicht veröffentlicht.