Google bevorzugt „Mobile-freundliche Webseiten“ – neuer Rankingfaktor

Bereits im vergangenen Jahr keimten erste Hinweise auf ein weiteres Google Algorithmus Update auf. Denn zunächst wurde den Nutzern mithilfe eines zusätzlichen Snippet in den Google Suchergebnissen angezeigt, ob eine Webseite auch für mobile Endgeräte geeignet ist.

Dass Google durchaus ein Interesse daran hat, Internetseiten die für mobile Endgeräte ausgerichtet sind hervorzuheben, zeigte sich bereits im November des vergangenen Jahres, als Google entsprechende Suchergebnisse in den Google SERPS mit dem Zusatz „Für Mobilegeräte“ gekennzeichnet hat.

Google legt nach eigenen Angaben großen Wert auf die Benutzerfreundlichkeit und spricht immer wieder von einem perfekten Nutzererlebnis beim Besuch von Internetseiten. Als zusätzlicher Gradmesser zu den vielen Faktoren, die Google für das Ranking von Internetseiten heranzieht, könnte in Zukunft auch „mobile-friendly“ gehören. Webseiten, die diesen Vorgaben der Google Richtlinien nicht entsprechen, müssen mit schlechteren Ranking-Ergebnissen rechnen.

Die grundsätzliche Idee dahinter ist allerdings nicht neu, denn schon seit geraumer Zeit bezieht Google nutzerbezogene Informationen, darunter z.B. auch Interessen, Geo-Daten, Alter und Geschlecht, in die Ausgabe der Suchergebnisse mit ein. Auch die gewonnen Informationen aus einem Webseitenbesuch, sprich die Absprungrate, die Aktivitäten und die Verweildauer, sind Faktoren zur Bestimmung von Ranking-Positionen.

Google verschickt Warnhinweise über die Webmaster Tools

Ein Grund, warum jede Webseite in den Google Webmaster Tools eingetragen werden sollte ist, dass Google mit dem Inhaber einer Webseite über diesen Kanal kommuniziert. Mithilfe der Nachrichtenzentrale der Google Webmaster Tools teilt Google den Webseitenbetreiber mit, ob es Probleme, Hinweise und Empfehlungen für die eigene Webseite gibt.

In Bezug auf das aktuelle Thema verschickt Google an die Webseitenbetreiber Mitteilungen mit dem Betreff “Beheben Sie Probleme der mobilen Nutzerfreundlichkeit auf Domain.de” an den Webmaster der Webseite.

Google verschickt Warnhinweise über die Webmaster Tools
Google verschickt Warnhinweise über die Webmaster Tools

 

Weiter heißt es in der Mitteilung: “Die Systeme von Google haben 1 Seiten Ihrer Website getestet und bei 100 % dieser Seiten kritische Fehler in Bezug auf die Nutzerfreundlichkeit auf Mobilgeräten erkannt. Die Fehler auf den 1 Seiten beeinträchtigen die Nutzererfahrung auf Mobilgeräten für Ihre Website deutlich. Diese Seiten werden von der Google-Suche als nicht für Mobilgeräte optimiert eingestuft, und werden entsprechend in den Suchergebnissen für Smartphone-Nutzer dargestellt.”

Kurzum – die betroffene Webseite entspricht nicht den Vorgaben der Google Webmasterrichtlinien für mobile Webseiten und es bedarf einer Anpassung. Webseitenbetreiber sind demnach gezwungen, zu evaluieren ob es Möglichkeiten gibt, die betroffene Webseite zeitnah auf ein Google konformes Layout umzustellen.

Ich habe keine Mitteilung erhalten, bin ich auf der sicheren Seite?

Aktuell werden die Nachrichten nicht geschlossen an die Betreiber verschickt, sondern nach und nach, sodass noch eine entsprechende Nachricht eintreffen könnte, auch wenn jetzt noch nicht jeder Anwender eine Benachrichtigung in seinem Postkasten vorgefunden hat.

Ist meine Webseite mobilefähig?

Wer bisher noch keine Nachricht erhalten hat, kann im Vorfeld mithilfe der von Google bereitgestellten Oberfläche überprüfen, ob seine Webseite für mobile Endgeräte geeignet ist.

Das entsprechende Test-Tool befindet sich unter der Url:

  • https://www.google.com/webmasters/tools/mobile-friendly/

Die Anwendung des Tools ist relativ simpel: Die URL wird in das entsprechende Feld eingetragen und nach einem Klick auf “Analysieren” untersucht der Crawler die Website.

Prüfen ob eine Webseite mobilefähig ist
Prüfen ob eine Webseite mobilefähig ist

 

Leider macht Google keine besonders detaillierten Angaben, wenn es um die möglichen Optimierungspotentiale geht, daher empfiehlt es sich, noch ein weiteres Tool von Google in Anspruch zu nehmen und zwar Google Pagespeed.

Google Pagespeed überprüfen

Wie ist der Google Pagespeed meiner Webseite?
Wie ist der Google Pagespeed meiner Webseite?

 

Hier kann der Anwender nun auch einsehen, welche Probleme und auch Hinweise Google für den Anwender parat hält. Die Analyse unterteilt Google in die Tabs “Mobil” und “Desktop” sowie jeweils in “Schneller gemacht” und “Nutzererfahrung”. In Bezug auf das Thema ist der Punkt Nutzererfahrung relevant, allerdings sei an dieser Stelle angemerkt, dass die Ladegeschwindigkeit einer Website auch einen Einfluss auf das Ranking haben kann.

 

Google Pagespeed - Wie ist die Nutzererfahrung?
Google Pagespeed – Wie ist die Nutzererfahrung?

Rankingfaktor – Mehr mobilfreundliche Websites in Suchergebnissen

Ab dem 21. April gilt die Optimierung für Mobilgeräte auch als Rankingsignal. Die angekündigte Änderung wirkt sich auf mobile Suchanfragen in allen Sprachen weltweit aus. In Zukunft werden Internetnutzer bei Suchanfragen Ergebnisse erhalten, die sowohl relevant in Bezug auf die Anfrage als auch hinsichtlich dem verwendeten Gerät sind.

Google Webmaster Tools: Crawling Fehler im Blick haben

Crawling Fehler

Der Navigationspunkt „Crawling Fehler“ unter dem Menüpunkt „Crawling“ gehört zu den wichtigsten Features im Angebot der Google Webmaster Tools. Anhand der Daten lassen sich unter anderem DNS- sowie Server-Verbindungsprobleme erschließen.

In den nachfolgenden Übersichten wird grob aufgelistet, wie viele vermeintliche Fehler für eine Website seitens Google gefunden wurden – unterschieden wird hierbei zwischen Web und Mobile-Version der Website. Die gefundenen Fehler werden in der Regel in die Bereiche „Serverfehler“, „Zugriff verweigert“, „Nicht gefunden“, „Nicht aufgerufen“ sowie „Sonstiges“ unterteilt.

Google Webmaster Tools - Crawling Fehler
Google Webmaster Tools – Crawling Fehler

Die Übersichten eignen sich in erster Linie dazu, einen groben Überblick der Fehler zu erhalten. Erst wenn der Anwender tiefer ins Detail geht, werden die dargestellten Ergebnisse interessanter und die Fehlerquellen ersichtlich.

Google Webmaster Tools Serverfehler 500
Google Webmaster Tools Serverfehler 500

Die dargestellten Informationen, dem entsprechend auch die Grafiken, sind grundsätzlich abhängig von der jeweiligen Website. Das bedeutet, ein Ergebnis für eine bestimmte Website aus den Google Webmaster Tools kann nicht pauschal auf andere Websites übertragen werden.

Empfehlung: Es ist empfehlenswert, regelmäßig in die Google Webmaster Tools zu schauen und sich dabei die Website-Fehler anzeigen zu lassen, denn dadurch lassen sich vermeintliche und bis zum jetzigen Zeitpunkt unbekannte Fehlerquellen erschließen und im optimalen Fall sofort beheben.

Wenn ein Fehler zu einer bestimmten URL behoben wurde, sollte dies auch im Anschluss der Suchmaschine Google über die vorhandenen Schaltflächen („Als korrigiert markieren“) mitgeteilt werden. Nur so kann sichergestellt werden, dass Google die Inhalte wiederum zeitnah besucht und im Anschluss indexiert.

Google Webmaster Tools: Serverfehler

Ein sogenannter Serverfehler bedeutet, dass der Googlebot eine Unterseite – oder sogar die komplette Seite – nicht abrufen konnte und für eine Abfrage innerhalb eines festgelegten Zeitlimits keine Rückmeldung erhalten hat oder der Zugriff auf die gewünschte URL wurde verweigert. Somit wird der Googlebot genötigt, die Anfrage abzubrechen.

Google Webmaster Tools - Serverfehler (500)
Google Webmaster Tools – Serverfehler (500)

In der obigen Grafik wird beispielhaft dargestellt, wie dem Anwender über die Google Webmaster Tools mitgeteilt wird, dass eine URL der eigenen Website einen Antwortcode 500 liefert und dieses Problem am 08. Mai 2013 erkannt wurde.

Um mehr Details zu der entsprechenden URL zu erfahren, reicht ein Klick auf diese URL, um das nachfolgende Popup zu öffnen.

Google Webmaster Tools - Serverfehler 500 im Detail
Google Webmaster Tools – Serverfehler 500 im Detail

Die Fehlerdetails sind eindeutig – der Googlebot hat bereits am 07.05.2013 versucht, besagte URL aufzurufen und konnte diese bzw. durfte diese URL möglicherweise nicht aufrufen. Eine weitere Überprüfung seitens der Suchmaschine Google erfolgte am 08.05.2013 – denn auch Google weiß, dass eine Website kurzfristig ausfallen kann und daher wird durch einen weiteren Versuch überprüft, ob das Problem weiterhin vorhanden ist.

Step 1: Warum geht die URL nicht

Im ersten Schritt gilt es für den Anwender zu überprüfen, warum diese URL für den Suchmaschinen-Bot nicht zu erreichen war bzw. warum genau diese Seite einen Antwortcode 500 liefert. Der Antwortcode 500 ist per Definition ein „Sammel-Statuscode“ für unerwartete Serverfehler.

Der comspace-Blog basiert auf WordPress. Anhand der URL ist zu erkennen, dass eine Vorschau-URL generiert wurde, die für den Google-Bot erreichbar war bzw. ist. Wenn die URL in einem aktuellen Browser abgerufen wird, so erhält der Anwender die Nachricht „Du hast nicht die erforderlichen Rechte, um die Entwurfsvorschau zu sehen.“ Im Fall von WordPress kann dies zwei Ursachen haben: Entweder ist der Link für die Entwurfsvorschau bereits abgelaufen oder eben der Anwender ist nicht angemeldet und kann dem entsprechend den Inhalt nicht lesen – aus Sicht des Anwenders eigentlich kein Problem. Das eigentliche Problem ist aber, dass hier eine URL der Suchmaschine zugänglich gemacht wurde, obwohl diese für die Suchmaschinen nicht bestimmt ist.

Step 2: Wie wurde die URL den Suchmaschinen zugänglich gemacht?

Dazu bieten die Google Webmaster Tools im gleichen Popup zwei Navigationspunkte namens „In Sitemaps“ und „Verlinkt über“. Im ersten Navigationspunkt kann überprüft werden, ob die Vorschau-URL beispielsweise in einer XML-Sitemap eingebunden ist und dem entsprechend von den Suchmaschinen wahrgenommen wird. Wie die nachfolgende Grafik beweist, ist diese URL zumindest nicht in der eingebunden XML-Sitemap enthalten.

Serverfehler durch die Sitemap
Serverfehler durch die Sitemap

Der nächste Navigationspunkt erlaubt dem Anwender, die externen Verweise auf diese URL zu überprüfen und wie sich zeigt, wurde mittels Short-URL Dienst „ow.ly“ eine verkürzte URL zur einfachen Verbreitung der Vorschau erzeugt.

Serverfehler - verlinkende Seiten
Serverfehler – verlinkende Seiten

Bei der Überprüfung des externen Links erkennt man, dass dieser auf die obige Vorschau-URL weiterleitet. Es obliegt dem Anwender nun eine Lösung für dies Problem zu finden.

Lösungsansätze

Die Probleme sind grundsätzlich immer individuell und dem entsprechend gibt es keine pauschale Lösung, die sich auf jeden Serverfehler bzw. Antwortcode im Bereich 5xx übertragen lässt. Hinsichtlich der obigen Problematik gibt es einige Lösungsansätze, mit denen versucht werden kann, den seitens der Google Webmaster Tools angezeigten Serverfehler zu beheben.

URL weiterleiten

Sinnvollerweise sollte die URL auf den entsprechenden Artikel weitergeleitet werden – dazu kann eine Weiterleitungsregel (301 Redirect) in die htaccess eingebunden werden. Alternativ gibt es bei einigen Content Management Systemen eine Reihe von Plugins, die gerade für unerfahrene Nutzer in sehr einfacher Form die Möglichkeit bieten, bei Bedarf Weiterleitungen (301, 302, 307) zu erstellen.

Was tun, wenn kein Artikel existiert?

Häufig wird der Fehler gemacht, dass bei Artikeln, die nicht (mehr) existieren, die URL mittels einer Weiterleitung auf die Startseite umgeleitet werden. Dies sollte grundsätzlich vermieden werden, damit Suchmaschinen die Startseite nicht als allgemeine 404-Fehlerseite einstufen.

Im Idealfall wird eine URL auf einen neuen identischen Artikel weitergeleitet. Ist diese Möglichkeit nicht gegeben, empfiehlt es sich einen Redirect auf die nächst höhere Hierarchie-Ebene zu setzen.

Wenn aus irgendwelchen Gründen keine Weiterleitungen erstellt werden, ist es zwangsläufig notwendig, eine 404-Fehlerseite zu erstellen. Eine 404 Fehlerseite sollte grundsätzlich als Anleitung für den Nutzer dienen und ihm die Möglichkeit bieten, weiterhin mit einer Website zu arbeiten – dies kann durch Vorschläge geschehen („Meinten Sie vielleicht…?“). Auch bei einer 404 Fehlerseite gilt es den Nutzer abzuholen und ihn zu dem für ihn relevanten Inhalt zu geleiten.

URL sperren (Robots.txt)

Der Zugriff auf einzelne Dateien, Verzeichnisse sowie URLs kann für die Suchmaschinen-Bots (auch Robots) mithilfe einer „Robots.txt“ eingeschränkt werden. Bevor eine Website gecrawlt wird, überprüfen sogenannte Robots der jeweiligen Suchmaschinen, ob Einschränkungen für die Website bestehen. In der Regel übernehmen die meisten Suchmaschinen beim Crawl-Vorgang die Einschränkungen und besuchen die „gesperrten“ Inhalte nicht.

Zusätzlich kann in den Google Webmaster Tools unter „Google Index ->URLs entfernen“ die entsprechende URL eingetragen werden. Dadurch wird diese in der Regel schneller aus dem Index entfernt.

So einfach die Methode auch klingt, schützt diese nicht 100 % davor, dass die URL wieder in den Index aufgenommen wird. Sofern andere Websites auf die entsprechende URL verlinken, kann der Fall eintreten, dass diese zumindest teilweise in den Suchindex aufgenommen wird – dabei wird der Titel der Seite übernommen, allerdings die Meta-Description aufgrund der vorhandenen Robots.txt nicht.

Lösung – noindex

Es gibt eine funktionierende Lösung, sofern die Robots.txt genutzt wird und die Seite dauerhaft aus dem Index entfernt werden soll – das Zauberwort nennt sich Meta-Robots mit dem Wert „noindex“.

Einige CM-Systeme sind in der Lage, von Haus aus die Meta-Robots zu bearbeiten. Bei WordPress kann dies unter anderem durch den Einsatz eines Plugins gelöst werden – setzt aber dann auch voraus, dass die Seite tatsächlich existiert.

Google Webmaster Tools: Falsche 404-Fehler (Soft 404)

In den Google Webmaster Tools gibt es eine Unterscheidung zwischen „Seite nicht gefunden“ und sogenannte „falsche 404-Fehler“.

Wenn eine angeforderte Seite nicht vorhanden ist, wird seitens des Servers in der Regel ein 404-Fehler (Seite nicht gefunden) zurückgegeben. Mithilfe des Antwortcodes wird dem Browser (bzw. dem Client/Anwender) wie auch den Suchmaschinen mitgeteilt, dass angefragte Inhalte nicht existieren – dem entsprechend kann der Inhalt auch weder gecrawlt noch indexiert werden.

Wenn allerdings kein 404-Antwortcode zurückgegeben wird, dennoch eine 404-Inhaltsseite dem Anwender angezeigt wird, nennt sich dies „Soft 404“ bzw. „Falscher 404-Fehler“.

Google Webmaster Tools - 404 Soft Fehler
Google Webmaster Tools – 404 Soft Fehler

Das bedeutet, nur weil eine Seite „Seite nicht gefunden“ anzeigt, bedeutet dies nicht, dass es sich um eine echte 404-Seite handelt – damit diese auch als 404-Seite erkannt wird, ist es zwingend notwendig einen entsprechenden HTTP-Antwortcode zu übermitteln.

404-Softfehler behindern das Website-Crawling

Webseiten und Inhalte sollen im Sinne des Website-Betreibers so schnell wie möglich in den Index aufgenommen werden. Allerdings können sich sogenannte 404-Softfehler als Tempobreme für den Suchmaschinen-Crawler entpuppen.

Suchmaschinen-Crawler gehen bei 404-Softfehlern davon aus, dass sich unter der URL relevante Inhalte befinden könnten, da die Inhalte nicht eindeutig als 404-Fehler klassifiziert werden konnten. Dadurch läuft der Website-Betreiber Gefahr, dass neue Inhalte erst später erfasst werden, da sich der Suchmaschinen-Crawler für die 404-Softfehler interessiert. Des bedeutet auch, dass die eigentlichen 404-Softfehler seitens der Suchmaschinen indexiert werden.

Google empfiehlt beispielsweise die Verwendung der Antwortcodes 404 für „Seite nicht gefunden“ und/oder 410 für „die Seite/der Inhalt wurde gelöscht“.

HTTP-Antwortcode überprüfen

Es gibt sicherlich das ein oder andere Tool und Browser-Addon (z.B. Firebug), das die Möglichkeit schafft, sich den HTTP-Code einer Seite ausgeben zu lassen. Aber mithilfe der Google Webmaster Funktion „Abruf wie durch Google“, die bereits im Artikel „Beschleunigte Indexierung durch die Google Webmaster Tools“ beschrieben wurde, kann eine Seite aus Sicht der Suchmaschine heruntergeladen werden – womit auch direkt geklärt wird, wie der Google-Crawler diese Seite tatsächlich sieht.

HTTP-Antwortcode überprüfen
HTTP-Antwortcode überprüfen

Fazit und Empfehlung

Wie eigentlich bei jeder Fehlermeldung hinsichtlich der Crawling-Ergebnisse in den Google Webmaster Tools ist auch bei den einfachen 404-Softfehlern eine regelmäßige Kontrolle notwendig – nicht immer ist die Suchmaschine Google so heroisch und weist uns im Detail auf die Fehler und Probleme einer Website hin.

Nach Behebung der Probleme gilt es, diese auch in den Webmaster Tools als korrigiert zu markieren, damit die Inhalte bzw. URL zeitnah von der Suchmaschine untersucht werden kann.

Die Google Webmaster Tools – das Warum

Warum die Google Webmaster Tools nutzen?

Um die wertvollen Daten der Google Webmaster Tools auch nutzen zu können, bedarf es lediglich der Erstellung eines Nutzerkontos bei Google – mithilfe des Nutzerkontos stehen mehrere Dienste wie auch Google Analytics dem Kontoinhaber zur Verfügung.

Google Webmaster Tools - Anmelde Oberfläche
Google Webmaster Tools – Anmelde Oberfläche

Mittlerweile unterteilen sich die Google Webmaster Tools in die Bereiche Konfiguration, Status, Zugriffe, Optimierung und Google Labs. Nebst diesen Bereichen gibt es ein einleitendes Dashboard, das den aktuellen Status zu Crawling-Fehler, Suchanfragen und der Sitemap widerspiegelt.

Der signifikanteste Grund, warum der Einsatz der Google Webmaster Tools für jeden Anwender Sinn macht, ist dass die Daten von Google zum einen relativ aktuell sind und zum anderen direkt vom Marktführer im Bereich der Suchdienste stammen. Damit hat der Webseitenbetreiber die „vertrauenswürdigste“ Quelle als Lieferant für Daten über die eigene Webseite.

Bedenken sollte der Anwender aber auch, dass die Daten, die von Google kommen, grundsätzlich begrenzt sind und Google nicht sämtliche Informationen, die uns als relevant erscheinen, anzeigen wird. Zwar verbietet Google die Optimierung (bzw. Suchmaschinenoptimierung) von Webseiten und Inhalten nicht, wird dies aber auch nur bis zu einem gewissen Rahmen unterstützen (Google Webmaster Richtlinien).

Warum sollten die Google Webmaster Tools genutzt werden?

Unabhängig davon ob SEO Agentur, Unternehmen oder einfacher Hobby-Webmaster, ein jeder hat die Möglichkeit, die Google Webmaster Tools kostenlos zu nutzen.

Vorweg gesagt, die Google Webmaster Tools stehen nicht in Konkurrenz zu professionellen Tool-Anbietern wie zum Beispiel der Sistrix Toolbox, Searchmetrics Essentials, Searchmetrics Suite oder auch den Link Research Tools. Dennoch bietet Google mit dem hauseigenen Dienst eine grundlegende Übersicht über relevante Daten hinsichtlich der eigenen Website.

Anhand der gewonnen Daten können Probleme, Fehler und Einschränkungen diagnostiziert werden – zudem benachrichtigt Google den Webseitenbetreiber direkt über die Google Webmaster Tools im Falle von Problemen und ungewöhnlichen Veränderungen (signifikanter Anstieg der Suchanfragen, Malware, unnatürlicher Linkaufbau).

Bisherige Artikel zu den Google Webmaster Tools im comspace Blog

Google Webmaster Tools: Bevorzugte Domain

bevorzugte kanonische Domain in den Google Webmastertools festlegen

Die bevorzugte Domain ist die Domain, die in den Suchergebnissen angezeigt wird. Diese nennt man auch kanonische Domain – also die Hauptdomain einer Website.

Google Webmaster Tools und die bevorzugte Domain einstellen
Google Webmaster Tools und die bevorzugte Domain einstellen

Inhaberschaft für die Domains bestätigen

Das Festlegen einer bevorzugten Domain setzt die Inhaberschaft beider Domains (zum Beispiel www.comspace.de und comspace.de) voraus. Die bevorzugte Domain wird im Anschluss seitens Google für jeden Suchlauf und Crawling-Vorgang verwendet.

Der Vorteil einer kanonischen Domain und der entsprechenden Einstellung in den Google Webmaster Tools ist, dass Links von anderen Seiten zusammengeführt werden – das heisst sofern die Hauptdomain www.comspace.de ist, aber eine externe Seite einen Inhalt auf die Domain comspace.de verlinkt, betrachtet die Suchmaschine Google eben diesen Link so, als wäre dieser mit der bevorzugten Domain erstellt worden.

So können auch doppelte Inhalte vermieden werden

Gerade bei mehreren Domains mit demselben Inhalt besteht die Gefahr von duplicated Content, also doppelten Inhalten. Laut dem Suchmaschinenbetreiber Google besteht diese Gefahr genau dann, wenn keine bevorzugte Domain gewählt wurde, denn wenn die identischen Inhalte sowohl unter www.comspace.de als auch unter comspace.de abrufbar sind, werden diese als separate Seiten betrachtet. Und bekanntlich können doppelte Inhalte zur Abwertung bis hin zur Deindexierung  von Webseiten führen.

Dem entsprechend wird auch empfohlen, trotz der Festlegung einer bevorzugten Domain, die nicht bevorzugte Domain mittels 301-Redirect auf die kanonische Domain weiterzuleiten.

Wenn bis dato beide Domains in den Suchergebnissen aufgenommen wurden, kann es einige Zeit dauern, bis ausschließlich die bevorzugte Domain im Index der Suchmaschinen enthalten ist.

Google Webmaster Tools: Crawling-Geschwindigkeit

Google Webmaster Tools Crawling Geschwindigkeit

Das Crawling bezeichnet in erster Linie den Vorgang, mit dem veränderte und neue Inhalte bzw. Seiten ermittelt werden, um diese später in den Suchindex von Google aufzunehmen. Suchmaschinen, vorzugsweise Google, besitzen eine Vielzahl von Crawlern (z.B. der Googlebot), die täglich damit beschäftigt sind, so viele Inhalte wie möglich zu untersuchen.

Der Googlebot und die Crawling-Geschwindigkeit

Dieser Googlebot besucht mehrmals am Tag die eigene Webseite, in der Regel optimiert dabei Google selbst die Häufigkeit des Besuchs in Abhängigkeit der Größe einer Webseite und natürlich der gewohnten Schreibfrequenz. Dies bedeutet: sofern eine Webseite in der Regel mehrmals am Tag neue Inhalte veröffentlicht, wird diese im Vergleich zu einer kleinen Webseite mit wenigen inhaltlichen Änderungen im Monat häufiger besucht.

Wem dennoch die Besuchshäufigkeit des Googlesbots zu hoch erscheint, z.B. aufgrund des entstehenden Traffics / Datenvolumens, der kann diesen über die Google Webmaster Tools regulieren und somit eingrenzen.

Crawling Geschwindigkeit des Google Bots regulieren
Crawling Geschwindigkeit des Google Bots regulieren

Google selbst empfiehlt, die Crawling Geschwindigkeit nur in absoluten Ausnahmefällen, beispielsweise wenn dadurch die Geschwindigkeit/Performance des Servers deutlich verlangsamt wird, zu verändern.

Grundsätzlich sollte die Häufigkeit des Crawlings einer Webseite nicht verändert werden und der Rhythmus sollte seitens der Suchmaschinen bestimmt werden – schließlich möchten neue und bearbeitete Inhalte zeitnah in den Index aufgenommen werden und optimaler Weise direkt von potentiellen Besuchern und Kunden gefunden werden.

Probleme mit dem GoogleBot melden

Eine Anpassung der Crawling Geschwindigkeit ist in der Regel 90 Tage gültig und wird im Anschluss auf den Ausgangswert zurückgesetzt. Sollten tatsächlich durch den Googlebot signifikante Probleme auftauchen, so besteht auch die Möglichkeit die Probleme mit dem Googlebot zu melden (siehe Links zu weiteren Informationen in obiger Grafik).

Probleme mit dem Google Bot melden
Probleme mit dem Google Bot melden

Google Webmaster Tools: Sitelinks abwerten

Google Webmaster Tools Sitelinks abwerten

Die Sitelinks bilden die relevanten Navigationspunkte einer Website innerhalb des Suchergebnisses zu einem Webseitennamen ab. Die Sitelinks könnten nicht selbst definiert werden, sondern das übernimmt die Suchmaschine Google , indem sie die Seite analysiert und die wichtigsten Navigationspunkte für potentielle Besucher bereitstellt.

Sitelinks abwerten
Sitelinks abwerten

In den Suchergebnissen werden ausschließlich die Sitelinks angezeigt, die seitens Google für den Besucher als hilfreich erachtet werden. Inhalte, die als nicht relevant für den Besucher angesehen werden, sollten laut Google nicht angezeigt werden. Wobei die Erfahrung zeigt, dass auch Ergebnisse angezeigt werden, die eigentlich für den potentiellen Besucher keinen direkten Nutzen haben.

Sitelinks abwerten

Wenn Sitelinks angezeigt werden, die einem Besucher nach Auffassung des Seitenbetreibers nicht angezeigt werden sollen, besteht die Möglichkeit, bis zu 100 URLs abzuwerten – einziges Manko: die Anpassung bleibt in der Regel nur 90 Tage und nicht dauerhaft aktiv. Wer also in den Google Webmastertools nur unregelmäßig nach dem rechten schaut, dem kann es passieren, dass nach 90 Tagen in den Sitelinks wieder Inhalte präsentiert werden, die eigentlich nicht angezeigt werden sollen.

Google Webmaster Tools - Abwertung von Sitelinks
Google Webmaster Tools – Abwertung von Sitelinks

Zum Abwerten eines Sitelinks reicht es aus, den entsprechenden Link in die Maske der Google Webmaster Tools einzutragen. Es besteht sowohl die Möglichkeit einen relativen Pfad als auch einen absoluten Pfad einzutragen. (zu finden unter Website-Konfiguration -> Sitelinks.)

Es kann in der Regel ein paar Tage dauern, bis der Änderungswunsch durch die Suchmaschine übernommen wird.

Tipp – Sitelinks auch in Zukunft beobachten

Nachdem eine Abwertung durchgeführt wurde, sollte der Inhaber der Webseite die Sitelinks nach ein paar Tagen kontrollieren. Da die Suchmaschine Google keine Möglichkeit zur Bestimmung konkreter Sitelinks bereitstellt, besteht die Gefahr, dass alternativ ein ebenfalls unerwünschter Inhalt im Austausch mit dem abgewerteten Sitelink eingebunden wird.

Google Webmaster Tools: Geografische Zielausrichtung

Google Webmaster Tools Geografische Zielausrichtung

Die geografische Zielausrichtung erlaubt dem Websitenbetreiber direkt in den Google Webmaster Tools festzulegen, für welchen Sprachraum die Inhalte der Website geeignet sind.

Domains und Verzeichnisse zuordnen

Gerade wenn unter einer Domain mehrere Ländersprachen existieren und diese mithilfe von Verzeichnissen bzw. Hierarchie- Ebenen über die URL getrennt werden, können diese über die geografische Zielausrichtung einer Sprache zugeordnet werden. Dadurch erhält der Suchmaschinenbetreiber Google eine direkte Anordnung, dass die angegebene URL beispielsweise dem deutschen Sprachraum zugeordnet werden soll.

geografische Zielausrichtung einer URL
geografische Zielausrichtung einer URL

Das Ziel von Google ist es einem Nutzer die relevantesten und nützlichsten Suchergebnisse zu einer Suchanfrage zu liefern. Daher macht es in der Regel keinen Sinn, einem französischsprachigen Nutzer indische Inhalte anzubieten. Damit eine länderspezifische Zuordnung noch einfacher umgesetzt werden kann, nimmt Google mithilfe der geografischen Zielausrichtung die vom Webseitenbetreiber selbst eingetragenen Informationen zu Hilfe.

Grundsätzlich versucht Google jede Webseite zu kategorisieren und diese nebst einer Branche und verschiedenen Keywords auch einer Sprache zuzuordnen.

Generische Domains und die geografische Zielausrichtung

Gerade bei generischen Domain-Endungen wie z. B. „.org“, die grundsätzlich keinem Land direkt zugeordnet sind, kann der Webseitenbetreiber mit Hilfe der geografischen Zielausrichtung dem Suchmaschinenbetreiber Google mitteilen, zu welcher Sprachregion die Inhalte der Webseite passen, damit diese auch entsprechend in den Suchergebnissen dargestellt werden und die richtige Zielgruppe erreichen.

Google Webmaster Tools: XML-Sitemap

Die Google Webmaster Tools erlauben beispielsweise die Einbindung einer sogenannten XML-Sitemap, mit dem der Suchmaschine Google eine Liste aller verfügbaren Inhalte bzw. URLs übermittelt wird. Für die meisten Websitebetreiber ist nach Einreichen der Sitemap dieses Kapitel auch beendet, doch in den Google Webmaster Tools werden relevante Statistiken über die Sitemap preisgegeben.

Einreichen der Google Sitemap
Eingereichte und Indexierte Inhalte

Gleich die erste Übersicht zeigt dem Websitebetreiber, dass die eingereichten Inhalte in Typ „Webseiten“ und Typ „Bilder“ unterteilt werden. Außerdem zeigt die Statistik, wie viele Inhalte eingereicht und im Anschluss von der Suchmaschine in den Index aufgenommen wurden. Schön und gut? Nein, bereits hier sollte der Inhaber der Website sich überlegen, ob es korrekt ist, dass beispielsweise von 312 eingereichten Webseiten lediglich 81 im Index sind. Selbiges gilt natürlich auch für Bilder. Hat die Website eventuell Indexierungsprobleme, die mir als Betreiber bis dato nicht bekannt sind?

Im der darunter liegenden Übersicht werden die eingereichten Sitemaps aufgelistet. Wie viele man einreicht und ob man diese beispielsweise in Kategorien, Artikel, Schlagworte und so weiter unterteilt, ist jedem selbst überlassen. Aktive WordPress Nutzer können zum Beispiel mittels dem Plugin WP SEO by Yoast die Sitemaps unterteilen und diese bei Bedarf einreichen. Der Vorteil einer Unterteilung begründet sich mit einer besseren Übersicht, auch in den Google Webmaster Tools.

Fehler und Potentiale erkennen

In der nachfolgenden Übersicht ist klar zu erkennen, dass vier Sitemaps eingereicht wurden. Zum einen für vorhandene Kategorien, Seiten, Artikel und Schlagworte. Relevant sind hierbei die Punkte: Wann wurde meine Sitemap zuletzt verarbeitet? Wie viele Inhalte wurden eingereicht und vor allem, wie viele Seiten sind im Index?

Übersicht der Google Sitemaps
Übersicht der Google Sitemaps

Im Anschluss gilt es bei Bedarf zu untersuchen, warum weniger Seiten im Index sind als von einem selbst eingereicht wurden.

  • Weist meine Website Fehler auf und Google kann daher die Inhalte nicht indexieren?
  • Sind URLs auf noindex eingestellt?
  • Ich habe neue Inhalte, aber die XML wurde noch nicht wieder bearbeitet?

Es gibt verschiedene Gründe, warum URLs nicht im Index sind. Es muss aber nicht zwangsläufig immer ein Fehler vorliegen. Wer beabsichtigt, dass gewisse Inhalte nicht indexiert werden sollen, der verwendet das Meta-Tag Robots mit einem „noindex“, logsicherweise wird diese URL dann als eingereicht dargestellt, aber nicht in den Index aufgenommen.

Ebenso kann es sein, dass ich gerade erst einen Artikel veröffentlicht habe, in der Zwischenzeit die Sitemap seitens Google noch nicht abgerufen wurde und dem entsprechend die Seite nicht im Index ist. Wiederum kann es auch sein, dass die Seite im Index ist, die obige Grafik aber bis dato noch nicht aktualisiert wurde.

Fazit: Auswertung von XML-Sitemap Daten mithilfe der Google Webmaster Tools

Die Daten, welche die „Google Webmaster Tools“ bieten, geben jedem Websitebetreiber die Möglichkeit ohne große Schwierigkeiten zu erkennen, wie viele der eingereichten URLs auch tatsächlich in den Google Suchindex aufgenommen wurden. Des Weiteren lassen sich über diese Daten eventuelle Probleme bei der Indexierung von Inhalten erkennen – wenn weniger Inhalte im Index sind, als tatsächlich eingereicht wurden, muss aber auch nicht zwangsläufig ein Fehler vorliegen, sondern es kann auch beabsichtigt sein, dass vorab definierte URLs nicht indexiert werden sollen.