Sitecore Analytics versus Google Analytics

Sitecore AIDA

Dank des Erfolgs von Google Analytics gibt es mittlerweile viele Möglichkeiten, Nutzerdaten rund um die eigenen Webseiten zu sammeln, zu aggregieren und auszuwerten. So liefert auch Sitecore mit Experience Analytics ein Tool, dass die Arbeit rund um das Marketing vereinfachen und konkreter machen soll. Bei all den Gemeinsamkeiten, gibt es jedoch zwischen den beiden Webanalyse-Tools deutliche Unterschiede.

Sitecore Analytics

Grundsätzliches Ziel von Sitecore Analytics ist die Erfassung sämtlicher Interaktionen auf allen eigenen Webseiten. Zukünftig will Sitecore sogar On- und Offlinedaten in ein Nutzerprofil fließen lassen – hier erfahren Sie mehr über das Modul xConnect und andere aktuelle Themen vom Sitecore Symposium 2016 in New Orleans. Darüber hinaus werden die klassischen “Web Analytics”-Funktionen um die Möglichkeiten ergänzt, die eigene Marketing-Strategie zu messen, zu überprüfen und zu verfeinern. Personalisierung und Customer Experience stehen im Fokus des “Sitecore Experience Analytics”. Dazu orientiert sich Sitecore am AIDA-Modell: Analytics, Insights, Decisions und Automation.

Sitecore AIDA
Sitecore AIDA

Vorteile von Sitecore Analytics sind:

  • Dashboard-Lösung, integriert in die Sitecore Experience Marketing-Plattform.
  • Möglichkeit der Echtzeitanalyse.
  • Path Analyzer: Dieser deckt die Herkunft und das Navigationsverhalten der User Ihrer Webseite auf.
  • Durchführung von A/B und multivariater Tests.
  • Messung und Bewertung des Nutzerverhaltens und deren Interaktion mit Ihren Webseiten-Inhalten.
  • Personalisierung: alle Informationen zu jedem individuellen User werden zu einem Profil aggregiert. Das Surfverhalten auf der Webseite, die Klicks in E-Mail-Kampagnen bis hin zu Social Media-Interaktionen können dabei einbezogen werden.
  • Gezielte Performance-Messung von Marketingkampagnen.
  • Alle Anstrengungen rund um Datengewinnung und -auswertung sind auf Marketing Automation und Predictive Marketing ausgerichtet.
  • Kostenfrei – wenn Sie bereits Sitecore-Nutzer sind.
Sitecore 8.3 PathAnalyzer
Sitecore 8.3 PathAnalyzer, Foto: Friederike Heinze

Nachteile von Sitecore Analytics:

  • Die Oberfläche ist vergleichsweise wenig intuitiv und sehr Sitecore-spezifisch.
  • Wie in allen mächtigen Tools benötigt man entsprechend Zeit um sich in die Funktionen einzuarbeiten.
  • Die Sitecore-Community ist im Vergleich zu Google eher übersichtlich und benötigtes Wissen und Informationen kann man sich nicht einfach “ergooglen”.

Was macht Sitecore Analytics jetzt so besonders? Mit der Sitecore Experience Platform können Inter-/Aktionen Werte zugeordnet werden. So können Nutzer unterschiedlich priorisiert und mit für sie relevanten Informationen versorgt werden. Diese Informationen (“business values”) liegen nur Sitecore Analytics vor und können komfortabel ausgewertet werden.

Die Möglichkeiten Traffic in Konversion umzuwandeln grenzt die Sitecore Experience Platform mit Sitecore Analytics von anderen Analyse-Tools deutlich ab.

Google Analytics

Das wohl am meisten genutzte Web-Analyse Tool sticht vor allem durch seinen umfassenden Funktionsumfang und seine attraktive Bedien- und  Nutzeroberfläche hervor.

Google Analytics Dashboard
Google Analytics Dashboard

Wie funktioniert Google Analytics?

Im Grunde gibt es 4 Prozessstufen, die durchlaufen werden:

  1. Collection – hier werden Daten gesammelt und beschafft. Die Möglichkeiten sind dabei vielfältig und reichen vom eingebundenen Javascript-Code bis zum “Measurement Protocol”, welches Daten von beliebigen, mit dem Internet verbundenen Endgeräten an Google Analytics sendet.
  2. Processing – Die erhobenen Daten werden nach Maßgabe der “Configuration” gespeichert und verarbeitet.
  3. Configuration – im Backend können individuelle Einstellungen vorgenommen werden, mit denen die gewünschten Analyse-Daten vorab festgelegt werden. Google erfasst dann nur die Daten, die im Rahmen der Konfiguration definiert wurden. Hier können fehlerhafte Einstellungen langfristige Folgen haben.
  4. Reporting – Die Daten können im letzten Schritt überwacht und ausgewertet werden. Ein übersichtliches Dashboard erlaubt einen einfachen Einstieg in Google Analytics.

Vorteile von Google Analytics sind:

  • Es ist grundsätzlich erstmal kostenlos.
  • Es ist für fast jede Unternehmensgröße geeignet.
  • Eine Google-typische intuitive Oberfläche und einfache Schnittstellenkommunikation mit anderen Google-Produkten erlauben eine komfortable Konten-Verwaltung.
  • Es existiert eine umfassende Community.
  • Informationen und Wissen sind vielseitig verfügbar, z.B. über Filter-Templates oder YouTube-Tutorials.
  • Zielvorhaben (“Goals”), wie Google die Conversion-Ziele nennt, können Aufgaben und Aktivitäten zugewiesen werden.
  • Google Analytics lässt sich mit anderen Tools Verknüpfen (Bsp.: Adwords, Adsense etc).

Nachteile von Google Analytics:

  • Die Daten erlauben keine Aussagen über einzelne Nutzer-Sessions.
  • Die Daten liegen in der Cloud bei Google.
  • Nutzer können unter Umständen das Tracking verhindern, z.B. mittels privacy-PlugIns.
  • Der Einsatz von Google Analytics 360 Suite als Enterprise-Lösung ist nicht kostenlos.
  • Gesammelte Daten werden nicht als Rohdaten, sondern nur in der festgelegten Konfiguration gespeichert.
  • Es werden durch Einsatz des “Samplings” nicht alle Daten erfasst, sondern nur hochgerechnete Stichproben.

Wo liegt der konkrete Unterschied?

Vereinfacht gesagt: Googles Stärke liegt in der Datenverdichtung und -folgerung. Das Tool liefert quasi out-of-the-box die wichtigsten KPI’s und erlaubt damit eine breit aufgestellte, einfache Berichterstattung. 

Sitecore Analytics analysiert die Nutzerinteraktionen kanalübergreifend und in einer Detailtiefe, die Google nicht bieten kann. Die Stärke liegt in der nachhaltigen und umfassenden Verfügbarkeit der Daten und vor allem der Möglichkeit, langfristig einzelne Kundenprofile detailliert anzureichern um eine 360°-Sicht auf den Kunden zu bekommen. 

Fazit

Google Analytics und Sitecore Experience Analytics sind beides wichtige Webanalyse-Tools und haben je nach Anwendungsfall, Budget und Anspruch beide ihre Daseinsberechtigung. Für ein nachhaltiges, kundenzentriertes Marketing bietet jedoch Sitecore Analytics mehr Möglichkeiten detaillierte Informationen rund um die Kunden zu gewinnen und dadurch gezielte Maßnahmen umzusetzen.

Ideal ist natürlich der gemeinsame Einsatz beider Tools, um im Zusammenspiel die Webseiten-Performance und die Effektivität von Marketingaktivitäten zu überprüfen und schließlich gezielt zu optimieren.

Trotz aller Vorteile von frei zugänglichem Wissen kann man in dieser komplexen Thematik bei all den Funktionen, Tipps und Anleitungen schon mal den Überblick verlieren, vor allem, wenn man sich nicht tagtäglich damit beschäftigt.

Sollten Sie weitere Fragen zur Webanalyse haben, sprechen Sie uns gerne an.

 

14.12.2016 – kleines Update:

Dieser Blogbeitrag reduziert und vergleicht die Eigenschaften beider Tools auf drei Ebenen nochmals anschaulich. Dabei wird deutlich das die Stärke von Google Analytics in der Segmentierung von Daten liegt und Sitecore Analytics auf angereicherte Datenprofile zur Echtzeit-Optimierung setzt.

Google Webmaster Tools: Crawling Fehler im Blick haben

Crawling Fehler

Der Navigationspunkt „Crawling Fehler“ unter dem Menüpunkt „Crawling“ gehört zu den wichtigsten Features im Angebot der Google Webmaster Tools. Anhand der Daten lassen sich unter anderem DNS- sowie Server-Verbindungsprobleme erschließen.

In den nachfolgenden Übersichten wird grob aufgelistet, wie viele vermeintliche Fehler für eine Website seitens Google gefunden wurden – unterschieden wird hierbei zwischen Web und Mobile-Version der Website. Die gefundenen Fehler werden in der Regel in die Bereiche „Serverfehler“, „Zugriff verweigert“, „Nicht gefunden“, „Nicht aufgerufen“ sowie „Sonstiges“ unterteilt.

Google Webmaster Tools - Crawling Fehler
Google Webmaster Tools – Crawling Fehler

Die Übersichten eignen sich in erster Linie dazu, einen groben Überblick der Fehler zu erhalten. Erst wenn der Anwender tiefer ins Detail geht, werden die dargestellten Ergebnisse interessanter und die Fehlerquellen ersichtlich.

Google Webmaster Tools Serverfehler 500
Google Webmaster Tools Serverfehler 500

Die dargestellten Informationen, dem entsprechend auch die Grafiken, sind grundsätzlich abhängig von der jeweiligen Website. Das bedeutet, ein Ergebnis für eine bestimmte Website aus den Google Webmaster Tools kann nicht pauschal auf andere Websites übertragen werden.

Empfehlung: Es ist empfehlenswert, regelmäßig in die Google Webmaster Tools zu schauen und sich dabei die Website-Fehler anzeigen zu lassen, denn dadurch lassen sich vermeintliche und bis zum jetzigen Zeitpunkt unbekannte Fehlerquellen erschließen und im optimalen Fall sofort beheben.

Wenn ein Fehler zu einer bestimmten URL behoben wurde, sollte dies auch im Anschluss der Suchmaschine Google über die vorhandenen Schaltflächen („Als korrigiert markieren“) mitgeteilt werden. Nur so kann sichergestellt werden, dass Google die Inhalte wiederum zeitnah besucht und im Anschluss indexiert.

Google Disavow Tool zur Abwertung von Links

Um das sogenannte Disavow Tool ranken sich mittlerweile die verschiedensten Geschichten. Das Linkentwertungstool aus dem Hause Google wird mittlerweile auch als Druckmittel verwendet, weil nach wie vor einige Website-Betreiber dem Irrglauben unterliegen, dass mithilfe dieses Tools Websites in ihrer Wertigkeit abgestuft werden können.

Es gibt verschiedene Kriterien anhand dessen Google Websites eine Wertigkeit vergibt, natürlich verrät Google nicht, welche Kriterien mit welcher Gewichtung am Ende tatsächlich in den Algorithmus einfließen. Allerdings weiß wohl jeder Webseitenbetreiber, spätestens seit dem sogenannten Pinguin Update, dass Backlinks nach wie vor einen relevanten Faktor darstellen, schlechte Backlinks aber zur Abwertung von Websites führen können.

Google Disavow Tool - Links für ungültig erklären

Google ist bemüht Websites zu bewerten und diese anhand der Bewertung in den Suchergebnissen zu positionieren. Darein fließen auch Backlinks, je nach Qualität, mit positiver wie auch negativer Auswirkung in das Ranking ein. Im Zuge verschiedener Algorithmus-Updates und Erweiterungen hat Google gezeigt, dass Websites, deren Links manuell aufgebaut werden, erkannt werden und dem entsprechend auch abgewertet werden können. Zeitgleich stellt Google das sogenannte Disavow Tool zur Verfügung, mit dem Links für ungültig erklärt werden können.

Das Disavow Tool, wird eingesetzt wenn…

Es gibt verschiedene Gründe, aus denen das Disavow Tool zum Einsatz kommen kann. Beispielsweise kann ein Konkurrent auf die Idee kommen, eine Website durch Spamlinks in die ewigen Jagdgründe schicken zu wollen. Ferner kann der Websitebetreiber auch eigene Links, auf schwachen und nicht relevanten Seiten, aufgebaut haben. Die Gründe sind unterschiedlich, allerdings die Ursache in der Regel identisch.

Aktuell erhalten viele Blogger entsprechende Nachrichten, dass Links, die in Kommentaren gesetzt wurden, unter Androhung des Einsatzes des Disavow Tool schleunigst zu entfernen sind. Der Irrglaube, dass mit dem Disavow Tool anderen Websites geschadet werden kann, existiert eigentlich schon seit der ersten Version des Tools. Doch das Disavow Tool dient lediglich dazu, der Suchmaschine Google mitzuteilen, dass in der Vergangenheit ein Fehler gemacht wurde und eventuell Links manuell aufgebaut wurden oder andere Personen diese aufgebaut haben. Links werden somit als nicht gültig erklärt – eine Website wird dadurch nicht abgewertet, das wäre auch für die organische Suche mehr als fatal, auch wenn die bezahlten Ergebnisse von Jahr zu Jahr stärker in den Fokus rücken.

Funktionsweise des Disavow Tool

Die Funktionsweise des Disavow Tool ist denkbar einfach: Zu allererst gilt es die Links zu identifizieren, die den Schaden verursacht haben. Diese müssen einfach in einer CSV-Datei oder Textdatei untereinander aufgeführt werden.

Disavow-Tool URLs
Disavow-Tool URLs

Im Anschluss muss natürlich das Online-Tool unter https://www.google.com/webmasters/tools/disavow-links-main aufgerufen werden. Im nächsten Schritt muss die entsprechende Domain, die vorher in den Google Webmaster Tools verifiziert wurde, ausgewählt werden.

Disavow-Tool Domain
Disavow-Tool Domain

Nachdem die gewünschte Domain, deren Links als ungültig eingestuft werden sollen, ausgewählt wurden, muss natürlich die vorgefertigte Text-Datei oder CSV eingebunden werden. Im Anschluss kann die Datei über den Button „Senden“ an Google übermittelt werden.

Disavow-Tool Links ungültig
Disavow-Tool Links ungültig

Nun heißt es abwarten, bis Google die Ungültigkeitserklärung übernimmt und die vermeintlich negativen URLs aus der Berechnung entfernt.

Disavow-Tool Erfolg
Disavow-Tool Erfolg

Mit dem Einsatz des Disavow Tool schadet man nicht der Website, welche auf die eigene Website verlinkt, sondern sorgt lediglich dafür, dass die Links nicht mehr in die Bewertung der Website mit einfließen. Google ist anhand seines Algorithmus selbst in der Lage die Website, von der auch der Link stammt, zu bewerten.

Google Webmaster Tools: Serverfehler

Ein sogenannter Serverfehler bedeutet, dass der Googlebot eine Unterseite – oder sogar die komplette Seite – nicht abrufen konnte und für eine Abfrage innerhalb eines festgelegten Zeitlimits keine Rückmeldung erhalten hat oder der Zugriff auf die gewünschte URL wurde verweigert. Somit wird der Googlebot genötigt, die Anfrage abzubrechen.

Google Webmaster Tools - Serverfehler (500)
Google Webmaster Tools – Serverfehler (500)

In der obigen Grafik wird beispielhaft dargestellt, wie dem Anwender über die Google Webmaster Tools mitgeteilt wird, dass eine URL der eigenen Website einen Antwortcode 500 liefert und dieses Problem am 08. Mai 2013 erkannt wurde.

Um mehr Details zu der entsprechenden URL zu erfahren, reicht ein Klick auf diese URL, um das nachfolgende Popup zu öffnen.

Google Webmaster Tools - Serverfehler 500 im Detail
Google Webmaster Tools – Serverfehler 500 im Detail

Die Fehlerdetails sind eindeutig – der Googlebot hat bereits am 07.05.2013 versucht, besagte URL aufzurufen und konnte diese bzw. durfte diese URL möglicherweise nicht aufrufen. Eine weitere Überprüfung seitens der Suchmaschine Google erfolgte am 08.05.2013 – denn auch Google weiß, dass eine Website kurzfristig ausfallen kann und daher wird durch einen weiteren Versuch überprüft, ob das Problem weiterhin vorhanden ist.

Step 1: Warum geht die URL nicht

Im ersten Schritt gilt es für den Anwender zu überprüfen, warum diese URL für den Suchmaschinen-Bot nicht zu erreichen war bzw. warum genau diese Seite einen Antwortcode 500 liefert. Der Antwortcode 500 ist per Definition ein „Sammel-Statuscode“ für unerwartete Serverfehler.

Der comspace-Blog basiert auf WordPress. Anhand der URL ist zu erkennen, dass eine Vorschau-URL generiert wurde, die für den Google-Bot erreichbar war bzw. ist. Wenn die URL in einem aktuellen Browser abgerufen wird, so erhält der Anwender die Nachricht „Du hast nicht die erforderlichen Rechte, um die Entwurfsvorschau zu sehen.“ Im Fall von WordPress kann dies zwei Ursachen haben: Entweder ist der Link für die Entwurfsvorschau bereits abgelaufen oder eben der Anwender ist nicht angemeldet und kann dem entsprechend den Inhalt nicht lesen – aus Sicht des Anwenders eigentlich kein Problem. Das eigentliche Problem ist aber, dass hier eine URL der Suchmaschine zugänglich gemacht wurde, obwohl diese für die Suchmaschinen nicht bestimmt ist.

Step 2: Wie wurde die URL den Suchmaschinen zugänglich gemacht?

Dazu bieten die Google Webmaster Tools im gleichen Popup zwei Navigationspunkte namens „In Sitemaps“ und „Verlinkt über“. Im ersten Navigationspunkt kann überprüft werden, ob die Vorschau-URL beispielsweise in einer XML-Sitemap eingebunden ist und dem entsprechend von den Suchmaschinen wahrgenommen wird. Wie die nachfolgende Grafik beweist, ist diese URL zumindest nicht in der eingebunden XML-Sitemap enthalten.

Serverfehler durch die Sitemap
Serverfehler durch die Sitemap

Der nächste Navigationspunkt erlaubt dem Anwender, die externen Verweise auf diese URL zu überprüfen und wie sich zeigt, wurde mittels Short-URL Dienst „ow.ly“ eine verkürzte URL zur einfachen Verbreitung der Vorschau erzeugt.

Serverfehler - verlinkende Seiten
Serverfehler – verlinkende Seiten

Bei der Überprüfung des externen Links erkennt man, dass dieser auf die obige Vorschau-URL weiterleitet. Es obliegt dem Anwender nun eine Lösung für dies Problem zu finden.

Lösungsansätze

Die Probleme sind grundsätzlich immer individuell und dem entsprechend gibt es keine pauschale Lösung, die sich auf jeden Serverfehler bzw. Antwortcode im Bereich 5xx übertragen lässt. Hinsichtlich der obigen Problematik gibt es einige Lösungsansätze, mit denen versucht werden kann, den seitens der Google Webmaster Tools angezeigten Serverfehler zu beheben.

URL weiterleiten

Sinnvollerweise sollte die URL auf den entsprechenden Artikel weitergeleitet werden – dazu kann eine Weiterleitungsregel (301 Redirect) in die htaccess eingebunden werden. Alternativ gibt es bei einigen Content Management Systemen eine Reihe von Plugins, die gerade für unerfahrene Nutzer in sehr einfacher Form die Möglichkeit bieten, bei Bedarf Weiterleitungen (301, 302, 307) zu erstellen.

Was tun, wenn kein Artikel existiert?

Häufig wird der Fehler gemacht, dass bei Artikeln, die nicht (mehr) existieren, die URL mittels einer Weiterleitung auf die Startseite umgeleitet werden. Dies sollte grundsätzlich vermieden werden, damit Suchmaschinen die Startseite nicht als allgemeine 404-Fehlerseite einstufen.

Im Idealfall wird eine URL auf einen neuen identischen Artikel weitergeleitet. Ist diese Möglichkeit nicht gegeben, empfiehlt es sich einen Redirect auf die nächst höhere Hierarchie-Ebene zu setzen.

Wenn aus irgendwelchen Gründen keine Weiterleitungen erstellt werden, ist es zwangsläufig notwendig, eine 404-Fehlerseite zu erstellen. Eine 404 Fehlerseite sollte grundsätzlich als Anleitung für den Nutzer dienen und ihm die Möglichkeit bieten, weiterhin mit einer Website zu arbeiten – dies kann durch Vorschläge geschehen („Meinten Sie vielleicht…?“). Auch bei einer 404 Fehlerseite gilt es den Nutzer abzuholen und ihn zu dem für ihn relevanten Inhalt zu geleiten.

URL sperren (Robots.txt)

Der Zugriff auf einzelne Dateien, Verzeichnisse sowie URLs kann für die Suchmaschinen-Bots (auch Robots) mithilfe einer „Robots.txt“ eingeschränkt werden. Bevor eine Website gecrawlt wird, überprüfen sogenannte Robots der jeweiligen Suchmaschinen, ob Einschränkungen für die Website bestehen. In der Regel übernehmen die meisten Suchmaschinen beim Crawl-Vorgang die Einschränkungen und besuchen die „gesperrten“ Inhalte nicht.

Zusätzlich kann in den Google Webmaster Tools unter „Google Index ->URLs entfernen“ die entsprechende URL eingetragen werden. Dadurch wird diese in der Regel schneller aus dem Index entfernt.

So einfach die Methode auch klingt, schützt diese nicht 100 % davor, dass die URL wieder in den Index aufgenommen wird. Sofern andere Websites auf die entsprechende URL verlinken, kann der Fall eintreten, dass diese zumindest teilweise in den Suchindex aufgenommen wird – dabei wird der Titel der Seite übernommen, allerdings die Meta-Description aufgrund der vorhandenen Robots.txt nicht.

Lösung – noindex

Es gibt eine funktionierende Lösung, sofern die Robots.txt genutzt wird und die Seite dauerhaft aus dem Index entfernt werden soll – das Zauberwort nennt sich Meta-Robots mit dem Wert „noindex“.

Einige CM-Systeme sind in der Lage, von Haus aus die Meta-Robots zu bearbeiten. Bei WordPress kann dies unter anderem durch den Einsatz eines Plugins gelöst werden – setzt aber dann auch voraus, dass die Seite tatsächlich existiert.

Google Webmaster Tools: Falsche 404-Fehler (Soft 404)

In den Google Webmaster Tools gibt es eine Unterscheidung zwischen „Seite nicht gefunden“ und sogenannte „falsche 404-Fehler“.

Wenn eine angeforderte Seite nicht vorhanden ist, wird seitens des Servers in der Regel ein 404-Fehler (Seite nicht gefunden) zurückgegeben. Mithilfe des Antwortcodes wird dem Browser (bzw. dem Client/Anwender) wie auch den Suchmaschinen mitgeteilt, dass angefragte Inhalte nicht existieren – dem entsprechend kann der Inhalt auch weder gecrawlt noch indexiert werden.

Wenn allerdings kein 404-Antwortcode zurückgegeben wird, dennoch eine 404-Inhaltsseite dem Anwender angezeigt wird, nennt sich dies „Soft 404“ bzw. „Falscher 404-Fehler“.

Google Webmaster Tools - 404 Soft Fehler
Google Webmaster Tools – 404 Soft Fehler

Das bedeutet, nur weil eine Seite „Seite nicht gefunden“ anzeigt, bedeutet dies nicht, dass es sich um eine echte 404-Seite handelt – damit diese auch als 404-Seite erkannt wird, ist es zwingend notwendig einen entsprechenden HTTP-Antwortcode zu übermitteln.

404-Softfehler behindern das Website-Crawling

Webseiten und Inhalte sollen im Sinne des Website-Betreibers so schnell wie möglich in den Index aufgenommen werden. Allerdings können sich sogenannte 404-Softfehler als Tempobreme für den Suchmaschinen-Crawler entpuppen.

Suchmaschinen-Crawler gehen bei 404-Softfehlern davon aus, dass sich unter der URL relevante Inhalte befinden könnten, da die Inhalte nicht eindeutig als 404-Fehler klassifiziert werden konnten. Dadurch läuft der Website-Betreiber Gefahr, dass neue Inhalte erst später erfasst werden, da sich der Suchmaschinen-Crawler für die 404-Softfehler interessiert. Des bedeutet auch, dass die eigentlichen 404-Softfehler seitens der Suchmaschinen indexiert werden.

Google empfiehlt beispielsweise die Verwendung der Antwortcodes 404 für „Seite nicht gefunden“ und/oder 410 für „die Seite/der Inhalt wurde gelöscht“.

HTTP-Antwortcode überprüfen

Es gibt sicherlich das ein oder andere Tool und Browser-Addon (z.B. Firebug), das die Möglichkeit schafft, sich den HTTP-Code einer Seite ausgeben zu lassen. Aber mithilfe der Google Webmaster Funktion „Abruf wie durch Google“, die bereits im Artikel „Beschleunigte Indexierung durch die Google Webmaster Tools“ beschrieben wurde, kann eine Seite aus Sicht der Suchmaschine heruntergeladen werden – womit auch direkt geklärt wird, wie der Google-Crawler diese Seite tatsächlich sieht.

HTTP-Antwortcode überprüfen
HTTP-Antwortcode überprüfen

Fazit und Empfehlung

Wie eigentlich bei jeder Fehlermeldung hinsichtlich der Crawling-Ergebnisse in den Google Webmaster Tools ist auch bei den einfachen 404-Softfehlern eine regelmäßige Kontrolle notwendig – nicht immer ist die Suchmaschine Google so heroisch und weist uns im Detail auf die Fehler und Probleme einer Website hin.

Nach Behebung der Probleme gilt es, diese auch in den Webmaster Tools als korrigiert zu markieren, damit die Inhalte bzw. URL zeitnah von der Suchmaschine untersucht werden kann.

Erfahrungen bei der Migration unserer Website von OpenText auf Sitecore

In einem kürzlich erschienenen Blogbeitrag sind wir darauf eingegangen, warum eine automatisierte Migration von Inhalten beim Wechsel des Content Management Systems in der Regel nicht empfehlenswert ist. Denn meistens gehen mit der technischen auch strukturelle Veränderungen der Website einher:  Die Navigationsstruktur wird geändert, Themenbereiche fallen weg, werden ergänzt oder an eine andere Stelle geschoben.

Hinweis: Wenn Sie wegen unsere Vortrags auf der dmexco 2014 auf diesen Beitrag gestoßen sind und Fragen zur CMS-Migration haben, können Sie hier gerne Kontakt zu uns aufnehmen

Von Ausnahmen abgesehen. Eine solche Ausnahme haben wir anlässlich des Umzugs unserer Website auf ein neues CMS für uns in Anspruch genommen und einen Selbstversuch gestartet. Gründe für die automatisierte Content-Migration waren:

  • Es handelte sich bei uns um eine rein technische Migration unserer Website von einem CMS auf ein anderes. Inhalte und Strukturen blieben unverändert.
  • Mit dem Ziel, Erfahrungen mit einer Portierung zu sammeln, haben wir bei der Gelegenheit das Migrations-Tool Siteport getestet.

Aber beginnen wir von vorne:

Im Herbst 2012 haben wir beschlossen, unsere comspace-Website auf eine neue technologische Basis zu stellen: statt wie in den vergangenen Jahren die Website in OpenText zu pflegen, sollte dies zukünftig in dem Content Management System Sitecore geschehen. Warum Sitecore? Der CMS-Hersteller gehört lt. den Analysten von Gartner immer wieder zu den innovativsten und visionärsten WCMS-Anbietern und als Sitecore-Technologiepartner wollten wir das System nicht „nur“ bei unseren Kundenprojekten implementieren, sondern auch als Anwender einmal tiefer in die Materie einsteigen und zusätzliche Praxiserfahrungen sammeln (Lesen Sie weitere Details zu den Gründen für den CMS-Wechsel auf unserer Website).

Der Weg der Migration

Da Änderungen an Struktur und Inhalten unserer Website erst einmal nicht vorgesehen waren, handelte es sich nur um eine technische Migration der Seite. Um den Aufwand klein zu halten, wurde eine automatisierte Contentmigration als Weg geprüft. Unser Partner Oshyn (Los Angeles) hat für diesen Zweck das Modul Siteport entwickelt. Dieses beschlossen wir einmal zu testen, auch wenn das Modul damals einen noch rudimentären Entwicklungsstand hatte.

Über Web-Services stellt Siteport die Verbindung zwischen beiden Content Management Systemen her. Das System migriert dabei nicht nur Inhalte, sondern auch Templates, Nutzer, Gruppen, Workflows und Metadaten. Nach heutigem Stand unterstützt Siteport die Plattformen Sitecore, OpenText (RedDot), EPiServer, Drupal, Ektron und XML.

Einen kleinen Einblick in die Migration mit Hilfe von Siteport vermittelt das folgende Video.

[iframe width=“640″ height=“360″ src=“http://www.youtube.com/embed/5tXZ42qfrfI?feature=player_detailpage“ frameborder=“0″ allowfullscreen]

Unsere Erfahrungen mit dem Siteport Tool

Da das Migrationstool zu dem damaligen Zeitpunkt nur jeweils eine Sprachversion migrieren konnte (mittlerweile unterstützt Siteport auch Mehrsprachigkeit), konnten wir lediglich die englischen Texte automatisiert überführen und mussten die deutschen Texte manuell einpflegen. Trotz der hilfreichen und Zeit sparenden Unterstützung durch die Migrations-Software zeigte unser „Selbstversuch“, dass eine automatisierte 1:1-Migration mit Siteport (noch) nicht vollständig möglich ist. So werden verschachtelte Container-Strukturen von bspw. Slidern, Tabbing- oder Accordeon-Modulen in Sitecore anders abgebildet als in OpenText. Darüber hinaus konnten einige spezielle Feldtypen wie Datum oder URL noch nicht adäquat gemapped werden.

An dieser Stelle einen großen Dank an die Oschyn-Kollegen für die gute Zusammenarbeit: Über welches Problem auch immer unsere Entwickler stolperten, stets bekamen sie ein offenes Ohr und prompten Support von den Siteport-Experten. 

Weitere Videos, bspw. zur Möglichkeit der Migration von mehrsprachigen Websites finden Sie auf dem Siteport Software YouTube Channel.

Die Google Webmaster Tools – das Warum

Warum die Google Webmaster Tools nutzen?

Um die wertvollen Daten der Google Webmaster Tools auch nutzen zu können, bedarf es lediglich der Erstellung eines Nutzerkontos bei Google – mithilfe des Nutzerkontos stehen mehrere Dienste wie auch Google Analytics dem Kontoinhaber zur Verfügung.

Google Webmaster Tools - Anmelde Oberfläche
Google Webmaster Tools – Anmelde Oberfläche

Mittlerweile unterteilen sich die Google Webmaster Tools in die Bereiche Konfiguration, Status, Zugriffe, Optimierung und Google Labs. Nebst diesen Bereichen gibt es ein einleitendes Dashboard, das den aktuellen Status zu Crawling-Fehler, Suchanfragen und der Sitemap widerspiegelt.

Der signifikanteste Grund, warum der Einsatz der Google Webmaster Tools für jeden Anwender Sinn macht, ist dass die Daten von Google zum einen relativ aktuell sind und zum anderen direkt vom Marktführer im Bereich der Suchdienste stammen. Damit hat der Webseitenbetreiber die „vertrauenswürdigste“ Quelle als Lieferant für Daten über die eigene Webseite.

Bedenken sollte der Anwender aber auch, dass die Daten, die von Google kommen, grundsätzlich begrenzt sind und Google nicht sämtliche Informationen, die uns als relevant erscheinen, anzeigen wird. Zwar verbietet Google die Optimierung (bzw. Suchmaschinenoptimierung) von Webseiten und Inhalten nicht, wird dies aber auch nur bis zu einem gewissen Rahmen unterstützen (Google Webmaster Richtlinien).

Warum sollten die Google Webmaster Tools genutzt werden?

Unabhängig davon ob SEO Agentur, Unternehmen oder einfacher Hobby-Webmaster, ein jeder hat die Möglichkeit, die Google Webmaster Tools kostenlos zu nutzen.

Vorweg gesagt, die Google Webmaster Tools stehen nicht in Konkurrenz zu professionellen Tool-Anbietern wie zum Beispiel der Sistrix Toolbox, Searchmetrics Essentials, Searchmetrics Suite oder auch den Link Research Tools. Dennoch bietet Google mit dem hauseigenen Dienst eine grundlegende Übersicht über relevante Daten hinsichtlich der eigenen Website.

Anhand der gewonnen Daten können Probleme, Fehler und Einschränkungen diagnostiziert werden – zudem benachrichtigt Google den Webseitenbetreiber direkt über die Google Webmaster Tools im Falle von Problemen und ungewöhnlichen Veränderungen (signifikanter Anstieg der Suchanfragen, Malware, unnatürlicher Linkaufbau).

Bisherige Artikel zu den Google Webmaster Tools im comspace Blog

Google Webmaster Tools: Bevorzugte Domain

bevorzugte kanonische Domain in den Google Webmastertools festlegen

Die bevorzugte Domain ist die Domain, die in den Suchergebnissen angezeigt wird. Diese nennt man auch kanonische Domain – also die Hauptdomain einer Website.

Google Webmaster Tools und die bevorzugte Domain einstellen
Google Webmaster Tools und die bevorzugte Domain einstellen

Inhaberschaft für die Domains bestätigen

Das Festlegen einer bevorzugten Domain setzt die Inhaberschaft beider Domains (zum Beispiel www.comspace.de und comspace.de) voraus. Die bevorzugte Domain wird im Anschluss seitens Google für jeden Suchlauf und Crawling-Vorgang verwendet.

Der Vorteil einer kanonischen Domain und der entsprechenden Einstellung in den Google Webmaster Tools ist, dass Links von anderen Seiten zusammengeführt werden – das heisst sofern die Hauptdomain www.comspace.de ist, aber eine externe Seite einen Inhalt auf die Domain comspace.de verlinkt, betrachtet die Suchmaschine Google eben diesen Link so, als wäre dieser mit der bevorzugten Domain erstellt worden.

So können auch doppelte Inhalte vermieden werden

Gerade bei mehreren Domains mit demselben Inhalt besteht die Gefahr von duplicated Content, also doppelten Inhalten. Laut dem Suchmaschinenbetreiber Google besteht diese Gefahr genau dann, wenn keine bevorzugte Domain gewählt wurde, denn wenn die identischen Inhalte sowohl unter www.comspace.de als auch unter comspace.de abrufbar sind, werden diese als separate Seiten betrachtet. Und bekanntlich können doppelte Inhalte zur Abwertung bis hin zur Deindexierung  von Webseiten führen.

Dem entsprechend wird auch empfohlen, trotz der Festlegung einer bevorzugten Domain, die nicht bevorzugte Domain mittels 301-Redirect auf die kanonische Domain weiterzuleiten.

Wenn bis dato beide Domains in den Suchergebnissen aufgenommen wurden, kann es einige Zeit dauern, bis ausschließlich die bevorzugte Domain im Index der Suchmaschinen enthalten ist.

Google Webmaster Tools: Crawling-Geschwindigkeit

Google Webmaster Tools Crawling Geschwindigkeit

Das Crawling bezeichnet in erster Linie den Vorgang, mit dem veränderte und neue Inhalte bzw. Seiten ermittelt werden, um diese später in den Suchindex von Google aufzunehmen. Suchmaschinen, vorzugsweise Google, besitzen eine Vielzahl von Crawlern (z.B. der Googlebot), die täglich damit beschäftigt sind, so viele Inhalte wie möglich zu untersuchen.

Der Googlebot und die Crawling-Geschwindigkeit

Dieser Googlebot besucht mehrmals am Tag die eigene Webseite, in der Regel optimiert dabei Google selbst die Häufigkeit des Besuchs in Abhängigkeit der Größe einer Webseite und natürlich der gewohnten Schreibfrequenz. Dies bedeutet: sofern eine Webseite in der Regel mehrmals am Tag neue Inhalte veröffentlicht, wird diese im Vergleich zu einer kleinen Webseite mit wenigen inhaltlichen Änderungen im Monat häufiger besucht.

Wem dennoch die Besuchshäufigkeit des Googlesbots zu hoch erscheint, z.B. aufgrund des entstehenden Traffics / Datenvolumens, der kann diesen über die Google Webmaster Tools regulieren und somit eingrenzen.

Crawling Geschwindigkeit des Google Bots regulieren
Crawling Geschwindigkeit des Google Bots regulieren

Google selbst empfiehlt, die Crawling Geschwindigkeit nur in absoluten Ausnahmefällen, beispielsweise wenn dadurch die Geschwindigkeit/Performance des Servers deutlich verlangsamt wird, zu verändern.

Grundsätzlich sollte die Häufigkeit des Crawlings einer Webseite nicht verändert werden und der Rhythmus sollte seitens der Suchmaschinen bestimmt werden – schließlich möchten neue und bearbeitete Inhalte zeitnah in den Index aufgenommen werden und optimaler Weise direkt von potentiellen Besuchern und Kunden gefunden werden.

Probleme mit dem GoogleBot melden

Eine Anpassung der Crawling Geschwindigkeit ist in der Regel 90 Tage gültig und wird im Anschluss auf den Ausgangswert zurückgesetzt. Sollten tatsächlich durch den Googlebot signifikante Probleme auftauchen, so besteht auch die Möglichkeit die Probleme mit dem Googlebot zu melden (siehe Links zu weiteren Informationen in obiger Grafik).

Probleme mit dem Google Bot melden
Probleme mit dem Google Bot melden

Google Webmaster Tools: Sitelinks abwerten

Google Webmaster Tools Sitelinks abwerten

Die Sitelinks bilden die relevanten Navigationspunkte einer Website innerhalb des Suchergebnisses zu einem Webseitennamen ab. Die Sitelinks könnten nicht selbst definiert werden, sondern das übernimmt die Suchmaschine Google , indem sie die Seite analysiert und die wichtigsten Navigationspunkte für potentielle Besucher bereitstellt.

Sitelinks abwerten
Sitelinks abwerten

In den Suchergebnissen werden ausschließlich die Sitelinks angezeigt, die seitens Google für den Besucher als hilfreich erachtet werden. Inhalte, die als nicht relevant für den Besucher angesehen werden, sollten laut Google nicht angezeigt werden. Wobei die Erfahrung zeigt, dass auch Ergebnisse angezeigt werden, die eigentlich für den potentiellen Besucher keinen direkten Nutzen haben.

Sitelinks abwerten

Wenn Sitelinks angezeigt werden, die einem Besucher nach Auffassung des Seitenbetreibers nicht angezeigt werden sollen, besteht die Möglichkeit, bis zu 100 URLs abzuwerten – einziges Manko: die Anpassung bleibt in der Regel nur 90 Tage und nicht dauerhaft aktiv. Wer also in den Google Webmastertools nur unregelmäßig nach dem rechten schaut, dem kann es passieren, dass nach 90 Tagen in den Sitelinks wieder Inhalte präsentiert werden, die eigentlich nicht angezeigt werden sollen.

Google Webmaster Tools - Abwertung von Sitelinks
Google Webmaster Tools – Abwertung von Sitelinks

Zum Abwerten eines Sitelinks reicht es aus, den entsprechenden Link in die Maske der Google Webmaster Tools einzutragen. Es besteht sowohl die Möglichkeit einen relativen Pfad als auch einen absoluten Pfad einzutragen. (zu finden unter Website-Konfiguration -> Sitelinks.)

Es kann in der Regel ein paar Tage dauern, bis der Änderungswunsch durch die Suchmaschine übernommen wird.

Tipp – Sitelinks auch in Zukunft beobachten

Nachdem eine Abwertung durchgeführt wurde, sollte der Inhaber der Webseite die Sitelinks nach ein paar Tagen kontrollieren. Da die Suchmaschine Google keine Möglichkeit zur Bestimmung konkreter Sitelinks bereitstellt, besteht die Gefahr, dass alternativ ein ebenfalls unerwünschter Inhalt im Austausch mit dem abgewerteten Sitelink eingebunden wird.