Der Google Tag Manager im Überblick

Einführung Google Tag Manager

Was ist der Google Tag Manager?

Im Oktober 2012 hat Google den Tag Manager veröffentlicht, der das Tracking auf Webseiten vereinfachen und unterstützen soll –  daher benötigt der Anwender für die Basisfunktionen keine speziellen Programmierkenntnisse.

Der Google Tag Manager ermöglicht die Messung und Identifizierung des Nutzerverhalten auf der Webseite und verbindet über Tracking-Codes gängige Web-Analyse und Marketing-Tools. Durch den Google Tag Manager kann so das Nutzerverhalten im Hintergrund verfolgt werden. Diese gewonnenen Daten können genutzt werden um Ihre Webseite zu verbessern und zu optimieren.

Wie funktioniert der Google Tag Manager?

Wurden bis dato auf jeder Webseite und Unterseite die Tracking-Codeschnipsel manuell durch Web-Entwickler hinzugefügt, reduziert der Tag Manager nun diese Arbeit um ein Vielfaches und öffnet diese Thematik damit einer breiteren Masse. Statt mehrere einzelne Codes zu implementieren, erfordert der Tag Manager nur noch eine einmalige Änderung am Quellcode.

Der Code macht den Unterschied

Der Google Tag Manager trennt die Implementierung des Tracking von HTML und JavaScript und beschleunigt so die internen Prozesse, da viele Tätigkeiten ohne umfangreiche Programmierkenntnisse durchgeführt werden können.

Der Code lässt sich wie folgt implementieren:

Dieses JS-Code-Snippet  gehört in den <head>

<!-- Google Tag Manager -->
<script>(function(w,d,s,l,i){w[l]=w[l]||[];w[l].push({'gtm.start':
new Date().getTime(),event:'gtm.js'});var f=d.getElementsByTagName(s)[0],
j=d.createElement(s),dl=l!='dataLayer'?'&l='+l:'';j.async=true;j.src=
'https://www.googletagmanager.com/gtm.js?id='+i+dl;f.parentNode.insertBefore(j,f);
})(window,document,'script','dataLayer','GTM-XXXX');</script>
<!-- End Google Tag Manager -->

Und das ist der <noscript>Teil mit iframe

<!-- Google Tag Manager (noscript) -->
<noscript><iframe src="https://www.googletagmanager.com/ns.html?id=GTM-XXXX"
height="0" width="0" style="display:none;visibility:hidden"></iframe></noscript>
<!-- End Google Tag Manager (noscript) -->

Weitere technische Informationen erhalten Sie auch hier:
https://developers.google.com/tag-manager/quickstart

Der Aufbau des Google Tag Manager

Anschließende Änderungen kann der Seitenbetreiber nun ohne aufwändige Anpassungen selbst erledigen. Ein weiteres Plus ist die Google-typische, nutzerfreundliche Oberfläche, auf der alles zentral verwaltet und gesteuert werden kann. Schnell & Effizient.

Die Verflechtung der wenigen Elemente im Google Tag Manager werden anhand der Grafik deutlich. Der Nutzer kann je nach Rechteverwaltung auf gesamte Accounts oder einzelne Container zugreifen. Ein Container ist bspw. einer Webseite zugeordnet und regelt in sich geschlossen Tags, Trigger (Regeln) und Variablen (Makros).

Aufbau des Google Tag Manager
© http://www.fourthsource.com/web-development/google-tag-manager-series-2-overview-15816

Was ist ein Tag?

Ein Tag ist ein Code-Schnipsel, der Informationen an Dienste von Dritten übermitteln kann.
Tags können genutzt werden um Informationen zu senden, sie definieren also WAS gemessen wird (z.B. “Formular gesendet”). Der Tag Manager integriert die Code-Schnipsel in die Webseite.

Was steuert ein Trigger im Google Tag Manager?

Eigentlich ganz einfach: die Regel legt fest, unter welchen Bedingungen ein Tag ausgelöst wird. Dies kann ein Seitenaufruf, ein Klick oder eine definierte Zeitspanne sein. Die Regel wird auch Trigger genannt.

Was sind Makros?

Makros – auch Variablen genannt – beschreiben die Daten innerhalb der Tags und Regeln genauer. Und ermöglichen auf einer gesonderten Ebene Variablen zu definieren. Dafür gibt es schon Vorlagen oder man kann sie frei definieren. Beispielsweise lässt sich die Google-Analytics-ID als Makro anlegen und so auf mehrere Seiten übertragen.

Was ist ein Container im Google Tag Manager?

Alle Tags im Tag Manager bilden zusammen einen Container. Dieser Container erhält eine eindeutige ID und wird über ein bereitgestelltes Container-Snippet auf allen Seiten Ihrer Webseite eingefügt. Durch das komfortable Tag-Management im Dashboard können bestehende Tags und Container einfach kopiert und auf andere Webseiten übertragen werden. Dies ist hilfreich wenn Sie z.B. mehrsprachige Länder-Webseiten verwalten.
Dabei kann der Tag Manager sein Hauptvorteil ausspielen – die Zeitersparnis bei der Pflege von großen Webseiten. Wurde der Container einmalig implementiert, werden die Inhalte (also die Tags) durch den Webseitenbetreiber beliebig verändert und gesteuert ohne dabei auf tiefgreifende technische Kenntnisse zurückgreifen zu müssen.

Welche Dienste werden vom Google Tag Manager unterstützt?

Kurz gesagt: viele – Tendenz steigend.
Nach der Installation hat man sofort Zugriff auf eine gute Auswahl fertiger Tag-Vorlagen. Die Bandbreite deckt gängige Lösungen bereits ab: Ob Tags zu Webanalyse-Werkzeugen, Heatmaps, Social Media, Konversion und natürlich ist auch das Google-Portfolio verfügbar.
Eine Liste der Vorlagen bzw. der unterstützten Tags gibt es hier.

Welche Vorteile bietet der Google Tag Manager?

  • Zentrale Verwaltung von Codes
    • Entlastung der IT + Webmaster
    • übersichtliche Struktur und sauberer Quellcode der Webseite
    • Durch die Nutzung der Container verbessert sich die Ladezeit der Webseite
    • Benutzerfreundliche Oberfläche
  • Große Anzahl vorkonfigurierter Codes
    • Regel und Trigger wählen – fertig
  • Umfangreiche Konfigurierbarkeit
    • individuelle Erstellung eigener Codes
    • Tags, Regeln und Variablen sind beliebig kombinierbar
    • Hierarchien lassen sich anlegen (zB Vorrang für Google Analytics-Tag)
  • Vorschaumodus
    • Möglichkeit der Funktionsprüfung und Debugging von Tags
    • Simulation der aktuellen Container-Konfiguration auf der Seite durch den Tag Manager
    • automatische Überprüfung der Tag-Einbindung
  • Versionsbasierte Dokumentation
    • Versionshistorie der Container und Tags wird transparent gespeichert
    • Welches Teammitglied einen Tag erstellt hat oder Änderungen vorgenommen hat, ist in der Übersichtsdarstellung sofort ersichtlich
    • Wiederherstellung einer früheren Version ist möglich

Grenzen des Google Tag Managers

  • Die Anzahl der sofort nutzbaren Tags ist überschaubar. Die Erstellung eigener Tags setzt Grundkenntnisse in HTML voraus und je nach Komplexität auch JavaScript.
  • Besondere Anforderungen an Tags und die Einbindung von weiteren Diensten erreichen schnell die Grenzen des Marketers und erfordern weitergehende Programmierfähigkeiten.
  • Die Möglichkeiten Änderungen in den Tags selbst umzusetzen, umgeht möglicherweise Qualitätssicherungs-Prozesse der IT und bergen Fehlerpotenzial.
  • Nutzen Sie andere Tools abseits des Google-Portfolios, z.B. zur Webanalyse oder Monitoring, müssen Sie entscheiden ob es für Sie nicht zu aufwändig ist, die Tags im Google Tag Manager zu pflegen. Gerade im Bereich der Marketing-Plattformen gibt es hier Lösungen, die bereits einen integrierten Tag Manager besitzen.
  • Die Anbindung an “Nicht-Google”-Analytics-Produkte ist standardmäßig nicht gewährleistet und muss individuell programmiert werden möchte man bspw. Sitecore Analytics oder Adobe Analytics mit den gewonnen Datensätzen versorgen.
  • Eine rollenbasierte Rechtevergabe ist nicht vorhanden, um bspw. der Marketing-Abteilung das publizieren auf einer Testseite zu ermöglichen – die letztendliche Veröffentlichung aber einer übergeordneten Hierarchieebene zuzuweisen.

Fazit

Dieser erste Überblick soll nur einen ersten Eindruck von den Nutzungsmöglichkeiten des Google Tag Manager geben. Zusammenfassend macht der Tag Manager vor allem Sinn, wenn auf den eigenen Webseiten ein umfassendes Tracking eingesetzt werden soll und dabei auf Tools von Google oder Drittanbieter zurückgegriffen werden soll.
Die wesentlichen Stärken sind dabei die Benutzerfreundlichkeit, keine erforderlichen Programmierkenntnisse und die Ressourcenersparnis.

In diesem Einführungsvideo von Google können Sie sich eine Zusammenfassung der Anwendung und Funktionen des Tag Manager anschauen: Zum Video

SEO: Paginierung für Onlineshops und inhaltsreiche Seiten

Paginierung mit rel="next" und rel="prev"

Onlineshop-Betreiber kennen das Problem: Produktkategorieseiten beinhalten oftmals viele Produkte, die über mehrere Seiten verteilt dargestellt werden.

UPDATE: Google hat bekannt gegeben, dass die Auszeichnung mit rel=“prev“ und rel=“next“ nunmehr kein Indexierungssignal darstellt.

Ohne weiteres Zutun indexieren die Suchmaschinen diese Seiten separat und erkennen hier doppelten Inhalt (“duplicate content”).
Mit ein paar Handgriffen zeigen wir, wie dieses Problem vermieden werden kann.

Alles auf einer Seite: Bietet sich eine Gesamtansicht an?

Zuallererst sollten Sie sich die Frage stellen, ob Sie Ihren Besuchern eine “view-all”-Seite anbieten möchten, d. h. alle Produkte – oder besser: alle Elemente, die normalerweise über mehrere Seiten verteilt dargestellt werden – finden Sie dann auf einer Gesamtseite wieder.

Paginierung Gesamtseite

Vorteil: Die paginierten Seiten 1 bis n verweisen über den sogenannten canonical-Tag auf die Seite, auf der die Inhalte zusammengeführt werden. Über einen canonical-Tag teilen Sie den Suchmaschinen mit, wie diese mit (weitgehend) identischen Inhalten verschiedener Seiten umgehen soll. Durch die Angabe verweisen Sie auf eine Orginalressource bzw. URL .

Nachteil: Was bei einem mehrere Seiten langen News-Artikel, der vorzugsweise aus textlichem Inhalt besteht, charmant klingt, stößt bei der Produktkategorieseite eines Onlineshops mit hunderten Artikeln samt Produktbildern auf das Problem langer Ladezeiten. Da Latenzen ein Rankingfaktor sind, hört bei Google der Spaß bei Ladezeiten jenseits von drei Sekunden schnell auf.

Ohne Gesamtansicht: Inhalte auf mehrere Seiten verteilt

In solchen Fällen ist eine “view-all”-Page nicht sinnvoll. Hier empfiehlt es sich, alle Folgeseiten, also die Seiten 2 bis n (n=letzte Seite) als ergänzende oder weiterführende Seiten zu kennzeichnen. Sie teilen der Suchmaschine mit, dass die Seiten 1 bis n zusammengehören, also im Grunde als „Kapitel“ in das Inhaltsverzeichnis aufgenommen werden sollen.

Paginierung mit rel="next" und rel="prev"

Die Auszeichnungen erfolgen im <head> Bereich des Markup. Auf der ersten Seite teilen Sie der Suchmaschine über ein <link> Element mit, dass es weitere, ergänzende Seiten gibt:
<link rel=”next” href=”seite-2.html”>

Auf der zweiten bis vorletzten Seite (Kompontentenseiten) definieren Sie die vorige und die nachfolgende Seite:
<link rel=”prev” href=”seite-1.html”>
<link rel=”next” href=”seite-3.html”>

Auf der letzten Seite reicht der Hinweis auf die vorige Seite (eine nächste Seite gibt es ja nicht):
<link rel=”prev” href=”seite-n-1.html”>

Ergänzend soll verhindert werden, dass die Seiten 2 bis n in den Index der Suchmaschinen aufgenommen werden (die Linkkraft der Produkte hingegen soll behalten werden). Dazu bedienen Sie sich folgenden Elements:
<meta name=”robots” content=”noindex, follow”>

Bitte achten Sie darauf, dass die erste Seite ganz regulär indexiert werden darf:
<meta name=”robots” content=”index, follow”>

Zusätzlich zu rel=”prev” und rel=”next” lässt beispielsweise Zalando die Komponentenseiten (Folgeseiten) via canonical-Tag auf die kanonische URL zeigen. Das sieht dann in etwa so aus:
<link rel="canonical" href="seite-1">
Im href-Attribut sind übrigens relative und absolute Pfadangaben erlaubt.

Viele Wege führen nach Rom

Wie oftmals im Online-Marketing gibt es auch in Sachen Paginierung unterschiedliche Herangehensweisen.
So verzichten einige Online Shops auf den Einsatz von rel=”prev” und rel=”next” und verweigern den Suchmaschinen über die Meta-Robots die Indexierung der Komponentenseiten.

Welche Variante Sie auch bevorzugen: Das Hauptaugenmerk sollte darauf liegen, doppelten Inhalt zu vermeiden. Ob Sie dies nun mit einer „view all“ Seite oder über die Angaben im <head> Bereich Ihrer Seite lösen, hängt nicht zuletzt auch vom Kontext ab: Verteilen sich vorwiegend textliche Inhalte über mehrere Seiten, kann eine Gesamtseite – auch unter Usabilty-Gesichtspunkten – ideal sein. Bei bildlastigen Produktkategorieseiten sind rel="prev" und rel="next" sicherlich die bessere Wahl.

Hier sei noch angemerkt, dass nicht sicher ist, ob andere Suchmaschinen wie bpsw. Bing die Attributswerte „next“ und „prev“ in gleicher Weise interpretieren wie Google. Google selbst hat bereits im September 2011 erklärt, die Paginierung von Seiten mit rel=“next“ und rel=“prev“ zu unterstüzen.

Google Disavow Tool zur Abwertung von Links

Um das sogenannte Disavow Tool ranken sich mittlerweile die verschiedensten Geschichten. Das Linkentwertungstool aus dem Hause Google wird mittlerweile auch als Druckmittel verwendet, weil nach wie vor einige Website-Betreiber dem Irrglauben unterliegen, dass mithilfe dieses Tools Websites in ihrer Wertigkeit abgestuft werden können.

Es gibt verschiedene Kriterien anhand dessen Google Websites eine Wertigkeit vergibt, natürlich verrät Google nicht, welche Kriterien mit welcher Gewichtung am Ende tatsächlich in den Algorithmus einfließen. Allerdings weiß wohl jeder Webseitenbetreiber, spätestens seit dem sogenannten Pinguin Update, dass Backlinks nach wie vor einen relevanten Faktor darstellen, schlechte Backlinks aber zur Abwertung von Websites führen können.

Google Disavow Tool - Links für ungültig erklären

Google ist bemüht Websites zu bewerten und diese anhand der Bewertung in den Suchergebnissen zu positionieren. Darein fließen auch Backlinks, je nach Qualität, mit positiver wie auch negativer Auswirkung in das Ranking ein. Im Zuge verschiedener Algorithmus-Updates und Erweiterungen hat Google gezeigt, dass Websites, deren Links manuell aufgebaut werden, erkannt werden und dem entsprechend auch abgewertet werden können. Zeitgleich stellt Google das sogenannte Disavow Tool zur Verfügung, mit dem Links für ungültig erklärt werden können.

Das Disavow Tool, wird eingesetzt wenn…

Es gibt verschiedene Gründe, aus denen das Disavow Tool zum Einsatz kommen kann. Beispielsweise kann ein Konkurrent auf die Idee kommen, eine Website durch Spamlinks in die ewigen Jagdgründe schicken zu wollen. Ferner kann der Websitebetreiber auch eigene Links, auf schwachen und nicht relevanten Seiten, aufgebaut haben. Die Gründe sind unterschiedlich, allerdings die Ursache in der Regel identisch.

Aktuell erhalten viele Blogger entsprechende Nachrichten, dass Links, die in Kommentaren gesetzt wurden, unter Androhung des Einsatzes des Disavow Tool schleunigst zu entfernen sind. Der Irrglaube, dass mit dem Disavow Tool anderen Websites geschadet werden kann, existiert eigentlich schon seit der ersten Version des Tools. Doch das Disavow Tool dient lediglich dazu, der Suchmaschine Google mitzuteilen, dass in der Vergangenheit ein Fehler gemacht wurde und eventuell Links manuell aufgebaut wurden oder andere Personen diese aufgebaut haben. Links werden somit als nicht gültig erklärt – eine Website wird dadurch nicht abgewertet, das wäre auch für die organische Suche mehr als fatal, auch wenn die bezahlten Ergebnisse von Jahr zu Jahr stärker in den Fokus rücken.

Funktionsweise des Disavow Tool

Die Funktionsweise des Disavow Tool ist denkbar einfach: Zu allererst gilt es die Links zu identifizieren, die den Schaden verursacht haben. Diese müssen einfach in einer CSV-Datei oder Textdatei untereinander aufgeführt werden.

Disavow-Tool URLs
Disavow-Tool URLs

Im Anschluss muss natürlich das Online-Tool unter https://www.google.com/webmasters/tools/disavow-links-main aufgerufen werden. Im nächsten Schritt muss die entsprechende Domain, die vorher in den Google Webmaster Tools verifiziert wurde, ausgewählt werden.

Disavow-Tool Domain
Disavow-Tool Domain

Nachdem die gewünschte Domain, deren Links als ungültig eingestuft werden sollen, ausgewählt wurden, muss natürlich die vorgefertigte Text-Datei oder CSV eingebunden werden. Im Anschluss kann die Datei über den Button „Senden“ an Google übermittelt werden.

Disavow-Tool Links ungültig
Disavow-Tool Links ungültig

Nun heißt es abwarten, bis Google die Ungültigkeitserklärung übernimmt und die vermeintlich negativen URLs aus der Berechnung entfernt.

Disavow-Tool Erfolg
Disavow-Tool Erfolg

Mit dem Einsatz des Disavow Tool schadet man nicht der Website, welche auf die eigene Website verlinkt, sondern sorgt lediglich dafür, dass die Links nicht mehr in die Bewertung der Website mit einfließen. Google ist anhand seines Algorithmus selbst in der Lage die Website, von der auch der Link stammt, zu bewerten.

Sieht Google PR-Meldungen und Pressemitteilungen als unerlaubte SEO-Maßnahme?

Google hat letzte Woche seine Webmaster Rules für Linktauschprogramme geändert, wie SiliconvalleyWatcher Tom Foremski bei ZDnet schreibt. Tom sieht in den Änderungen besonders einen Angriff von Googles auf PR-Agenturen. Ich denke, seine Erkenntnisse sind weit reichender und lassen sich auf jede Webseite übertragen, die Inhalte verbreiten und Traffic kanalisieren und Besucher anziehen will.

Google hates any other business that promotes other businesses because Google wants that money.

Das ist seine Kernaussage – nicht ganz wörtlich übersetzt: Google wird langfristig gegen alle Unternehmen vorgehen, die andere Unternehmen online promoten. Weil Google diese Kohle selber haben will. Und weiter heißt es, dass Pressemitteilungen eine Form von SEO sei. Ob die PR-Industrie diese Ansicht teile oder nicht sei dabei irrelevant, weil Google hier die Definition, den Umgang damit und etwaige Sanktionen festlegt.

Was ist denn jetzt eigentlich genau das Problem mit Pressemitteilungen?

Bis heute hat Google weder eigenes Marketing betrieben, um sich als beste Suchmaschine zu positionieren, noch hat Google einen Marketing-C-Level im Organigramm stehen und – wie Foremski feststellt – ist Google sehr stolz darauf, dafür zu sorgen, dass sie zur Selbststeuerung des Internet beitragen, indem automatisch immer die besten Suchergebnisse nach oben kommen. Das funktioniert natürlich nur so lange, wie (verdeckt) bezahlte Werbeangebote nicht die Ergebnisse verfälschen.

Soweit zur Google-Romantik und dass es qualitativ hochwertige Suchergebnisse bieten will. Auf der anderen Seite der Medaille steht ja noch etwas anderes, sehr nachvollziehbares: Google will AdWords verkaufen. Je besser die inhaltlichen Suchergebnisse, desto besser funktionieren auch die AdWords. Doof, wenn Agenturen Budget von AdWords abziehen, dass dann in bezahlte Beiträge fließt, die wiederum die Suchergebnisse verschlechtern. Quasi eine Lose:Lose-Situation für Google.

Früher bedeutete Qualität v.a. Anzahl von Links auf eine Seite. Je mehr unabhängige Links, desto höher rankte die Seite. Dann kam das Panda-Update und damit der stärkere Fokus auf Qualität. Das bedeutete: Bezahlte Links und SEO-Tricks wurden ausgesiebt, Usability und schnelle Ladezeiten trugen zur Qualitätssteigerung und damit zur Verbesserung des Suchrankings einer Seite bei. Die reine Anzahl an Backlinks wurde zum ersten Mal in den Hintergrund gedrängt.

Mit dem Penguin-Update und Penguin 2.0 wurde der Fokus noch weiter auf externe Linkqualität, Link- und Ankertexte  innerhalb von Webseiten gelegt sowie auf den strukturierten Aufbau von Webinhalten und deren Verbreitung durch Social Signals – hierzu hat ein Kollege eine 5-teilge Artikelserie geschrieben.

Was machen PR-Agenturen in Googles Augen falsch?

Sie verwässern und verschlechtern die Suchergebnisse durch gezielt platzierte Gast-Beiträge, bezahlte Beiträge in Blogs, Advertorials, bezahlten Twitter- und Facebook-Shares, gekauften Followern etc. Hier die drei neuen Punkte, die der Google Webmaster Doku hinzugefügt wurden:

  • Links mit optimiertem Ankertext in Artikeln oder Pressemitteilungen, die auf anderen Websites verteilt sind. Beispiel:
    Das Angebot an Trauringen ist riesengroß. Wenn Sie eine Hochzeit planen, suchen Sie sicher nach dem besten Ring. Sie müssen auch Blumen kaufen und einHochzeitskleid.
  • Artikel-Marketing im großen Stil oder das Posten von Kampagnen als Gast mit Ankertextlinks, die viele Keywords enthalten
  • Textanzeigen oder native Werbung, wo Artikel mit Links, die PageRank weitergeben, bezahlt werden

Für mich persönlich sind besonders die Wortwiederholungen ein Graus. Der gleiche Abschnitt zum Trauring-Beispiel aus den englischen Webmastertools macht das mit 3 mal „wedding“ und 2 mal „ring“ auf insgesamt 32 Wörter deutlicher:

Sie merken schon: Man merkt beim Lesen einfach selber, wann man es mit der Optimierung übertrieben hat 😉

Das Beispiel aus der Dokumentation zu „Forumkommentare mit optimierten Links im Post oder in der Signatur“ treibt es auf die Spitze:

Haben Sie also ein gutes Auge darauf, was Ihnen Ihre Agentur genau anbietet und in Ihrem Namen veröffentlicht – Letztendlich straft Google voraussichtlich v.a. den Kunden einer Agentur ab.

Betrifft das Problem nur PR-Agenturen?

Natürlich betrifft es im Kern- und Tages-Geschäft PR-Agenturen deutlich stärker als Unternehmen, die sich rein auf eigene Inhalte konzentrieren können. Aber auch hier kann es nicht schaden, für das Thema zu sensibilisieren und regelmäßig einen Blick in die Dokumentation von Googles Webmastertools zu werfen.

Doch die neuen Regeln werden mit ziemlicher SIcherheit auch auf bestehenden Content angewendet. Daher liegt es im eigenen Interesse die bestehenden Inhalte zu prüfen und ggf. nachzusteuern.

Tom Foremski malt für PR-Agenturen in den USA sehr, sehr schwarz, sieht sie in direkter Konkurrenz zu Google und stellt sogar in den Raum, Agenturen könnten von ihren Kunden verklagt werden, wenn durch die neuen Regeln nachträglich ein Schaden entsteht. Doch auch die zukünftige Arbeit wird nicht unbedingt erleichtert, wenn das Penalty-Damoklesschwert über jeder bezahlten Promotion schwebt. Die meisten PR-Profis in den Kommentaren des ZDnet-Artikels sind da deutlich entspannter.

Als jemand, der regelmäßig mit Google-Mitarbeitern aller Hierarchiestufen spricht gibt Tom den Rat: „Optimiert für Eure eigenen Kunden, damit die Suchmaschinen sich selber optimieren können“. Da ist durchaus etwas dran. Je besser die Webinhalte sind und je weniger Manipulationsversuche unternommen werden, desto mehr kann sich auch der Suchmaschinenanbieter auf sein Kerngeschäft konzentrieren, statt Zeit und Ressourcen in ein Katz-und-Maus-Spiel investieren zu müssen.

Meine persönliche Einschätzung ist, dass Google in den kommenden Monaten noch deutlich härtere Bandagen anlegen wird. Oder formulieren wir es so: Die Bandagen werden verfeinert, wenn nämlich der große Wust an massenhaften Presseportalmeldungen in den Griff bekommen wurde.
Denn wie gesagt: Es sieht jeden als Konkurrenten, der AdWords-Budget angreifen könnte.

Muss man mit Gastbeiträgen und Linktausch vorsichtiger werden?

Massive Kollateralschäden für alle Webseitenbetreiber sind derzeit eher nicht zu befürchten. So lange Beiträge einen Mehrwert liefern und nicht massiv in großer Zahl Links aufgebaut werden, sollte sich die Gefahr für einzelne Websitebetreiber in Grenzen halten wie SEOsweet hier auch im letzten Abschnitt beschreibt. Google geht es darum, systematische Massenverbreitung von Inhalten zu verhindern, deren einziger Zweck es ist, gezielt Suchergebnisse zu beeinflussen. Die Internetkapitäne raten dazu, die entsprechenden Methoden maßvoll einzusetzen.

Bleibt nur zu hoffen, dass Google gut unterscheiden kann, wo ein eigener und eigenständiger Beitrag aufhört und eine Pressemitteilung anfängt. 

Die Google Webmaster Tools – das Warum

Warum die Google Webmaster Tools nutzen?

Um die wertvollen Daten der Google Webmaster Tools auch nutzen zu können, bedarf es lediglich der Erstellung eines Nutzerkontos bei Google – mithilfe des Nutzerkontos stehen mehrere Dienste wie auch Google Analytics dem Kontoinhaber zur Verfügung.

Google Webmaster Tools - Anmelde Oberfläche
Google Webmaster Tools – Anmelde Oberfläche

Mittlerweile unterteilen sich die Google Webmaster Tools in die Bereiche Konfiguration, Status, Zugriffe, Optimierung und Google Labs. Nebst diesen Bereichen gibt es ein einleitendes Dashboard, das den aktuellen Status zu Crawling-Fehler, Suchanfragen und der Sitemap widerspiegelt.

Der signifikanteste Grund, warum der Einsatz der Google Webmaster Tools für jeden Anwender Sinn macht, ist dass die Daten von Google zum einen relativ aktuell sind und zum anderen direkt vom Marktführer im Bereich der Suchdienste stammen. Damit hat der Webseitenbetreiber die „vertrauenswürdigste“ Quelle als Lieferant für Daten über die eigene Webseite.

Bedenken sollte der Anwender aber auch, dass die Daten, die von Google kommen, grundsätzlich begrenzt sind und Google nicht sämtliche Informationen, die uns als relevant erscheinen, anzeigen wird. Zwar verbietet Google die Optimierung (bzw. Suchmaschinenoptimierung) von Webseiten und Inhalten nicht, wird dies aber auch nur bis zu einem gewissen Rahmen unterstützen (Google Webmaster Richtlinien).

Warum sollten die Google Webmaster Tools genutzt werden?

Unabhängig davon ob SEO Agentur, Unternehmen oder einfacher Hobby-Webmaster, ein jeder hat die Möglichkeit, die Google Webmaster Tools kostenlos zu nutzen.

Vorweg gesagt, die Google Webmaster Tools stehen nicht in Konkurrenz zu professionellen Tool-Anbietern wie zum Beispiel der Sistrix Toolbox, Searchmetrics Essentials, Searchmetrics Suite oder auch den Link Research Tools. Dennoch bietet Google mit dem hauseigenen Dienst eine grundlegende Übersicht über relevante Daten hinsichtlich der eigenen Website.

Anhand der gewonnen Daten können Probleme, Fehler und Einschränkungen diagnostiziert werden – zudem benachrichtigt Google den Webseitenbetreiber direkt über die Google Webmaster Tools im Falle von Problemen und ungewöhnlichen Veränderungen (signifikanter Anstieg der Suchanfragen, Malware, unnatürlicher Linkaufbau).

Bisherige Artikel zu den Google Webmaster Tools im comspace Blog

Google Webmaster Tools: Crawling-Geschwindigkeit

Google Webmaster Tools Crawling Geschwindigkeit

Das Crawling bezeichnet in erster Linie den Vorgang, mit dem veränderte und neue Inhalte bzw. Seiten ermittelt werden, um diese später in den Suchindex von Google aufzunehmen. Suchmaschinen, vorzugsweise Google, besitzen eine Vielzahl von Crawlern (z.B. der Googlebot), die täglich damit beschäftigt sind, so viele Inhalte wie möglich zu untersuchen.

Der Googlebot und die Crawling-Geschwindigkeit

Dieser Googlebot besucht mehrmals am Tag die eigene Webseite, in der Regel optimiert dabei Google selbst die Häufigkeit des Besuchs in Abhängigkeit der Größe einer Webseite und natürlich der gewohnten Schreibfrequenz. Dies bedeutet: sofern eine Webseite in der Regel mehrmals am Tag neue Inhalte veröffentlicht, wird diese im Vergleich zu einer kleinen Webseite mit wenigen inhaltlichen Änderungen im Monat häufiger besucht.

Wem dennoch die Besuchshäufigkeit des Googlesbots zu hoch erscheint, z.B. aufgrund des entstehenden Traffics / Datenvolumens, der kann diesen über die Google Webmaster Tools regulieren und somit eingrenzen.

Crawling Geschwindigkeit des Google Bots regulieren
Crawling Geschwindigkeit des Google Bots regulieren

Google selbst empfiehlt, die Crawling Geschwindigkeit nur in absoluten Ausnahmefällen, beispielsweise wenn dadurch die Geschwindigkeit/Performance des Servers deutlich verlangsamt wird, zu verändern.

Grundsätzlich sollte die Häufigkeit des Crawlings einer Webseite nicht verändert werden und der Rhythmus sollte seitens der Suchmaschinen bestimmt werden – schließlich möchten neue und bearbeitete Inhalte zeitnah in den Index aufgenommen werden und optimaler Weise direkt von potentiellen Besuchern und Kunden gefunden werden.

Probleme mit dem GoogleBot melden

Eine Anpassung der Crawling Geschwindigkeit ist in der Regel 90 Tage gültig und wird im Anschluss auf den Ausgangswert zurückgesetzt. Sollten tatsächlich durch den Googlebot signifikante Probleme auftauchen, so besteht auch die Möglichkeit die Probleme mit dem Googlebot zu melden (siehe Links zu weiteren Informationen in obiger Grafik).

Probleme mit dem Google Bot melden
Probleme mit dem Google Bot melden

Google PageRank Update (Februar 2013)

Es ist allem Anschein nach wieder soweit – Google spielt ein Update des sichtbaren PageRanks ein.

Einst galt der Google PageRank (Algorithmus) als das wichtigste Kriterium, um die Qualität von Websites bestimmten zu können. Die Grundlage war zugleich die Geburt der Suchmaschine Google im Jahre 1998.

Die Aufgabe des PageRank Algorithmus war bzw. ist es, die Qualität von Internetseiten anhand der Anzahl von Backlinks zu bestimmten und Webseiten anhand der daraus resultierenden Gewichtung in den Suchergebnissen zu positionieren. Der sichtbare Pagerank stellt sich in einer Skala von 0 bis 10 dar.

Google PageRank

Während vor Jahren noch diverse Webseitenbetreiber mit Popcorn und ausreichend Flüssignahrung darauf warteten, dass sich der Pagerank verbessert – so hat die Popularität deutlich abgenommen.

Warum der PageRank an Bedeutung verloren hat?

Im Verlauf der letzten 15 Jahren hatten Suchmaschinen wie Google Inc. ausreichend Zeit, nebst dem PageRank weitere Algorithmen (z.B. Google Panda Update), Filter und Extensions zu entwickeln, die zusätzlich die Wertigkeit und Qualität jener Webseiten, die einst nur durch den PageRank in den Suchergebnissen positioniert wurden, anhand von weiteren Kriterien und Muster bestimmen.

Das heißt, der Algorithmus von Suchmaschinen wie Google besteht nicht mehr aus einem Bewertungskriterium, sondern aus vergleichsweise vielen Kriterien, Mustern und Berechnungen. Zum Beispiel ist die Termgewichtung (w = WDF * IDF), die auf www.online-marketing.net sehr ausführlich von Karl Kratz beschrieben wird, ein sehr spannendes Thema.

Ich bin dennoch neugierig und möchte meinen PageRank messen?

Es gibt viele Möglichkeiten, den PageRank zu ermitteln. Mittlerweile gibt es für jeden Browser ausreichend Extensions / Plugins die eine Abfrage erlauben. Alternativ gibt es auch Tools, wie von www.seo-ranking-tools.de, mit denen der PageRank Online abgefragt werden kann.

Der gute alte Google PageRank

PageRank von Comspace

Jedes Mal aufs Neue, sobald sich die Anzeige des Google PageRanks verändert, diskutieren die Seo- und Marketingexperten darüber, welche Wertigkeit der PageRank in der heutigen Zeit besitzt.

Rückblick in die Anfangszeit des PageRank Algorithmus

Der Google PageRank-Algorithmus stammt, wie der Name eigentlich schon sagt, aus dem Hause von Google und diente als Grundlage der modernen Suchmaschine.

Die Aufgabe des PageRank-Algorithmus war die Qualität von Internetseiten anhand ihrer Linkpopularität, also Links die auf eine Webseite verweisen, zu gewichten und Webseiten anhand der Bewertung in den Serps (Suchergebnissen) zu positionieren. Im Hinterkopf sollten wir dabei aber behalten, dass der Algorithmus weitaus komplexer ist, als wir ihn hier dargestellt haben.

PageRank von Comspace

Der öffentliche PageRank wird in einer Skala von 0 bis 10 dargestellt. Webseiten mit einem hohen PageRank wurde lange Zeit nachgesagt, dass diese von der Qualität besser sind als Webseiten, die einen niedrigeren PageRank besitzen. Das Problem dabei war nur, dass der PageRank aufgrund des Linkhandels manipuliert werden konnte und deshalb kein ausreichendes Qualitätsmerkmal für gute Inhalte darstellte.

Linkhandel – Linktausch und Linkverkauf

Aufgrund dessen, dass relativ schnell klar war, welche Bedeutung der PageRank hat, erlebte der Linkhandel einen Aufschwung und Links/Backlinks wurden in verschiedenen Formen gehandelt.

Dem entsprechend wurde auch viel Kritik an dem PageRank laut, da finanzkräftige Unternehmen in der Lage waren Backlinks zu kaufen. Mittlerweile verstößt der Handel mit Links, ob Kauf oder Tausch, gegen die Google Webmasterrichtlinien.

Google hat sich nicht nur als Unternehmen durch viele seiner Dienste wie GoogleMail oder GooglePlus weiterentwickelt, auch der Google Algorithmus ist mittlerweile deutlich größer und facettenreicher als zu Zeiten, wo der PageRank einer der wenigen Qualitätsmerkmale war. Besonders durch diverse Algorithmus Updates wie zum Beispiel das Panda Update (einst auch Farmer Update) und Pinguin Update versucht Google auf Basis der eigenen Webmasterrichtlinien den Handel mit Links zu unterbinden und die Qualität in den Vordergrund zu rücken.

Warum Google an dem PageRank festhält

Im Online Marketing wird häufig die Frage gestellt, warum Google überhaupt an dem PageRank festhält, wenn doch bekannt ist, dass dieser sich ggf. auch noch heute manipulieren lässt und dadurch der Linktausch gefördert wird.

Google wird sicherlich nicht aus dem Grund des Linkhandels an dem PageRank festhalten – sondern weil der PageRank noch ein Teil eines großen Algorithmus zur Bewertung von Webseiten und eben nicht mehr das Alleinstellungsmerkmal für qualitative Webseiten ist, aber dennoch als ein Kriterium von sehr vielen in die Bewertung von Webseiten einfließt.

Trotz aller Theorien – ohne eine 100 %ige konkrete Aussage von Google wird diese Frage nie zur vollsten Zufriedenheit aller beantwortet werden können.

Aktualität des sichtbaren PageRanks

Ein weiteres Problem ist die Aktualität des PageRanks – während sich Suchmaschinenoptimierer oder Suchmaschinenmarketing-Experten stets auf aktuelle Daten verlassen wollen bzw. sogar müssen, so ist der sichtbare PageRank, im Gegensatz zum internen PageRank, nie wirklich aktuell.

PageRank Updates werden in der Regel alle drei bis sechs Monate durchgeführt und viele Webseitenbetreiber erfreuen sich daran, dass sich der PageRank ihrer Seite ggf. verbessert oder überhaupt einen bekommen hat.

Doch gerade im Update-Intervall liegt das Problem – ist der PageRank am Tage des Updates tatsächlich aktuell oder hat der Google Algorithmus den PageRank bereits Wochen zuvor berechnet und diesen erst am Tage des Updates sichtbar für alle Webseitenbetreiber gemacht?

Google Panda und Google Pinguin Update

Wie bereits im Abschnitt “Linkhandel – Linktausch und Linkverkauf” beschrieben, arbeitet der Suchmaschinenbetreiber Google stets daran, die Qualität seiner Suchergebnisse zu verbessern. Dem entsprechend gab es in den vergangenen Wochen und Monaten einige Updates wie zum Beispiel das Panda Update und das Pinguin Update.

Des Weiteren hat Google viele Linknetzwerke, die einzig und allein zum Zweck des Backlinkhandels hochgezüchtet wurden, deutlich abgewertet und teilweise deindexiert.

Ist der PageRank tot?

Beim Google PageRank kommt ein Spruch besonders zum Tragen: „Tot Gesagte leben länger.“  In der Vergangenheit wurde der PageRank immer mal wieder tot geredet – doch ist der PageRank tatsächlich tot?

Meines Ermessens ist der PageRank nicht tot, sondern er ist zum einen ein Bestandteil eines großen Algorithmus zur Verbesserung der Qualität in der Suchergebnissen und zum anderen kann ich mir gut vorstellen, dass der PageRank aufgrund der Deindexierung und Abwertung von Blocknetzwerken eine Wiedergeburt erlebt.

Wenn Google in der Lage ist, sogenannte Blognetzwerke zu erkennen und diese entsprechend aus der Bewertung von Webseiten herauszufiltern, so erlaube ich mir die Theorie aufzustellen, dass der PageRank nicht tot ist, sondern aus seinem langen „Winterschlaf“ erwacht.

Die vergangenen fünf PageRank Updates

  • PageRank Update am 03.05.2012
  • PageRank Update am 07.02.2012
  • PageRank Update am 07.11.2011
  • PageRank Update am 22.07.2011
  • PageRank Update am 27.06.2011

Eine komplette Historie der PageRank Updates findet sich hier.

Richtlinien zum technischen Aufbau von Webinhalten: Webcrawler, Aktualität und Geschwindigkeit (Teil 2)

Auch bei den technischen Richtlinien gibt es einige Vorgaben, die in den Google Webmaster Richtlinien Erwähnung finden und nebst den Webmasterrichtlinien zur Gestaltung von Webinhalten als Unterstützung für die Optimierung der eigenen Webseite dienen.

Überprüfung der Webseite durch einen textbasierten Browser

Lynx Viewer vom Comspace Blog
Lynx-Abbild von Comspace Blog

In erster Linie darf man sich einen Crawler, der Webseiten erfasst und ausliest, wie einen einfachen Textbrowser vorstellen. Gängige Browser wie der Mozilla Firefox, Google Chrome, Apple Safari oder den bekannten Microsoft Internet Explorer sind in der heutigen Zeit in der Lage, Webseiten in voller Pracht anzuzeigen, das heißt vorhandene Grafiken oder auch Flash-Videos werden nach dem Wunsch der Seitenbetreiber dargestellt. Textbrowser, wie beispielsweise Lynx, stellen Webseiten – wie der Name es schon sagt – in reiner Textform dar. Bilder und andere Elemente wie zum Beispiel Videos werden in einem Textbrowser nicht angezeigt.

Des Weiteren sind in einem Textbrowser diverse Funktionen wie JavaScripte, Cookies und Session-IDs nicht nutzbar bzw. können für Probleme sorgen. Ähnlich agieren auch Webcrawler – auch wenn diese mittlerweile weiterentwickelt wurden und relativ leistungsfähig sind, kann ein Webcrawler mit den oben genannten Elementen auf einer Webseite Probleme haben.

Pauschal lassen sich natürlich nicht alle Elemente auf einer Webseite entfernen – ein Onlineshop ohne entsprechende Bilder oder Produktvideos wäre im Jahre 2012 undenkbar. Dem entsprechend ist hier die technische Aufgabe des Webseitenbetreibers dafür zu sorgen, dass die Crawler der Suchmaschinen es möglichst einfach haben, die Inhalte der Webseite zu crawlen.

Zum einen hat der Webseitenbetreiber die Möglichkeit, seine Internetpublikation mithilfe des eben erwähnen Lynx Textbrowsers zu prüfen – zum anderen bieten aber auch die Google Webmaster Tools die Möglichkeit, eine Webseite durch einen Crawler abzurufen und sich das Ergebnis ausgeben zu lassen.

Exkurs: Cloaking und ungeeignete Techniken

Die obigen Gründe und die anfänglichen Schwierigkeiten hatten zur Folge, dass in der Anfangszeit des kommerziellen World Wide Webs diverse Techniken entwickelt wurden, die dafür sorgten, dass Suchmaschinen wie Google beim Besuch einer Webseite komplett andere Inhalte angezeigt wurden als dem Endverbraucher. Die Technik war dabei relativ einfach: Wenn eine Webseite besucht wurde, wurde zu Beginn abgefragt, ob es sich um einen realen Besucher handelt oder ob hier ein Suchmaschinencrawler unterwegs ist – sobald ein Suchmaschinencrawler erkannt wurde, zeigte man diesem einfach die Webseite in einer anderen Form.

Mittlerweile sind solche Techniken seitens der Suchmaschinen nicht sonderlich gern gesehen und können im Ranking zu Abwertungen führen. Diese Technik machten sich natürlich auch andere Personen zu Nutze und verschleierten somit Inhalte, die nicht zwangsläufig in Suchergebnissen auftauchen sollten bzw. die seitens der Suchmaschine erst gar nicht erkannt werden sollten.

Suchmaschinen die Aktualität der Seite präsentieren

Im ersten Teil „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts“ wurde bereits angesprochen, dass die Qualität des Inhalts eine wichtige Rolle für ein positives Ranking innerhalb der Suchmaschinen spielt. Nebst der Qualität des Inhalts ist auch die Aktualität, sprich wie oft neue Inhalte publiziert oder ältere Inhalte aktualisiert werden, relevant und sorgt natürlich auch dafür, dass Crawler eine Webseite regelmäßiger besuchen könnten. Wenn ein Crawler bemerkt, dass eine Webseite regelmäßig bzw. täglich neue Inhalte veröffentlicht, wird auch der Crawling-Rhythmus automatisch angepasst.

Um dem Crawler relativ schnell mitzuteilen, ob neue Inhalte verfügbar sind, empfehlen die Google Webmaster Richtlinien die Verwendung des http-Headers “If-Modifies-Since“. Anhand dieser Funktion teilt der Webserver dem Crawler mit, wann neue Inhalte auf der Internetseite veröffentlicht wurden – natürlich kann dies auch anhand der Webseite an sich geschehen, wenn beispielsweise eine Zeitangabe für die Erstellung des Artikels existiert. Im Gegensatz zu der Zeitangabe auf der Webseite besitzt die Lösung des http-Headers den Vorteil, dass Bandbreite eingespart werden kann.

Inhalte vor dem Crawler schützen

robots-txt - Alle Suchmaschinen dürfen Inhalte durchsuchen und indexieren
Suchmaschinen ist das Durchsuchen/Indexieren der Webinhalte erlaubt

Selbst in der heutigen Zeit sind für viele Webseiten-Betreiber Begriffe wie Robots.txt und Meta-Robot ein Fremdwort. Doch dabei ist es nicht verkehrt, dem Suchmaschinen-Crawler mithilfe einer Robots.txt mitzuteilen, welche Verzeichnisse durchsucht werden sollen und welche eben nicht durchsucht werden sollen – schließlich muss nicht jeder Inhalt oder gar jedes Bild im Index der Suchmaschinen dargestellt werden.

Besonders wichtig ist dabei, dass der Webseitenbetreiber selbst die vorgenommenen Anweisungen in der eigenen Robots.txt kontrolliert, da es auch passieren kann, dass Suchmaschinen-Crawler komplett ausgeschlossen werden. Als Hilfsmittel für die Kontrolle eigenen sich die Google Webmaster Tools, womit zum einen die Robots.txt geprüft werden kann und zum anderen die Seite durch einen Crawler abgerufen werden kann. An den Resultaten lässt sich erkennen, wie der Google-Bot die Webseite sieht und natürlich welche Inhalte der Bot abgreifen kann und welche nicht.

Das Tool aus den Google Webmaster-Tools nennt sich übrigens „robots.txt“-Analyse Tool.

Informationen zur Erstellung einer Robots.txt finden sich auf nachfolgenden Seiten:

Neben der Erstellung einer Robots.txt gibt es auch die Möglichkeit für einzelne HTML-Seiten mittels dem Meta-Tag „<meta name=“robots“ content=“index,follow“ />“ bestimmte Einstellungen vorzunehmen, die einem Suchmaschinen-Crawler mitteilen, ob die Inhalte indexiert werden dürfen („index“) oder nicht indexiert werden dürfen („noindex“). Zudem kann angegeben werden, ob den Links auf der einzelnen Seite gefolgt („follow“) oder nicht gefolgt („nofollow“) werden sollen.

Die Webseite auf Herz und Nieren testen (Teil 2.1)

Aufgrund des Themenumfangs behandle ich diesen Punkt in einem separaten Artikel. Lesen Sie die Fortsetzung in „Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Weitere Artikel zum Thema Google Webmaster Richtlinien

Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)

Google Webmaster Tools und Google Webmaster Richtlinien

Dies ist der erste Artikel zu einer dreiteiligen Artikelserie zu den Google Webmaster Richtlinien – in Teil 2 wird die Thematik „Webmaster Richtlinien zum technischen Aufbau von Webinhalten“ und in Teil 3 „Webmaster Richtlinien zur Qualität“ angesprochen. Begonnen wird nachfolgend mit dem Thema „Webmaster Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts„. „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ weiterlesen