Digitale Strategie, New Work, Enterprise CMS, E-Business, Online Marketing und comspaciges
Autor: René Renk
Ist SEO-Consultant bei comspace und zuständig für die Bereiche Beratung, Analyse und Optimierung von Internetseiten. Im comspace-Blog schreibt er Artikel zu den Themen SEO, SEM und Marketing Events sowie über aktuelle Trends im Rahmen des Online Marketings. Google+
Am Freitag, den 15.05.2015, geht es zum Online Marketing Talk in Dänemark. Der beschauliche Ort der Veranstaltung Thyborøn hat 2.104 Einwohner und gehört zur dänischen Kommune Lemvig in der Region Midtjylland.
Die wilde Fahrt beginnt für mich am Freitag gegen 6:40 Uhr mit dem Zug vom Bielefelder Hauptbahnhof nach Hannover Hauptbahnhof. Ab Hannover geht es gegen 8:30 Uhr mit der Fahrgemeinschaft von Andreas Fiedler (Online Marketing Agentur Clicks) in Richtung Zielort. Ab 14 Uhr stehen die gebuchten Räumlichkeiten zur Verfügung – gegen 14:30 Uhr möchten wir am Strand von Thyborøn eintreffen.
Am ersten Tag der Veranstaltung geht es in erster Linie um das Ankommen und Kennenlernen, erst am zweiten Tag geht es mit den Workshops der Teilnehmer los. Rund 1.500 Quadratmeter warten auf die bis zu 40 Teilnehmer der Veranstaltung. Nebst den Annehmlichkeiten wie Whirlpool, Sauna, Solarium und Fitnessraum konnte Ausrichter Soeren Eisenschmidt mit Falk von Hoff einen Koch für die Veranstaltung gewinnen.
Wie sieht das tägliche Programm des OMTalk 2015 aus?
Der Tagesablauf ist strukturiert, bereits gegen 9 Uhr geht es mit den Sessions los. Zwischendurch werden die einzelnen Sessions nur durch das Aufnehmen einer Mahlzeit
unterbrochen. Also bis 17 Uhr volles Programm.
Die Themen der Veranstaltung sind ganz unterschiedlich und bilden das A bis Z des Online Marketings ab. Jeder Teilnehmer wird eine eigene Session halten, sein Wissen und seine Erfahrung an die Teilnehmer weitergeben.
Ab 20 Uhr gibt es noch ein Abendprogramm mit Site Clinic. Das bedeutet, wir untersuchen in Gemeinschaft unterschiedliche Webseiten und spüren Fehler und Verbesserungsmöglichkeiten auf.
Was ist Google News? Erfahrungsaustausch mit abschließender Diskussion
Als Teilnehmer werde ich einen Beitrag zum Thema Google News leisten. Hier gehe ich auf das Thema Google News ein und erkläre den Teilnehmer “Was ist Google News?”, “Welche Anforderungen zur Aufnahme in Google News müssen erfüllt werden” und “welche Ranking-Kriterien habe ich aus eigenen Erfahrungen gemacht.” Abschließen werde ich die Session mit einer kleinen Diskussionsrunde, um Erfahrungen mit den Teilnehmern austauschen zu können.
Kurz zu Google News
Google News ist ein Dienst aus dem Hause Google. Die tagesaktuellen Nachrichten werden aus verschiedenen Quellen aggregiert und über das dazugehörige Portal ausgespielt. Zusätzlich zeigt Google relevante News auch in den Google Suchergebnissen an. Vor allem für Nachrichten-Seiten stellt Google mit dem Dienst Google News eine zusätzliche Trafficquelle bereit.
Die erste Beta-Version von Google News erschien im April 2002 im englischsprachigen Raum. Erst im Januar 2006 wurde die Testphase abgeschlossen und der Dienst für andere Sprachregionen beziehungsweise Länder geöffnet. Allein in Deutschland gibt es weit über 1.000 Quellen, die in Google News gelistet sind. Diese teilen sich in verschiedene Themenbereiche wie z.B. Wirtschaft und Technik, Sport und Unterhaltung auf.
Der eingesetzte Algorithmus zur automatischen Indexierung der Nachrichten-Artikel geht auf den führenden Google Wissenschaftler Krishna Bharat zurück.
Mehrwert des OMTalks 2015
Im Gegensatz zu Veranstaltungen wie der SEO Campixx in Berlin laufen keine Workshops beziehungsweise Sessions parallel, sodass die Möglichkeit gegeben ist an jeder Session teilzunehmen. Das heißt mir stehen vierzig spannende Sessions bevor – ein Einblick in verschiedene Themenbereiche aus dem Online Marketing und natürlich verschiedenste Erfahrungswerte aus der Praxis, die ich auch in den Arbeitsalltag bei comspace nutzen kann bzw. werde.
Bereits im vergangenen Jahr keimten erste Hinweise auf ein weiteres Google Algorithmus Update auf. Denn zunächst wurde den Nutzern mithilfe eines zusätzlichen Snippet in den Google Suchergebnissen angezeigt, ob eine Webseite auch für mobile Endgeräte geeignet ist.
Dass Google durchaus ein Interesse daran hat, Internetseiten die für mobile Endgeräte ausgerichtet sind hervorzuheben, zeigte sich bereits im November des vergangenen Jahres, als Google entsprechende Suchergebnisse in den Google SERPS mit dem Zusatz „Für Mobilegeräte“ gekennzeichnet hat.
Google legt nach eigenen Angaben großen Wert auf die Benutzerfreundlichkeit und spricht immer wieder von einem perfekten Nutzererlebnis beim Besuch von Internetseiten. Als zusätzlicher Gradmesser zu den vielen Faktoren, die Google für das Ranking von Internetseiten heranzieht, könnte in Zukunft auch „mobile-friendly“ gehören. Webseiten, die diesen Vorgaben der Google Richtlinien nicht entsprechen, müssen mit schlechteren Ranking-Ergebnissen rechnen.
Die grundsätzliche Idee dahinter ist allerdings nicht neu, denn schon seit geraumer Zeit bezieht Google nutzerbezogene Informationen, darunter z.B. auch Interessen, Geo-Daten, Alter und Geschlecht, in die Ausgabe der Suchergebnisse mit ein. Auch die gewonnen Informationen aus einem Webseitenbesuch, sprich die Absprungrate, die Aktivitäten und die Verweildauer, sind Faktoren zur Bestimmung von Ranking-Positionen.
Google verschickt Warnhinweise über die Webmaster Tools
Ein Grund, warum jede Webseite in den Google Webmaster Tools eingetragen werden sollte ist, dass Google mit dem Inhaber einer Webseite über diesen Kanal kommuniziert. Mithilfe der Nachrichtenzentrale der Google Webmaster Tools teilt Google den Webseitenbetreiber mit, ob es Probleme, Hinweise und Empfehlungen für die eigene Webseite gibt.
In Bezug auf das aktuelle Thema verschickt Google an die Webseitenbetreiber Mitteilungen mit dem Betreff “Beheben Sie Probleme der mobilen Nutzerfreundlichkeit auf Domain.de” an den Webmaster der Webseite.
Weiter heißt es in der Mitteilung: “Die Systeme von Google haben 1 Seiten Ihrer Website getestet und bei 100 % dieser Seiten kritische Fehler in Bezug auf die Nutzerfreundlichkeit auf Mobilgeräten erkannt. Die Fehler auf den 1 Seiten beeinträchtigen die Nutzererfahrung auf Mobilgeräten für Ihre Website deutlich. Diese Seiten werden von der Google-Suche als nicht für Mobilgeräte optimiert eingestuft, und werden entsprechend in den Suchergebnissen für Smartphone-Nutzer dargestellt.”
Kurzum – die betroffene Webseite entspricht nicht den Vorgaben der Google Webmasterrichtlinien für mobile Webseiten und es bedarf einer Anpassung. Webseitenbetreiber sind demnach gezwungen, zu evaluieren ob es Möglichkeiten gibt, die betroffene Webseite zeitnah auf ein Google konformes Layout umzustellen.
Ich habe keine Mitteilung erhalten, bin ich auf der sicheren Seite?
Aktuell werden die Nachrichten nicht geschlossen an die Betreiber verschickt, sondern nach und nach, sodass noch eine entsprechende Nachricht eintreffen könnte, auch wenn jetzt noch nicht jeder Anwender eine Benachrichtigung in seinem Postkasten vorgefunden hat.
Ist meine Webseite mobilefähig?
Wer bisher noch keine Nachricht erhalten hat, kann im Vorfeld mithilfe der von Google bereitgestellten Oberfläche überprüfen, ob seine Webseite für mobile Endgeräte geeignet ist.
Das entsprechende Test-Tool befindet sich unter der Url:
Die Anwendung des Tools ist relativ simpel: Die URL wird in das entsprechende Feld eingetragen und nach einem Klick auf “Analysieren” untersucht der Crawler die Website.
Leider macht Google keine besonders detaillierten Angaben, wenn es um die möglichen Optimierungspotentiale geht, daher empfiehlt es sich, noch ein weiteres Tool von Google in Anspruch zu nehmen und zwar Google Pagespeed.
Google Pagespeed überprüfen
Hier kann der Anwender nun auch einsehen, welche Probleme und auch Hinweise Google für den Anwender parat hält. Die Analyse unterteilt Google in die Tabs “Mobil” und “Desktop” sowie jeweils in “Schneller gemacht” und “Nutzererfahrung”. In Bezug auf das Thema ist der Punkt Nutzererfahrung relevant, allerdings sei an dieser Stelle angemerkt, dass die Ladegeschwindigkeit einer Website auch einen Einfluss auf das Ranking haben kann.
Rankingfaktor – Mehr mobilfreundliche Websites in Suchergebnissen
Ab dem 21. April gilt die Optimierung für Mobilgeräte auch als Rankingsignal. Die angekündigte Änderung wirkt sich auf mobile Suchanfragen in allen Sprachen weltweit aus. In Zukunft werden Internetnutzer bei Suchanfragen Ergebnisse erhalten, die sowohl relevant in Bezug auf die Anfrage als auch hinsichtlich dem verwendeten Gerät sind.
Der Navigationspunkt „Crawling Fehler“ unter dem Menüpunkt „Crawling“ gehört zu den wichtigsten Features im Angebot der Google Webmaster Tools. Anhand der Daten lassen sich unter anderem DNS- sowie Server-Verbindungsprobleme erschließen.
In den nachfolgenden Übersichten wird grob aufgelistet, wie viele vermeintliche Fehler für eine Website seitens Google gefunden wurden – unterschieden wird hierbei zwischen Web und Mobile-Version der Website. Die gefundenen Fehler werden in der Regel in die Bereiche „Serverfehler“, „Zugriff verweigert“, „Nicht gefunden“, „Nicht aufgerufen“ sowie „Sonstiges“ unterteilt.
Die Übersichten eignen sich in erster Linie dazu, einen groben Überblick der Fehler zu erhalten. Erst wenn der Anwender tiefer ins Detail geht, werden die dargestellten Ergebnisse interessanter und die Fehlerquellen ersichtlich.
Die dargestellten Informationen, dem entsprechend auch die Grafiken, sind grundsätzlich abhängig von der jeweiligen Website. Das bedeutet, ein Ergebnis für eine bestimmte Website aus den Google Webmaster Tools kann nicht pauschal auf andere Websites übertragen werden.
Empfehlung: Es ist empfehlenswert, regelmäßig in die Google Webmaster Tools zu schauen und sich dabei die Website-Fehler anzeigen zu lassen, denn dadurch lassen sich vermeintliche und bis zum jetzigen Zeitpunkt unbekannte Fehlerquellen erschließen und im optimalen Fall sofort beheben.
Wenn ein Fehler zu einer bestimmten URL behoben wurde, sollte dies auch im Anschluss der Suchmaschine Google über die vorhandenen Schaltflächen („Als korrigiert markieren“) mitgeteilt werden. Nur so kann sichergestellt werden, dass Google die Inhalte wiederum zeitnah besucht und im Anschluss indexiert.
Vom 15.03. bis 16.03. hat die inzwischen sechste SEO Campixx, initiiert von Marco Janck, am Berliner Müggelsee stattgefunden. Als einer der Sponsoren waren wir mit zwei Kollegen dabei. In ca. 120 Sessions gab es am Samstag und Sonntag Vorträge, Workshops und Gespräche zum Thema Suchmaschinenoptimierung bzw. den diversen Facetten des Online-Marketings.
Wie bereits in den Jahren zuvor, startete die Veranstaltung mit einem zusätzlichen Tag: am 14.03. fand der sog. Next Level Day 2.0 statt.
Bei der großen Anzahl der Workshops ist es uns nicht leicht gefallen, die passenden Sessions herauszupicken. Es ist jedes Jahr wieder ein riesiger Spaß die passenden Workshops auszuwählen und auf der SEOCampixx darüber zu philosophieren, wie schwierig es ist sich zu entscheiden. Doch genau das gehört zur SEOCampixx dazu.
Tag 0: Der Next Level Day 2.0
Am Freitag startete der Next Level Day 2.0 pünktlich gegen 9 Uhr mit einer kurzen Begrüßung durch Marco Janck.
Julius van de Laar, Odera Ume-Ezeoke und Katia Saalfrank
Im Anschluss ergriff Julius van de Laar das Wort und berichtete uns in seinem spannenden Workshop darüber, wie er unter anderem den Obama-Wahlkampf in Ohio mithilfe von Big Data, Analysen und Kampagnen gestaltet hat. Zudem nannte Julias Methoden, wie potentielle Wähler ausgewählt und angesprochen wurden, damit diese Barack Obama ihre Stimme gaben. Diese Form des Wahlkampfs würde wahrscheinlich in Deutschland an der rechtlichen Situation wie auch dem Datenschutz scheitern. Nach einer Pause von 30 Minuten ging es weiter mit dem Workshop Retail 3.0 – The revolution in commerce von Odera Ume-Ezeoke.
Einer der authentischsten Vorträge war der Workshop mit Katia Saalfrank, auch bekannt als Supernanny aus dem Fernsehen. Der Workshop „Authentisches Marketing und Medienkompetenz“ wurde in Form eines Interviews geführt. Zum einen berichtete Katia Saalfrank über die Gründe des Ausstiegs aus dem TV-Programm und natürlich über die gewonnen Erfahrungen. Außerdem darüber, wie sich ihre Arbeit nachhaltig verändert hat und über den Vertrauens-Vorschuss, den sie im TV-Format „Supernanny“ hinzu gewinnen konnte.
Gesellschaft 2020 – Skizze einer Vision
von Jens Altmann
Als nächstes kam Jens Altmann zum Zuge, der sich in seinem Vortrag auf technische Veränderungen bis zum Jahre 2020 fokussierte. Dabei vergleicht er die gesellschaftlichen Veränderungen und Erfahrungen mit dem Lebenszyklus von technischen Produkten. Nach seiner Auffassung verändert sich nur nicht die Work-Life-Balance, sondern auch die Integration von technischen Produkten und Lösungen wird in Zukunft für eine andere Form der Wahrnehmung sorgen.
Marketing 2020: Strategien für die Granularisierung der Welt
von Joachim Graf
Den meisten dürfte Joachim vor allem durch das iBusiness Magazin (mit dem SEO/SEM TOP 100 Poster) wie auch einigen Vorträgen auf anderen Events bekannt sein. Er sprach in seinem Vortrag über die Veränderung der Märkte hin zu maßgeschneiderten Produkten basierend auf Kundenwünschen. Die Welt wird kleinteiliger.
Übrigens: Der Markt für Zeitschriften, Zeitungen und Magazine ist nicht tot und die Entwicklung zeigt, dass der Absatz langfristig weiter sinken wird, allerdings nicht so stark, dass solche Produkte im Jahre 2020 (wahrscheinlich auch nicht 2036 ) gänzlich von der Bildfläche verschwunden sein werden.
Vision Google Glass
von Patrick Zimmermann
Zu guter Letzt stellte uns Patrick Zimmermann die Datenbrille Google Glass vor. Natürlich ließ er es sich zu Beginn nicht nehmen, ein Foto von allen Workshop Teilnehmern zu machen und dieses auch mithilfe von Google Glass ins soziale Netzwerk Facebook zu stellen.
Nebst den Möglichkeiten und den Zukunftsaussichten der Datenbrille teilte uns Patrick auch seine Einschätzungen mit. Demnach funktioniert Google Glass nur stellenweise recht angenehm und auch die Anzahl an Anwendungen ist eher gering. Im Alltag sorgt die Datenbrille durchaus für negative Blicke der Passanten, weil diese sich aufgrund der ungewöhnlich aussehenden Brille (die Angst vor dem Unbekannten) beobachtet fühlen. Ferner reicht der Akku nicht sonderlich lange, so dass nach rund vier Stunden die Datenbrille Google Glass wieder an die Steckdose muss.
Tag 1: SEO Campixx 2014
Der erste Tag der SEO Campixx 2014 begann, vor allem für die Leute die am Next Level Day 2.0 nicht teilgenommen haben, mit einer kleinen Einführung und Ansprache durch Marco. Abschließend gab es noch eine kleine Roboter-Schau, nachdem der Raum im Nebel untergegangen war.
SEO & Affiliatemarketing im Adult-Bereich
von Christian Süllhöfer
Christian schaffte es in seinem ersten Workshop auf der SEO Campixx, den Saal komplett zu fesseln und in eine Branche einzuführen, die gerade in Deutschland eine Grauzone darstellt. Er zeigte anhand eines eigenen Beispiels, mit welch geringem Arbeitsaufwand interessante Erfolge zu verzeichnen sind und wie er das Know-How aus anderen Bereichen des Affiliate-Marketing in den Adult-Bereich übernehmen konnte.
Linkquellen finden und evaluieren
von Sergej Schäfer
Im Vortrag „Linkquellen finden und evaluieren“ beschrieb Sergej, wie er bei der Suche nach geeigneten Linkquellen vorgeht und diese mithilfe von Domainwerten, Strukturen und Inhalten bewertet.
Die Kunst der internen Verlinkung
von Sabrina Tietmeyer
Sabrina merkte man ihre Nervosität deutlich an, was auch dazu führte, dass kleinere Versprecher im Vortrag enthalten waren. Der Vortrag eignete sich sowohl für Anfänger wie auch Experten, weil selbst die Grundlagen eines internen Links erklärt wurden. Weiterhin zeigte Sabrina, welche Arten von internen Verlinkungen existieren und wie diese gewichtet werden.
In einem kurzen Gespräch am Abend stellte sich dann noch heraus, dass Sabrina für ihren Vortrag eine Vielzahl an Testszenarien erstellt hatte, worauf auch der Inhalt des Workshops basierte.
Dirty little Snippets
von Pascal Landau und Alexander Rosenthal
Im Workshop “Dirty little Snippets” gaben uns Pascal und Alexander einen Einblick in die Vielzahl an Snippets die für die Suchergebnisse, sprich unter anderem im Seitentitel und in der Meta-Beschreibung, verwendet werden können.
So spannend der Vortrag, die Tipps und Tricks hinsichtlich des Einsatzes von Rich Snippets zur Verbesserung der Sichtbarkeit in den Suchergebnissen waren, so enttäuschend ist, wie wenig die verschiedenen Browser am Ende zulassen.
Das heißt, vorausgesetzt Google erlaubt ein Snippet und zeigt dies in den Suchergebnissen an, bedeutet dies noch lange nicht, dass das gewünschte Snippet in jedem Browser und mobilen Endgerät korrekt ausgeliefert wird.
Die ultimative Keyword-Recherche
von Felix Meyer
Am Ende des Tages zeigte Felix, wie er eine ultimative Keyword-Recherche mithilfe der Datensätze verschiedener Toolanbieter und natürlich Excel durchführt.
Die gesammelten Daten wurden in Verbindung mit einer simplen Pivot-Tabelle aufbereitet, allerdings so, dass die komplette Struktur einer Website abgebildet werden konnte, wodurch Potentiale und Möglichkeiten mit einem geschulten Auge direkt erkannt werden konnten.
Pasta-Pate und Liveband
Am Abend gab es neben den gewohnten Grillwagen auch einen Pasta Paten, der eine echte Alternative darstellte. Natürlich gab es nebst der Verpflegung auch noch ein schönes Abendprogramm mit der Liveband „Coverpiraten“ aus Hamburg.
https://www.youtube.com/watch?v=j9vL4CBp_vo
Tag 2: SEO Campixx 2014
Nach dem bei einigen Teilnehmern der Samstag-Abend etwas länger ging, waren zumindest gegen zehn Uhr die Workshop-Räume nur teilweise gut gefüllt.
WordPress Extreme. Mit 100$ zum Powershop. Inkl. hidden Tricks
von Uwe Walcher und Dawid Przybyski
Ein Vortrag, der es in sich hatte, denn Uwe und Dawid zeigten uns, wie mithilfe des Blog-Systems ein WordPress Shop erstellt werden kann, der binnen weniger Minuten mit mehreren tausend Produkten bestückt ist und am Ende des Tages bereits den einen oder anderen Euro an Provision erwirtschaften kann. Dies setzt natürlich voraus, dass der Anwender in seiner Tätigkeit durchaus kreativ ist. Spannend war vor allem, dass sowohl Uwe als auch Dawid nicht nur sagten „ja, es geht irgendwie so“ sondern auch zeigten, wie hoch ihre Einnahmen sind und wodurch sie zustande kommen.
“Speed up your page!”
von Dennis Elsner
Dennis zeigte uns in seinem Vortrag, worauf es zu achten gilt, wenn die Geschwindigkeit einer Website verbessert werden soll und wie Google einzelne Elemente bewertet. Im Kern des Vortrags standen verschiedene Coachingmöglichkeiten sowie Apache-Module wie auch Googles Pagespeed.
„Einfach Geld verdienen mit Affiliate Projekten: Sind die Zeiten vorbei?“
von Darius Erdt und Christian Hübsch
Vom Tellerwäscher zum Millionär binnen weniger Stunden, zumindest in der Theorie klingt das relativ nett. Darius und Christian gingen darauf ein, wie sich der Markt, bedingt auch durch Google Updates, in den letzten Jahren verschärft hat und mittlerweile deutlich mehr Arbeit investiert wurde. Der als Interview geführte Workshop zeigte, welche Erfahrungen in den letzten Jahren gemacht wurden und worauf geachtet werden muss, wenn eine Familie vom Affiliate-Marketing ernährt werden muss.
Fazit der diesjährigen SEO Campixx 2014
Die SEO Campixx 2014 war, wie eigentlich nicht anders zu erwarten, ein voller Erfolg. Es gab spannende Vorträge, die wieder mal den Horizont erweitern konnten und diverse Insights, die für neue Ideen sorgten. Nebst den diversen Workshops gab es auch spannende Gespräche wie z.B. mit Soeren Eisenschmidt (eisy.eu) oder René Dhemant aus dem Hause unseres Tools Partners Sistrix.
Ein besonderes Highlight war in diesem Jahr auch der Pasta-Pate als Alternative zum umstrittenen Grillwagen. Für das nächste Jahr hat sich das Team von Sumago etwas Neues einfallen lassen und präsentiert vorab die SEO Campixx Week mit verschiedenen Themenbereichen.
Abschließend hier noch die Recaps der Branchen-Kollegen und -Kolleginnen:
Im März ist es wieder soweit und Scharen von Online Marketing Experten treibt es wieder nach Berlin, denn vom 14.03. bis zum 16.03.2014 findet im Hotel am Müggelsee in Berlin die beliebte Veranstaltung SEO-Campixx 2014 statt. Natürlich hat es sich comspace nicht nehmen lassen, auch in diesem Jahr als Sponsor „Extrem Freunde“ an dem Event teilzunehmen.
Im Vordergrund der SEO Campixx steht der Austausch von Erfahrungen und Fachwissen, vor allem dank der Vielzahl an interessanten Workshops, die von namhaften Online Marketing Experten durchgeführt werden. Ferner erlaubt die SEO Campixx auch die Erweiterung des Horizonts im Hinblick auf die verschiedenen Facetten des Online Marketings.
Konzept der SEO Campixx
Mit rund 550 Teilnehmern gehört die SEO-Campixx in Deutschland seit Jahren zu den größten Veranstaltungen dieser Art. Jedes Unternehmen wie auch jeder Teilnehmer hat die Möglichkeit einen eigenen Workshop zu gestalten.
In den Jahren zuvor erlaubte beispielsweise der SEO Tool-Day Tool-Anbietern und Entwicklern, ihre Produkte, Ideen und Visionen den Konferenz-Besuchern vorzustellen. Auch der Next Level Day im vergangenen Jahr vermittelte den Teilnehmern viele Informationen.
Für ein schönes Rahmenprogramm während der Workshops, in den Pausen und natürlich an den Abenden nach den Workshops sorgen die Organisatoren der SEO-Campixx aus dem Hause Sumago.
Next Level Day 2.0 und Abendprogramm
Der Next Level Day 2.0, der einen Tag vor der eigentlichen Campixx, am Freitag, stattfindet, ist in diesem Jahr dem Motto „Marketing im Jahr 2020“ gewidmet. Bei dem Blick auf die Referenten hielt ich es im ersten Moment für einen kleinen Scherz der Veranstalter, dass die aus dem TV-Programm als Supernanny bekannte Katia Saalfrank einen Vortrag zum Thema „Gesellschaftliche Kompetenzbildung“ hält. Ihren Vortrag erwarte ich daher mit besonderer Spannung.
In diesem Jahr widmen wir uns am Next Level Day 2.0 dem Marketing der Zukunft, sprich: Wie könnte das klassische Marketing wie auch das Online Marketing im Jahre 2020 aussehen? Darunter spannende Themen und Diskussionen über die Veränderung des Konsumverhaltens innerhalb der kommenden sechs Jahre unter Berücksichtigung des Einsatzes neuer technischen Innovationen wie zum Beispiel dem Google Glass.
Zur Erholung wird es am Abend ein spannendes Poker-Turnier für ein Startgeld von 50 Euro geben. Insgesamt stehen sechs Tische für je 10 Teilnehmer zur Verfügung – das bedeutet natürlich, dass leider nicht jeder Teilnehmer der SEO Campixx in den Genuss des Pokerturniers kommen wird.
Programm Tag 1 der SEO Campixx 2014
Der erste offizielle Campixx-Tag beginnt mit einer Begrüßung durch Marco Janck, Inhaber von Sumago und Veranstalter der SEO-Campixx. Dies vor allem auch für die Teilnehmer, die am Next Level Day 2.0 nicht teilnehmen konnten. Im Anschluss daran beginnen gegen 10:30 Uhr die ersten Workshops. Werfen wir also einen kurzen Blick auf die Workshops, die für Tag 1 unser Interesse geweckt haben.
Onpage Analyse mit Microsoft Excel
Master: Stephan F. Walcher
Optimieren großer Websites mit Screaming Frog & Excel
Master: Florian Elbers und Michael Tietz
Linkquellen finden und evaluieren
Master: Sergej Schäfer
Webseiten sinnvoll strukturieren – Usability und SEO vereinen
Master: Tobias Schwarz
Möglichkeiten einen Link von einer Zeitung zu bekommen
Master: Katrin Diener
Die Kunst der internen Verlinkung
Master: Sabrina Tietmeyer
SEO meets Redaktion
Master: Maximilian Hitzler
Onpage-Fehlentwicklungen möglichst schnell erkennen und gegensteuern
Master: Matthias Nientiedt
Nischeneroberung mit Content Marketing
Master: Carsten Appel
Welcome to the Darknet
Master: Dominik Wojcik
Dirty Little Snippets
Master: Pascal Landau und Alexander Rosenthal
Die ultimative Keyword-Recherche
Master: Felix Meyer
Die Liste für Tag 1 ist natürlich ziemlich lang und leider wird man trotz der Vorauswahl aus immerhin über 60 Workshops nicht alle besuchen können. Während des Next Level Day 2.0 und in den Pausen besteht allerdings die Möglichkeit, durch erste Gespräche Informationen über die anstehenden Workshops im Vorfeld einzuholen.
Für einen spannenden Abschluss des ersten Tags wird das Abendprogramm mit einem anschließenden Bandauftritt sorgen.
Programm Tag 2 der SEO Campixx 2014
Auch am zweiten Tag der SEO-Campixx stehen wieder einige spannende und lehrreiche Workshops auf dem Plan. Ein besonderes Augenmerk haben wir dabei auf nachfolgende Workshops gelegt.
Inhouse (SEO-)Reporting fernab von Excel-Tabellen
Master: Simon Kronseder
Internal Linking – Best Practice
Master: Robert Eilenberg und Michael Felis
WordPress Extreme. Mit 100 $ zum Powershop inkl. hidden Tricks
Master: Uwe Walcher und Dawid Przybyski
David gegen Goliath – Nischenprojekte: Wie setze ich mich dauerhaft gegen die „Großen“ durch?
Master: Mario Förster
Außergewöhnliche Wege um Themen für Beiträge zu finden
Master: Pierry Kurby
Speed up your Page!
Master: Dennis Elsner
Content, Content, Content
Master: Eva Schmittinger
Einfach Geld verdienen mit Affiliate-Projekten: Sind die Zeiten vorbei?
Master: Darius Erdt und Christian Hübsch
InfiniteWP – starkes Tool für dein WordPress-Netzwerk
Master: Nils Römeling
Themenrelevante Foren mit der Scrapebox finden
Master: Michaela und Christian Burkart
100 % Not Provided – und jetzt?
Master: Knut Barth, Karl Kowald und Philip Schade
Der richtige Content für die richtigen Keywords
Master: Jörg Aschendorff
Der richtige Content für die richtigen Keywords
Master: Simon Mader
Die letzten Workshops an Tag 2 gehen bis ca. 17 Uhr, anschließend findet noch eine kurze Verabschiedung mit einer kleinen Auswertung statt.
http://www.youtube.com/watch?v=AGxZ2h7GM-A
„Extrem Freunde“: comspace als Sponsor
Seitdem die SEO-Campixx in Berlin ins Leben gerufen wurde, war mindestens ein Kollege aus dem Online Marketing Team von comspace als Teilnehmer dabei. In diesem Jahr unterstützen wir die Campixx wie schon 2012 wieder als Sponsor mit dem Grad „Extrem Freunde“ und nehmen mit zwei Kollegen an der Veranstaltung teil.
Das Sponsoring von Online Marketing Events hat für comspace schon Tradition: In der Region Ostwestfalen beteiligen wir uns regelmäßig an den hiesigen Barcamps wie auch am Online Stammtisch OWL.
Es freut uns natürlich auch, dass dank der SEO-Campixx und dem Einsatz des Teams von Sumago eingenommene Startgelder wie auch weitere gespendete Gelder für soziale Zwecke an die Stiftung Sonnenseite mit Unterstützung der morethanshelters e.V. Berlin gespendet werden.
Um das sogenannte Disavow Tool ranken sich mittlerweile die verschiedensten Geschichten. Das Linkentwertungstool aus dem Hause Google wird mittlerweile auch als Druckmittel verwendet, weil nach wie vor einige Website-Betreiber dem Irrglauben unterliegen, dass mithilfe dieses Tools Websites in ihrer Wertigkeit abgestuft werden können.
Es gibt verschiedene Kriterien anhand dessen Google Websites eine Wertigkeit vergibt, natürlich verrät Google nicht, welche Kriterien mit welcher Gewichtung am Ende tatsächlich in den Algorithmus einfließen. Allerdings weiß wohl jeder Webseitenbetreiber, spätestens seit dem sogenannten Pinguin Update, dass Backlinks nach wie vor einen relevanten Faktor darstellen, schlechte Backlinks aber zur Abwertung von Websites führen können.
Google ist bemüht Websites zu bewerten und diese anhand der Bewertung in den Suchergebnissen zu positionieren. Darein fließen auch Backlinks, je nach Qualität, mit positiver wie auch negativer Auswirkung in das Ranking ein. Im Zuge verschiedener Algorithmus-Updates und Erweiterungen hat Google gezeigt, dass Websites, deren Links manuell aufgebaut werden, erkannt werden und dem entsprechend auch abgewertet werden können. Zeitgleich stellt Google das sogenannte Disavow Tool zur Verfügung, mit dem Links für ungültig erklärt werden können.
Das Disavow Tool, wird eingesetzt wenn…
Es gibt verschiedene Gründe, aus denen das Disavow Tool zum Einsatz kommen kann. Beispielsweise kann ein Konkurrent auf die Idee kommen, eine Website durch Spamlinks in die ewigen Jagdgründe schicken zu wollen. Ferner kann der Websitebetreiber auch eigene Links, auf schwachen und nicht relevanten Seiten, aufgebaut haben. Die Gründe sind unterschiedlich, allerdings die Ursache in der Regel identisch.
Aktuell erhalten viele Blogger entsprechende Nachrichten, dass Links, die in Kommentaren gesetzt wurden, unter Androhung des Einsatzes des Disavow Tool schleunigst zu entfernen sind. Der Irrglaube, dass mit dem Disavow Tool anderen Websites geschadet werden kann, existiert eigentlich schon seit der ersten Version des Tools. Doch das Disavow Tool dient lediglich dazu, der Suchmaschine Google mitzuteilen, dass in der Vergangenheit ein Fehler gemacht wurde und eventuell Links manuell aufgebaut wurden oder andere Personen diese aufgebaut haben. Links werden somit als nicht gültig erklärt – eine Website wird dadurch nicht abgewertet, das wäre auch für die organische Suche mehr als fatal, auch wenn die bezahlten Ergebnisse von Jahr zu Jahr stärker in den Fokus rücken.
Funktionsweise des Disavow Tool
Die Funktionsweise des Disavow Tool ist denkbar einfach: Zu allererst gilt es die Links zu identifizieren, die den Schaden verursacht haben. Diese müssen einfach in einer CSV-Datei oder Textdatei untereinander aufgeführt werden.
Im Anschluss muss natürlich das Online-Tool unter https://www.google.com/webmasters/tools/disavow-links-main aufgerufen werden. Im nächsten Schritt muss die entsprechende Domain, die vorher in den Google Webmaster Tools verifiziert wurde, ausgewählt werden.
Nachdem die gewünschte Domain, deren Links als ungültig eingestuft werden sollen, ausgewählt wurden, muss natürlich die vorgefertigte Text-Datei oder CSV eingebunden werden. Im Anschluss kann die Datei über den Button „Senden“ an Google übermittelt werden.
Nun heißt es abwarten, bis Google die Ungültigkeitserklärung übernimmt und die vermeintlich negativen URLs aus der Berechnung entfernt.
Mit dem Einsatz des Disavow Tool schadet man nicht der Website, welche auf die eigene Website verlinkt, sondern sorgt lediglich dafür, dass die Links nicht mehr in die Bewertung der Website mit einfließen. Google ist anhand seines Algorithmus selbst in der Lage die Website, von der auch der Link stammt, zu bewerten.
Seit Anfang des Jahres bietet Soeren Eisenschmidt (auch unter dem Pseudonym Eisy bekannt) im beschaulichen Örtchen Merseburg einen SISTRIX Toolbox Workshop an. Dieser Workshop findet in einem Kreis von maximal 10 Personen statt, in der Regel dauert der Workshop rund sieben Stunden zuzüglich der dazugehörigen Diskussionen und Fragen.
Kurz zu Soeren Eisenschmidt
Als offizieller Partner von SISTRIX teilt Soeren Eisenschmidt mit den Teilnehmern sein Wissen und seine Fertigkeiten im Umgang mit der SISTRIX Toolbox. Seit über einem Jahrzehnt gehört Soeren zu den führenden Persönlichkeiten des Suchmaschinenmarketings und stellt sich stetig den Herausforderungen des Wettbewerbs. Unter anderem schreibt Soeren sehr regelmäßig auf seinem Blog Eisy.eu über die verschiedenen SEO-Tools.
Ich für meinen Teil kenne Soeren noch aus den verschiedenen Webmaster-Communities, allen voran dem Webmasterpark. Erste sporadische Kontakte wurden bereits durch seine Tätigkeiten als Moderator in eben diesen Communities geknüpft. Das dürfte noch in den Jahren 2003, 2004, 2005 gewesen sein.
Rückblick auf den Workshop am 11.10.2013
Da die SISTRIX Toolbox in diesem Jahr ihren fünften Geburtstag feiert, befindet sich mit SISTRIX Next bereits das neue Flaggschiff von SISTRIX in Arbeit. Primär wurde im Workshop auch mit SISTRIX Next gearbeitet – allerdings musste aufgrund des BETA-Status zwischendurch zur „alten“ SISTRIX Toolbox gewechselt werden. comspace nutzt übrigens seit über vier Jahren die SISTRIX Toolbox und vertraut damit auf die Qualität und Leistung des im deutschsprachigen Raum führenden SEO-Tool.
Mit Ferit Koc und mir haben sich am vergangenen Freitag früh zwei comspace-Teilnehmer auf den Weg von Bielefeld nach Merseburg gemacht. Fast überpünktlich trafen wir im Seminarraum für den Sistrix Toolbox Workshop ein. Mit von der Partie war auch René Dhemant aus dem Hause Sistrix.
Was ist neu in Sistrix Next?
In der kommenden Version von Sistrix gibt es spannende Veränderungen und auch neue Features. Wer allerdings nach einer Funktion zur Termgewichtung in Sistrix Next sucht, dem kann ich vorab mitteilen, dass Sistrix sich seiner Linie treu bleibt und nicht jeden Trend implementiert. Dafür gibt es andere Tools wie Onpage.org und SeoLyze.
Google Sync: Google Analytics in der Sistrix Toolbox
Sistrix Next erlaubt fortan die Verknüpfung der Sistrix Daten mit denen von Google Analytics. Der Punkt wurde in Sistrix Next auf den Namen „Google Sync“ getauft. Nachdem Sistrix Next mit dem Google Analytics Account verbunden wurde, lassen sich sämtliche Domains, die in dem verbundenen Google Analytics Account hinterlegt sind, in Verbindung mit den Sistrix Daten analysieren.
Besonders spannend ist dabei ein Vergleich des Sichtbarkeitsindex in Bezug auf den Verlauf der Besucherzahlen. Demnach zeigt sich eindrucksvoll, in wie weit der Verlauf des Sichtbarkeitsindex mit dem Verlauf der Besucherzahlen übereinstimmt.
In der Vergangenheit war die Überzeugung vorhanden, dass der Sichtbarkeitsindex eher eine Tendenz als ein exakter Wert ist. Dank der Funktion von Sistrix Next, die die gesammelten Daten von Sistrix und Google Analytics in einen Kontext setzt, wurde von Soeren eindrucksvoll wiederlegt, dass der Sichtbarkeitsindex in der Regel nur eine Tendenz darstellt.
Denn die Entwicklung von Besucherzahlen spiegelt sich zu einem Großteil anhand des Sichtbarkeitsindex wider. Damit eignet sich der Sichtbarkeitsindex auch zur Analyse des möglichen Verlaufs der Besucherzahlen potentieller Konkurrenten.
Bessere Filtermöglichkeiten
Filter sind an sich in der Sistrix Toolbox nichts Neues, allerdings wurden die Filterfunktionen und Filtermöglichkeiten für Sistrix Next deutlich erweitert. So lassen sich Filter kombinieren und natürlich anwenden. Für schnelle und kurze Analysen eine Verbesserung hinsichtlich der Usability.
Reports – schneller, einfacher, effizienter
Das Anlegen eines Reports in der bisherigen Sistrix Toolbox war nicht sonderlich angenehm und vor allem relativ zeitaufwändig. Für Sistrix Next hat das Team von Sitrix richtig Gas gegeben und den Reports nicht nur ein Facelift in Design und Usability spendiert, sondern auch noch einen neuen Motor samt Getriebe.
Das Erstellen von Reports ist endlich elegant gelöst worden, binnen weniger Minute lassen sich individuell gestaltete Reports erstellen.
Shortlinks verschicken
Ein ganz besonderes Highlight ermöglicht Sistrix Next durch die Erstellung von Shortlinks innerhalb von Sistrix. Dadurch lassen sich einzelne Analysen kurzerhand mittels einem 24-Stunden gültigen Link an Bekannte und Kunden versenden. Ferner erlaubt Sistrix Next auf die angezeigte Seite in Form einer PDF zu verschicken.
Und auch hier merkt man einfach, dass Sitrix deutlich an der Geschwindigkeit gedreht hat. Allein das PDF- und Shortlink- generieren mit der entsprechenden Darstellung geschieht in wenigen Sekunden.
Learnings und Meinungen
Nachfolgend ein paar Learnings und Meinungen, die auch mithilfe der Teilnehmer des Sistrix Workshops und natürlich durch das Fachwissen von Soeren gewonnen werden konnten.
Sichtbarkeitsindex, doch mehr als eine Tendenz
Wie bereits erwähnt, war in der Vergangenheit der Sichtbarkeitsindex eher als eine Art Tendenz eingestuft worden. Während des Workshops kristallisierte sich allerdings raus, dass der Sichtbarkeitsindex durch Sistrix sehr genau berechnet wird und der Verlauf mit den tatsächlichen Besucherzahlen in einem Kontext gesetzt werden kann.
Ist der PageRank tot?
Ein heiß geliebtes Thema in der Welt des Online-Marketings – jedes Jahr aufs Neue wird dem Google PageRank nachgesagt, er sei tot. Das ist allerdings nicht der Fall, auch wenn der öffentliche Pagerank nicht mehr in regelmäßigen Abständen seitens Google geupdated wird, zeigt er dennoch an, ob eventuell eine Website durch ein Google Update betroffen ist – zu große Schwankungen im Pagerank sind nicht natürlich und schließen darauf, dass eine Website nicht den Kriterien des Suchmaschinenriesen entspricht. Ferner spiegelt ein Pagerank nach wie vor die Offpage-Qualität einer Website wider, auch wenn dieser Wert seitens Google sehr selten aktualisiert wird. Der interne Wert wird seitens Google natürlich regelmäßig berechnet, da Backlinks von hoher Qualität immer noch ein wichtiger Faktor für optimale Positionen in den Suchergebnissen darstellen.
Ein interessanter Exkurs zum Pagerank
Vor einiger Zeit hat Google die Pagerank Anzeige vor allem für Finanzseiten deaktiviert – gerade in diesem Bereich fließt eine Menge Geld und dem entsprechend blüht auch hier der Verkauf von Links in Verbindung mit der Wertigkeit einer Website, die im Bereich des Linkbuildings noch häufig allein an dem Pagerank festgemacht wird. Dadurch zeigte Google, dass Backlinks immer noch einen wichtigen Stellenwert für positive Rankings haben – allerdings entspricht der Handel mit Links natürlich nicht den Google Webmaster Richtlinien.
Am Ende kann man sagen…
Ein guter Workshop über die zukünftigen Verwendungsmöglichkeiten von Sistrix Next wie auch denen der aktuellen Sistrix Toolbox. Gepaart mit dem Fachwissen von Soeren konnten auch eine Menge an Learnings erworben werden, wodurch die Analyse und Arbeit mit Sistrix langfristig noch verbessert werden kann. Die Investition für den Sistrix Workshop hat sich definitiv gelohnt.
Zusätzlich darf gut und gerne behauptet werden, dass die Jungs und Mädels von Sistrix einen sehr guten Job gemacht haben und das Arbeiten mit Sistrix Next bereits jetzt sehr viel Freude bereitet, auch wenn sich in der aktuellen Beta-Version noch der ein oder andere Fehler eingeschlichen hat.
Ein sogenannter Serverfehler bedeutet, dass der Googlebot eine Unterseite – oder sogar die komplette Seite – nicht abrufen konnte und für eine Abfrage innerhalb eines festgelegten Zeitlimits keine Rückmeldung erhalten hat oder der Zugriff auf die gewünschte URL wurde verweigert. Somit wird der Googlebot genötigt, die Anfrage abzubrechen.
In der obigen Grafik wird beispielhaft dargestellt, wie dem Anwender über die Google Webmaster Tools mitgeteilt wird, dass eine URL der eigenen Website einen Antwortcode 500 liefert und dieses Problem am 08. Mai 2013 erkannt wurde.
Um mehr Details zu der entsprechenden URL zu erfahren, reicht ein Klick auf diese URL, um das nachfolgende Popup zu öffnen.
Die Fehlerdetails sind eindeutig – der Googlebot hat bereits am 07.05.2013 versucht, besagte URL aufzurufen und konnte diese bzw. durfte diese URL möglicherweise nicht aufrufen. Eine weitere Überprüfung seitens der Suchmaschine Google erfolgte am 08.05.2013 – denn auch Google weiß, dass eine Website kurzfristig ausfallen kann und daher wird durch einen weiteren Versuch überprüft, ob das Problem weiterhin vorhanden ist.
Step 1: Warum geht die URL nicht
Im ersten Schritt gilt es für den Anwender zu überprüfen, warum diese URL für den Suchmaschinen-Bot nicht zu erreichen war bzw. warum genau diese Seite einen Antwortcode 500 liefert. Der Antwortcode 500 ist per Definition ein „Sammel-Statuscode“ für unerwartete Serverfehler.
Der comspace-Blog basiert auf WordPress. Anhand der URL ist zu erkennen, dass eine Vorschau-URL generiert wurde, die für den Google-Bot erreichbar war bzw. ist. Wenn die URL in einem aktuellen Browser abgerufen wird, so erhält der Anwender die Nachricht „Du hast nicht die erforderlichen Rechte, um die Entwurfsvorschau zu sehen.“ Im Fall von WordPress kann dies zwei Ursachen haben: Entweder ist der Link für die Entwurfsvorschau bereits abgelaufen oder eben der Anwender ist nicht angemeldet und kann dem entsprechend den Inhalt nicht lesen – aus Sicht des Anwenders eigentlich kein Problem. Das eigentliche Problem ist aber, dass hier eine URL der Suchmaschine zugänglich gemacht wurde, obwohl diese für die Suchmaschinen nicht bestimmt ist.
Step 2: Wie wurde die URL den Suchmaschinen zugänglich gemacht?
Dazu bieten die Google Webmaster Tools im gleichen Popup zwei Navigationspunkte namens „In Sitemaps“ und „Verlinkt über“. Im ersten Navigationspunkt kann überprüft werden, ob die Vorschau-URL beispielsweise in einer XML-Sitemap eingebunden ist und dem entsprechend von den Suchmaschinen wahrgenommen wird. Wie die nachfolgende Grafik beweist, ist diese URL zumindest nicht in der eingebunden XML-Sitemap enthalten.
Der nächste Navigationspunkt erlaubt dem Anwender, die externen Verweise auf diese URL zu überprüfen und wie sich zeigt, wurde mittels Short-URL Dienst „ow.ly“ eine verkürzte URL zur einfachen Verbreitung der Vorschau erzeugt.
Bei der Überprüfung des externen Links erkennt man, dass dieser auf die obige Vorschau-URL weiterleitet. Es obliegt dem Anwender nun eine Lösung für dies Problem zu finden.
Lösungsansätze
Die Probleme sind grundsätzlich immer individuell und dem entsprechend gibt es keine pauschale Lösung, die sich auf jeden Serverfehler bzw. Antwortcode im Bereich 5xx übertragen lässt. Hinsichtlich der obigen Problematik gibt es einige Lösungsansätze, mit denen versucht werden kann, den seitens der Google Webmaster Tools angezeigten Serverfehler zu beheben.
URL weiterleiten
Sinnvollerweise sollte die URL auf den entsprechenden Artikel weitergeleitet werden – dazu kann eine Weiterleitungsregel (301 Redirect) in die htaccess eingebunden werden. Alternativ gibt es bei einigen Content Management Systemen eine Reihe von Plugins, die gerade für unerfahrene Nutzer in sehr einfacher Form die Möglichkeit bieten, bei Bedarf Weiterleitungen (301, 302, 307) zu erstellen.
Was tun, wenn kein Artikel existiert?
Häufig wird der Fehler gemacht, dass bei Artikeln, die nicht (mehr) existieren, die URL mittels einer Weiterleitung auf die Startseite umgeleitet werden. Dies sollte grundsätzlich vermieden werden, damit Suchmaschinen die Startseite nicht als allgemeine 404-Fehlerseite einstufen.
Im Idealfall wird eine URL auf einen neuen identischen Artikel weitergeleitet. Ist diese Möglichkeit nicht gegeben, empfiehlt es sich einen Redirect auf die nächst höhere Hierarchie-Ebene zu setzen.
Wenn aus irgendwelchen Gründen keine Weiterleitungen erstellt werden, ist es zwangsläufig notwendig, eine 404-Fehlerseite zu erstellen. Eine 404 Fehlerseite sollte grundsätzlich als Anleitung für den Nutzer dienen und ihm die Möglichkeit bieten, weiterhin mit einer Website zu arbeiten – dies kann durch Vorschläge geschehen („Meinten Sie vielleicht…?“). Auch bei einer 404 Fehlerseite gilt es den Nutzer abzuholen und ihn zu dem für ihn relevanten Inhalt zu geleiten.
URL sperren (Robots.txt)
Der Zugriff auf einzelne Dateien, Verzeichnisse sowie URLs kann für die Suchmaschinen-Bots (auch Robots) mithilfe einer „Robots.txt“ eingeschränkt werden. Bevor eine Website gecrawlt wird, überprüfen sogenannte Robots der jeweiligen Suchmaschinen, ob Einschränkungen für die Website bestehen. In der Regel übernehmen die meisten Suchmaschinen beim Crawl-Vorgang die Einschränkungen und besuchen die „gesperrten“ Inhalte nicht.
Zusätzlich kann in den Google Webmaster Tools unter „Google Index ->URLs entfernen“ die entsprechende URL eingetragen werden. Dadurch wird diese in der Regel schneller aus dem Index entfernt.
So einfach die Methode auch klingt, schützt diese nicht 100 % davor, dass die URL wieder in den Index aufgenommen wird. Sofern andere Websites auf die entsprechende URL verlinken, kann der Fall eintreten, dass diese zumindest teilweise in den Suchindex aufgenommen wird – dabei wird der Titel der Seite übernommen, allerdings die Meta-Description aufgrund der vorhandenen Robots.txt nicht.
Lösung – noindex
Es gibt eine funktionierende Lösung, sofern die Robots.txt genutzt wird und die Seite dauerhaft aus dem Index entfernt werden soll – das Zauberwort nennt sich Meta-Robots mit dem Wert „noindex“.
Einige CM-Systeme sind in der Lage, von Haus aus die Meta-Robots zu bearbeiten. Bei WordPress kann dies unter anderem durch den Einsatz eines Plugins gelöst werden – setzt aber dann auch voraus, dass die Seite tatsächlich existiert.
In den Google Webmaster Tools gibt es eine Unterscheidung zwischen „Seite nicht gefunden“ und sogenannte „falsche 404-Fehler“.
Wenn eine angeforderte Seite nicht vorhanden ist, wird seitens des Servers in der Regel ein 404-Fehler (Seite nicht gefunden) zurückgegeben. Mithilfe des Antwortcodes wird dem Browser (bzw. dem Client/Anwender) wie auch den Suchmaschinen mitgeteilt, dass angefragte Inhalte nicht existieren – dem entsprechend kann der Inhalt auch weder gecrawlt noch indexiert werden.
Wenn allerdings kein 404-Antwortcode zurückgegeben wird, dennoch eine 404-Inhaltsseite dem Anwender angezeigt wird, nennt sich dies „Soft 404“ bzw. „Falscher 404-Fehler“.
Das bedeutet, nur weil eine Seite „Seite nicht gefunden“ anzeigt, bedeutet dies nicht, dass es sich um eine echte 404-Seite handelt – damit diese auch als 404-Seite erkannt wird, ist es zwingend notwendig einen entsprechenden HTTP-Antwortcode zu übermitteln.
404-Softfehler behindern das Website-Crawling
Webseiten und Inhalte sollen im Sinne des Website-Betreibers so schnell wie möglich in den Index aufgenommen werden. Allerdings können sich sogenannte 404-Softfehler als Tempobreme für den Suchmaschinen-Crawler entpuppen.
Suchmaschinen-Crawler gehen bei 404-Softfehlern davon aus, dass sich unter der URL relevante Inhalte befinden könnten, da die Inhalte nicht eindeutig als 404-Fehler klassifiziert werden konnten. Dadurch läuft der Website-Betreiber Gefahr, dass neue Inhalte erst später erfasst werden, da sich der Suchmaschinen-Crawler für die 404-Softfehler interessiert. Des bedeutet auch, dass die eigentlichen 404-Softfehler seitens der Suchmaschinen indexiert werden.
Google empfiehlt beispielsweise die Verwendung der Antwortcodes 404 für „Seite nicht gefunden“ und/oder 410 für „die Seite/der Inhalt wurde gelöscht“.
HTTP-Antwortcode überprüfen
Es gibt sicherlich das ein oder andere Tool und Browser-Addon (z.B. Firebug), das die Möglichkeit schafft, sich den HTTP-Code einer Seite ausgeben zu lassen. Aber mithilfe der Google Webmaster Funktion „Abruf wie durch Google“, die bereits im Artikel „Beschleunigte Indexierung durch die Google Webmaster Tools“ beschrieben wurde, kann eine Seite aus Sicht der Suchmaschine heruntergeladen werden – womit auch direkt geklärt wird, wie der Google-Crawler diese Seite tatsächlich sieht.
Fazit und Empfehlung
Wie eigentlich bei jeder Fehlermeldung hinsichtlich der Crawling-Ergebnisse in den Google Webmaster Tools ist auch bei den einfachen 404-Softfehlern eine regelmäßige Kontrolle notwendig – nicht immer ist die Suchmaschine Google so heroisch und weist uns im Detail auf die Fehler und Probleme einer Website hin.
Nach Behebung der Probleme gilt es, diese auch in den Webmaster Tools als korrigiert zu markieren, damit die Inhalte bzw. URL zeitnah von der Suchmaschine untersucht werden kann.
Um die wertvollen Daten der Google Webmaster Tools auch nutzen zu können, bedarf es lediglich der Erstellung eines Nutzerkontos bei Google – mithilfe des Nutzerkontos stehen mehrere Dienste wie auch Google Analytics dem Kontoinhaber zur Verfügung.
Mittlerweile unterteilen sich die Google Webmaster Tools in die Bereiche Konfiguration, Status, Zugriffe, Optimierung und Google Labs. Nebst diesen Bereichen gibt es ein einleitendes Dashboard, das den aktuellen Status zu Crawling-Fehler, Suchanfragen und der Sitemap widerspiegelt.
Der signifikanteste Grund, warum der Einsatz der Google Webmaster Tools für jeden Anwender Sinn macht, ist dass die Daten von Google zum einen relativ aktuell sind und zum anderen direkt vom Marktführer im Bereich der Suchdienste stammen. Damit hat der Webseitenbetreiber die „vertrauenswürdigste“ Quelle als Lieferant für Daten über die eigene Webseite.
Warum sollten die Google Webmaster Tools genutzt werden?
Unabhängig davon ob SEO Agentur, Unternehmen oder einfacher Hobby-Webmaster, ein jeder hat die Möglichkeit, die Google Webmaster Tools kostenlos zu nutzen.
Vorweg gesagt, die Google Webmaster Tools stehen nicht in Konkurrenz zu professionellen Tool-Anbietern wie zum Beispiel der Sistrix Toolbox, Searchmetrics Essentials, Searchmetrics Suite oder auch den Link Research Tools. Dennoch bietet Google mit dem hauseigenen Dienst eine grundlegende Übersicht über relevante Daten hinsichtlich der eigenen Website.
Anhand der gewonnen Daten können Probleme, Fehler und Einschränkungen diagnostiziert werden – zudem benachrichtigt Google den Webseitenbetreiber direkt über die Google Webmaster Tools im Falle von Problemen und ungewöhnlichen Veränderungen (signifikanter Anstieg der Suchanfragen, Malware, unnatürlicher Linkaufbau).
Bisherige Artikel zu den Google Webmaster Tools im comspace Blog