SEO Campixx 2018 Recap – Welchen Content braucht eine Website?

Anfang März hat die zehnte SEO Campixx, Konferenz & Community-Treff der deutschen SEO-Szene, am Berliner Müggelsee stattgefunden. Als einer der Sponsoren war comspace dieses Jahr wieder mit zwei Mitarbeitern dabei. Zwei Tage lang gab es in 12 parallel stattfindenden Sessions eine reiche Auswahl an Speaker, Workshops und Gespräche zum Thema Suchmaschinenoptimierung. Ob Agentur, Freelancer oder Inhouse-SEO, Webmaster oder Content Creator, Newcomer oder erfahrener SEO Profi – für jeden SEO Liebhaber gab es gute Anregungen und jede Menge Peer-Gespräche.Ein breites Spektrum an Eindrücken mitnehmen oder Schwerpunkte setzen? Die Auswahl der Sessions ist immer spannend. Für mich zog sich das Thema „Content Audits“ bzw. „Welchen Content braucht eine Website?“ wie ein roter Faden durch die zwei Konferenztage.
Im Kern geht es darum: Firmen investieren seit längerem ins Content-Marketing. Auf vielen Websites haben sich deshalb bspw. im Shop, im Pressebereich, in Online-Archiven oder Blogs jede Menge Inhalte angesammelt, die in ihrer Masse dem Suchmaschinenranking nun Probleme bereiten. Doch wie kommt das?
Zum einen haben sich viele Inhalte mit ähnlichen Themen (Keywords) angesammelt, so dass Suchmaschinen nicht wissen, welche Seite sie für eine Suchanfrage ausliefern sollen. Mal wird daher die eine Seite ausgespielt – mal die andere – und im Ergebnis verlieren die wertvollen Backlinks und User-Interaktionen an Signalkraft.
Zum anderen widmen Suchmaschinen jeder einzelnen Website nur begrenzte Ressourcen. Diese Ressourcen – auch „Crawl Budget“ genannt – beschreibt Google als „die Anzahl der URLs, die Googlebot crawlen darf und crawlen möchte“. Da Google nie die ganze Website auf einmal besucht, besteht bei einem Überangebot an alten Seiten die Gefahr, dass Googlebot sich immer wieder mit den falschen Seiten beschäftigt.
Alle Maßnahmen zur Stärkung der Keywords und zur Steuerung des Crawlings – Robots.txt, Noindex-Tags, Canonical-Tags, URLs zusammenlegen, entfernen oder weiterleiten – setzen eine gründliche Prüfung voraus. Der Seitenbetreiber muss entscheiden, welche Inhalte am Ende für ihn und selbstverständlich auch für den User wertvoll und relevant sind. Diese Aufgabe erfüllt ein Content Audit.
Einige Sessions, die das Thema Content Audit in der Praxis dargestellt haben, möchte ich hier vorstellen:

Content Audit: Bewertung von bestehenden Inhalten

von Marco Lauerwald
Marco Lauerwald, Head of Search bei Urlaubsguru.de, zeigte, wie die Urlaubsplattform durch Konsolidierung ihrer URLs Traffic und Conversions erfolgreich steigern konnte: „Wir haben 93% der indexierten Seiten gelöscht und damit – ohne irgendwelche anderen Maßnahmen – unsere Sichtbarkeit um 166% gesteigert.“
Campixx2018 Marco Lauerwald
Welcher Content behalten und welcher gelöscht wurde, richtete sich danach, welche Inhalte Besucher mögen. Deshalb beginnt der Content Audit mit der Feststellung, welche Seiten besucht und verlinkt wurden. Anschließend konnten Entscheidungen anhand folgender Einteilung getroffen werden:

  • Seiten haben Sessions & Backlinks > Behalten & ggf. Optimieren
  • Seiten haben Sessions, aber keine Backlinks > Behalten & ggf. Optimieren
  • Seiten haben keine Sessions, aber Backlinks > Löschen & 301 Weiterleiten
  • Seiten haben keine Sessions & keine Backlinks > Löschen (410)

Die Entfernung der schlechten Seiten mit dem Statuscode 410 bewirkte, dass die Seiten schnell aus Google entfernt wurden. Um das Crawl Budget zusätzlich zu verbessern, wurde die interne Verlinkung (auch innerhalb des Fließtextes) verbessert sowie Broken Links und Weiterleitungsketten reduziert.
Bemerkenswert ist: Ab dem Zeitpunkt, als die Anzahl der indexierten Seiten (blaue Kurve) dem durchschnittlichen, täglichen Crawl Budget (orange Linie) in etwa entsprach (senkrechte, graue Linie), stieg die Visibility bzw. die Sichtbarkeit der Website in den Suchergebnissen (graue Kurve) stark an:
Campixx2018 - Indexierte-URLs vs Visibility
Seitdem das tägliche Crawl Budget der Menge an indexierten Seiten entspricht, wird jede Änderung der Seiten von Google schnell erkannt. So können beispielsweise bereits nach vier Stunden Snippet-Änderungen in den Suchergebnissen beobachtet werden.
Ausführlich wurde auch über die Erstellung von Inhalten berichtet, die bei Google gute Platzierungen bekommen. Wichtig dabei: Je user-zentrierter der Content ist, desto besser wird er von Google bewertet. Bei neu erstellten Inhalten wird darauf geachtet, dass sie stets  Antworten auf alle möglichen Fragen der Zielgruppe zu einem Thema liefern.
Fazit: Durch die radikale Löschung von Seiten ohne Mehrwert und der damit verbundenen Crawl-Optimierung, kann die Sichtbarkeit einer Website stark verbessert werden.

Content Recycling: Neuen Content erstellen oder alten Content überarbeiten?

von Martin Witte
Oft haben ältere Seiten durch Backlinks bereits gute Positionen in den Suchmaschinen erklommen. Hier gilt es im Rahmen eines Content Audits nicht „das Kind nicht mit dem Badewasser auszuschütten“. Mit einer spannenden Case Study über News-Portale und Online-Magazine untersuchte Martin Witte die Frage, ob es sich lohnt, alten Content zu überarbeiten.
Campixx2018 Martin Witte
Die Untersuchung sammelte zunächst 7.000 Seiten mit Traffic-Daten ein. Es stellte sich heraus, dass davon nur 500 Seiten für 80% des Traffics verantwortlich waren. Die schlechtesten 4.000 Seiten brachten gerade einmal 1,2% des gesamten Traffics. Außerdem wurde enthüllt, dass ältere Seiten 10-mal mehr Traffic erzeugten als neue Seiten und für den meisten Traffic auf der Website verantwortlich waren.
Für die Entscheidung, welche Artikel überarbeitet werden sollten, wurden folgende Kriterien herangezogen:

  • Seiten mit Schwellenkeywords (Keywords, die kurz davor stehen, eine bestimmte Position innerhalb der SERPs zu überschreiten)
  • Seiten, die sich gegenseitig Konkurrenz machen (weil sie für die gleichen Keywords ranken)
  • Seiten mit hohen Seitenaufrufen, aber geringen organischen Einstiegen
  • Seiten mit hohen Referral-Einstiegen, aber geringen organischen Einstiegen
  • Seiten mit hohen sozialen Signalen

Im Ergebnis konnten 74% der überarbeiteten Seiten ihre Leistung verbessern. Die Top 40 Artikel, darunter 23 überarbeitete Artikel, haben die Zugriffe um ca. 42% erhöht. Ein Platz unter den Top-20-Suchergebnisse konnte durch Optimierungsmaßnahmen schnell erreicht werden. Höhere Positionen schwanken stärker auf und ab.
Fazit: Content Recycling verbessert die Suchmachinenrankings, verursacht aber genauso viel Aufwand wie die Neuerstellung. Trotzdem ist Content Recycling empfehlenswert, weil der bestehende Trust von Google erhalten bleibt. Die Recherche nach Inhalten, die es wert sind überarbeitet zu werden ist das A und O.

Cut the Crap: Running Content Audits With Crawlers

von Sam Marsden
Meine einzige englische Session gab Sam Marsen, Technical SEO Executive bei DeepCrawl. Sam berichtete über die Migration der DeepCrawl Website in ein neues CMS sowie die damit verbundene Chance aufzuräumen und nur den besten Content in das neue System zu übertragen.
Für diese Aufgabe musste ein Content Audit durchgeführt werden. Zunächst wurde ermittelt, wie viele Seiten die Website insgesamt hat und jeder Seite wurden Performancedaten zugeordnet, insbesondere Backlink-, Traffic- und SERP-Daten. Darüber hinaus haben viele Projekte auch eigene Ziele und Fragestellungen. So wurden für den DeepCrawl Audit u. a. auch Informationen über Content Typen, Textlängen, Autoren, Artikel-Tags, Veröffentlichungsdatum, strukturierte Daten und Meta-Daten eingesammelt.
Campixx 2018 - Sam Marsden
Ziel des Content Audits ist, diese Fragen zu beantworten:

  • Welche Seiten funktionieren gut und welche nicht?
  • Was soll mit Seiten passieren, die nicht gut funktionieren?
  • Wie können gute Seiten noch mehr Leistung bringen?
  • Welche Möglichkeiten gibt es Content-Ressourcen (Zeit und Geld) besser zu verteilen?

Zur Beantwortung werden die Daten nach relevanten Mustern und Beziehungen durchsucht, beispielsweise:

  • Content-Leistung (Seitenaufrufe, Shares, Conversions …) nach einzelnen Seiten oder Content-Typen
  • Content-Leistung nach Autoren oder Themen
  • Content-Länge im Verhältnis zum User-Engagement (Seitenaufrufe, Verweildauer, Absprungrate …)
  • Seitenladezeit im Verhältnis zum User-Engagement
  • User-Engagement im Verhältnis zum Veröffentlichungszeitpunkt (Monat, Wochentag, Tageszeit)

Basierend auf den Zielen der Website und den hierfür relevanten Performancedaten können nun die einzelnen Seiten bewertet werden. Sinnvoll ist die Einführung eines groben Bewertungsschemas (z. B. schlecht, durchschnittlich, gut und hervorragend) für die Gesamtleistung einer Seite.
Aufgrund der Leistung wird für jede einzelne Seite entschieden, ob sie behalten, entfernt, aktualisiert, optimiert oder mit anderen Inhalten kombiniert wird.
Fazit: Gründlich durchgeführt, replizierbar aufgebaut und regelmäßig wiederholt unterstützen Content Audits das Website-Management, sparen Zeit und Ressourcen.

Weniger ist mehr – Indexierung bei Otto

Jan Wölk & Johannes Jansen
Bei otto.de gibt es 34.000 indexierte Shop-Kategorie-Seiten und täglich kommen ca. 400 neue Seiten dazu. Jan Wölk, SEO Projektmanager für otto.de, und Johannes Jansen zeigten in ihrer spannenden Session, wie einer der größten Onlineshops die Herrschaft über diese Content-Flut behält und gute Suchmaschinen-Rankings erreicht.
Wichtig ist, dass Suchmaschinen nicht beliebig mit Content gefüttert werden, weil Inhalte dann miteinander konkurrieren und das Crawl-Budget schnell an der falschen Stelle aufgebraucht sein kann. Früher hat Otto jede Seite zunächst ohne Einschränkung der Indexierung veröffentlicht. Seiten die kein gutes Ranking erreichten, wurden nachträglich auf “noindex” gesetzt und damit aus dem Google-Index entfernt. Durch dieses Vorgehen sind viele qualitativ minderwertige Seiten in den Index gelangt und haben das Ranking wichtigerer Seiten ausgebremst.
Heute geht Otto umgekehrt vor und setzt jede neue Kategorie-Seite automatisch auf “noindex”. Die Seite wird dann nachträglich für die Indexierung freigegeben, sofern sie bestimmte Anforderungen erfüllt. Dazu gehören die Anzahl der Artikel auf der Seite, das Suchvolumen und einen klar definierten Platz im Keyword-Cluster, denn jede Seite wird immer nur auf ein einziges Keyword hin optimiert. Darüber hinaus werden anhand von Suchvolumen, Trends und Suchintention auch neue Keywords recherchiert für die es sich lohnt, neue Seiten zu erstellen.
Im Zuge der Umstellung des Index-Managements hat Otto 60% der 84.000 Shop-Kategorie-Seiten in einem Schritt von der Indexierung ausgeschlossen. Es dauerte sechs Monate bis alle de-indexierten Seiten tatsächlich aus dem Index verschwunden waren. Trotz der drastischen Reduktion auf nunmehr 30.000 Kategorie-Seiten, blieb der Traffic auf der Website konstant.
Die von Otto inzwischen praktizierte permanente Überwachung des Indexierungsstatus identifiziert auch Seiten, bei denen die angestrebte Indexierung nicht im erwarteten Zeitraum stattfindet, so dass weitere Maßnahmen direkt eingeleitet werden können. Die Ursache für das Ausbleiben der Indexierung wird meistens anhand folgender Checkliste festgestellt:

  • Wann wurde die Seite auf index gestellt?
  • Hat die Seite den Status Code 200?
  • Ist die Seite in der robots.txt ausgeschlossen?
  • Wurde die Seite über die Google Search Console bereits abgerufen?
  • War die Seite immer in der Sitemap?
  • Wird ein Canonical Tag falsch verwendet?
  • Ist der Inhalt der Seite qualitativ hochwertig und für viele Suchanfragen relevant?
  • Liegt eine Keyword-Kannibalisierung vor?
  • Gibt es von der Seite zu wenig interne oder zu viele ausgehende Links?

Fazit: Websites, die ständig neue Inhalte veröffentlichen, sollten die Indexierung ihres Contents im Blick haben. Empfehlenswert sind regelmäßige Content-Audits nach festgelegten Kriterien im wöchentlichen oder monatlichen Turnus.

Internationales SEO

von Peer Hoffmann
Praxisnah und im angenehmen Tempo stellte Peer Hoffmann, Inhouse-SEO bei der DENIOS AG, die besonderen Herausforderungen der Inhouse-SEO-Beratung und die Aufgaben bei der Optimierung einer internationalen Website vor. Hierbei wurde die Rolle regelmäßiger Audits als Qualitätskontrolle der Website deutlich.
Automatisierte Tests laufen jede Nacht über alle DENIOS Länder-Domains und gefundene Fehler werden direkt an die Ansprechpartner gemeldet. Für jeden gefundenen Fehler können in Crawling und Monitoring-Tools individuelle Prüf-Regeln hinterlegt werden: “Wir wollen versuchen jeden Fehler nur einmal zu machen – bzw. beim zweiten Mal sofort finden.”
Zur Veranschaulichung zeigte Peer eine Regel, die überprüft, ob auf bestimmten Seiten eine Produktbeschreibung vorhanden ist, sowie ein weiteres Beispiel, bei dem die korrekte Übersetzung der Umlaute kontrolliert wird.
Fazit: Regelmäßige Audits sind unverzichtbar für die technische und inhaltliche Qualitätskontrolle der Website und können durch maßgeschneiderte Regeln an die individuellen Bedürfnisse angepasst werden.
Campixx2018 Peer Hoffman

Fazit

Die Unternehmenspräsenz ist wie ein Garten, der rund ums Jahr gehegt und gepflegt werden muss. Wurde dies eine Weile vernachlässigt, sollte man sich vor einem radikalen Rückschnitt nicht scheuen. Richtig umgesetzt trennt man sich dabei von Altlasten und gibt seinen starken Assets den nötigen Raum, um sich positiv zu entwickeln und optimale Ergebnisse zu bringen. Ein passender Zeitpunkt hierfür ist beispielsweise vor einem Relaunch oder wenn eine Überzahl an Seiten gute Rankings behindern.
Hat man im Rahmen eines ersten Audits die eigenen Website-Ziele und KPIs herausgearbeitet und Bewertungskriterien für den Erfolg oder Misserfolg der eigenen Seiten etabliert, können mit weniger Aufwand in regelmäßigen Abständen kleinere, fokussiertere Audits durchgeführt werden. Schrumpfen die Prüfungsabstände und individualisieren sich Untersuchungen, so entwickelt sich aus den Audits ein Monitoring, welches die Grundlage für eine auf lange Sicht erfolgreiche Suchmaschinenoptimierung bildet.

Eine letzte Bemerkung

Für mich war die Campixx eine tolle Gelegenheit eigene berufliche Erfahrungen mit denen anderer SEOs zu vergleichen und einzelne Puzzlestücke zu einem stimmigen Gesamtbild zusammenzufügen. Ich freue mich jetzt schon auf nächstes Jahr und möchte mehr Menschen, die sich (noch) nicht selbst als SEOs bezeichnen, ermutigen diese Konferenz zu besuchen, um ein bisschen „SEO-Luft“ zu schnuppern. Es wäre besonders schön, mehr Webentwickler, die schließlich oft mit der Umsetzung von SEO-Maßnahmen betraut werden, auf der Konferenz zu treffen und sprechen zu hören.
Hier findet ihr die Slides und Vorträge einiger Sessions.

Weitere Campixx 2018 Recaps

KatjaSays (Hamburg)
Marketing Factory Blog (Düsseldorf)
Sebastian Blum (Zolling)
clicks (Dresden)
Webneo (Dresden)
ADCANDA (Bentwisch)
spacedealer (Berlin)
Zimmermanns Internet PR-Beratung (Dresden)
Elbcontent (Hamburg)

Eine Antwort auf „SEO Campixx 2018 Recap – Welchen Content braucht eine Website?“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Dieses Formular speichert Deinen Namen, Deine E-Mail-Adresse sowie den Inhalt, damit wir die Kommentare auf unserer Seite auswerten und anzeigen können. Weitere Informationen findest Du in unserer Datenschutzerklärung.