Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Zu einer Webseite gehört auch die regelmäßige Prüfung, ob diese entsprechend den eigenen Vorstellungen funktioniert und seitens der Besucher sowie den Suchmaschinen-Crawlern abgerufen werden kann.

404 Fehler - Webseite - Inhalt nicht gefundenBesonders wichtig ist dabei zum Beispiel das Prüfen von internen und externen Links und eben das Vermeiden von 404-Fehlerseiten. Denn sowohl für den Besucher wie auch für Suchmaschinen ist es nicht von Vorteil, wenn Inhalte aufgrund fehlerhafter Links nicht erreichbar sind – der Besucher erhält somit den gewünschten Mehrwert nicht und verlässt die Webseite mit dem Gedanken „die Webseite ist unbrauchbar und funktioniert nicht“ und Suchmaschinen können den brandaktuellen und wichtigen Inhalt nicht in die Suchergebnisse aufnehmen, da dieser nicht verfügbar ist und mit hoher Wahrscheinlichkeit einen 404-Fehler liefert. Ebenfalls sollte auch eine hohe Anzahl von 404-Fehlern vermieden werden – dazu ist es einfach wichtig, regelmäßig, z.B. einmal im Monat, die Verlinkungen durch Programme wie Xenu’s Link Sleuth und durch Inanspruchnahme der Google Webmaster Tools zu prüfen und eventuelle Fehler zu begradigen.

Häufig verstecken sich aber auch Fehler im Detail – wie bereits im vorigen Artikel zum Thema „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ angesprochen sollten Webseiten einer regelmäßigen Prüfung auf Syntax-Fehler unterzogen werden. Dies sollte durch einen sogenannten W3-Validator geschehen – neben der rein technischen Überprüfungen des HTML / CSS Quellcodes ist eine Überprüfung der verschiedenen Webbrowser einschließlich ihrer unterschiedlichen Versionen eine durchaus sinnvolle Maßnahme. Beispielsweise kann eine Webseite im Internet Explorer 6 anders aussehen als im Internet Explorer 9, denn es gibt Unterschiede zwischen den einzelnen Browseranbietern wie z.B. Mozilla Firefox, Microsoft Internet Explorer oder den Safari von Apple. Der Grund für die unterschiedlichen Darstellungen von Webseiten in verschiedenen Browsern liegt in der Interpretation von HTML/CSS Elementen. Beispielsweise kann es sein, dass ein Mozilla Firefox ein HTML-Element anders interpretiert als der Internet Explorer. Eine gute Übersicht zu den Unterschieden einzelner HTML-Elemente und CSS-Elemente sind auf der Webseite css4you.de zu finden. Des Weiteren kann die Darstellung einer Webseite in verschiedenen Browsern sehr einfach auf Browsershots.org überprüft werden.

Ein weiteres Kriterium, dass durchaus im Auge behalten werden sollte, ist die Ladezeit einer Webseite – es ist bereits länger bekannt, dass die Ladezeit ein Kriterium für das Ranking einer Webseite ist und auch Google hat den Pagespeed bereits in die Google Webmaster Tools aufgenommen. In den Google Webmaster Richtlinien sagt Google selbst zum Pagespeed, dass schnelle Webseiten die Zufriedenheit der Nutzer und die Gesamtqualität des Internets steigern. Lange Ladezeiten sorgen allgemein dafür, dass Besucher schnell abspringen und selbst in der heutigen Zeit gibt es noch die einen oder anderen Internetnutzer, die aufgrund von ländlichen Begebenheiten nicht in der Lage sind, mit DSL-Geschwindigkeit das Internet zu erleben. Auch hier sollte eine regelmäßige Überprüfung der Webseiten-Geschwindigkeit erfolgen. Dazu eignen sich nachfolgende Tools aus dem Hause vn Google.

Unsere Empfehlung ist das Tool von GTMetrix, da dieses eine sehr angenehme und v.a. verständliche und strukturierte Übersicht bietet. Des Weiteren lassen sich schnell Optimierungspotentiale, wie z.B. die Optimierung von Bildgrößen/Dateigrößen, erkennen.

Weitere Artikel zum Thema Google Webmaster Richtlinien

Richtlinien zum technischen Aufbau von Webinhalten: Webcrawler, Aktualität und Geschwindigkeit (Teil 2)

Auch bei den technischen Richtlinien gibt es einige Vorgaben, die in den Google Webmaster Richtlinien Erwähnung finden und nebst den Webmasterrichtlinien zur Gestaltung von Webinhalten als Unterstützung für die Optimierung der eigenen Webseite dienen.

Überprüfung der Webseite durch einen textbasierten Browser

Lynx Viewer vom Comspace Blog
Lynx-Abbild von Comspace Blog

In erster Linie darf man sich einen Crawler, der Webseiten erfasst und ausliest, wie einen einfachen Textbrowser vorstellen. Gängige Browser wie der Mozilla Firefox, Google Chrome, Apple Safari oder den bekannten Microsoft Internet Explorer sind in der heutigen Zeit in der Lage, Webseiten in voller Pracht anzuzeigen, das heißt vorhandene Grafiken oder auch Flash-Videos werden nach dem Wunsch der Seitenbetreiber dargestellt. Textbrowser, wie beispielsweise Lynx, stellen Webseiten – wie der Name es schon sagt – in reiner Textform dar. Bilder und andere Elemente wie zum Beispiel Videos werden in einem Textbrowser nicht angezeigt.

Des Weiteren sind in einem Textbrowser diverse Funktionen wie JavaScripte, Cookies und Session-IDs nicht nutzbar bzw. können für Probleme sorgen. Ähnlich agieren auch Webcrawler – auch wenn diese mittlerweile weiterentwickelt wurden und relativ leistungsfähig sind, kann ein Webcrawler mit den oben genannten Elementen auf einer Webseite Probleme haben.

Pauschal lassen sich natürlich nicht alle Elemente auf einer Webseite entfernen – ein Onlineshop ohne entsprechende Bilder oder Produktvideos wäre im Jahre 2012 undenkbar. Dem entsprechend ist hier die technische Aufgabe des Webseitenbetreibers dafür zu sorgen, dass die Crawler der Suchmaschinen es möglichst einfach haben, die Inhalte der Webseite zu crawlen.

Zum einen hat der Webseitenbetreiber die Möglichkeit, seine Internetpublikation mithilfe des eben erwähnen Lynx Textbrowsers zu prüfen – zum anderen bieten aber auch die Google Webmaster Tools die Möglichkeit, eine Webseite durch einen Crawler abzurufen und sich das Ergebnis ausgeben zu lassen.

Exkurs: Cloaking und ungeeignete Techniken

Die obigen Gründe und die anfänglichen Schwierigkeiten hatten zur Folge, dass in der Anfangszeit des kommerziellen World Wide Webs diverse Techniken entwickelt wurden, die dafür sorgten, dass Suchmaschinen wie Google beim Besuch einer Webseite komplett andere Inhalte angezeigt wurden als dem Endverbraucher. Die Technik war dabei relativ einfach: Wenn eine Webseite besucht wurde, wurde zu Beginn abgefragt, ob es sich um einen realen Besucher handelt oder ob hier ein Suchmaschinencrawler unterwegs ist – sobald ein Suchmaschinencrawler erkannt wurde, zeigte man diesem einfach die Webseite in einer anderen Form.

Mittlerweile sind solche Techniken seitens der Suchmaschinen nicht sonderlich gern gesehen und können im Ranking zu Abwertungen führen. Diese Technik machten sich natürlich auch andere Personen zu Nutze und verschleierten somit Inhalte, die nicht zwangsläufig in Suchergebnissen auftauchen sollten bzw. die seitens der Suchmaschine erst gar nicht erkannt werden sollten.

Suchmaschinen die Aktualität der Seite präsentieren

Im ersten Teil „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts“ wurde bereits angesprochen, dass die Qualität des Inhalts eine wichtige Rolle für ein positives Ranking innerhalb der Suchmaschinen spielt. Nebst der Qualität des Inhalts ist auch die Aktualität, sprich wie oft neue Inhalte publiziert oder ältere Inhalte aktualisiert werden, relevant und sorgt natürlich auch dafür, dass Crawler eine Webseite regelmäßiger besuchen könnten. Wenn ein Crawler bemerkt, dass eine Webseite regelmäßig bzw. täglich neue Inhalte veröffentlicht, wird auch der Crawling-Rhythmus automatisch angepasst.

Um dem Crawler relativ schnell mitzuteilen, ob neue Inhalte verfügbar sind, empfehlen die Google Webmaster Richtlinien die Verwendung des http-Headers “If-Modifies-Since“. Anhand dieser Funktion teilt der Webserver dem Crawler mit, wann neue Inhalte auf der Internetseite veröffentlicht wurden – natürlich kann dies auch anhand der Webseite an sich geschehen, wenn beispielsweise eine Zeitangabe für die Erstellung des Artikels existiert. Im Gegensatz zu der Zeitangabe auf der Webseite besitzt die Lösung des http-Headers den Vorteil, dass Bandbreite eingespart werden kann.

Inhalte vor dem Crawler schützen

robots-txt - Alle Suchmaschinen dürfen Inhalte durchsuchen und indexieren
Suchmaschinen ist das Durchsuchen/Indexieren der Webinhalte erlaubt

Selbst in der heutigen Zeit sind für viele Webseiten-Betreiber Begriffe wie Robots.txt und Meta-Robot ein Fremdwort. Doch dabei ist es nicht verkehrt, dem Suchmaschinen-Crawler mithilfe einer Robots.txt mitzuteilen, welche Verzeichnisse durchsucht werden sollen und welche eben nicht durchsucht werden sollen – schließlich muss nicht jeder Inhalt oder gar jedes Bild im Index der Suchmaschinen dargestellt werden.

Besonders wichtig ist dabei, dass der Webseitenbetreiber selbst die vorgenommenen Anweisungen in der eigenen Robots.txt kontrolliert, da es auch passieren kann, dass Suchmaschinen-Crawler komplett ausgeschlossen werden. Als Hilfsmittel für die Kontrolle eigenen sich die Google Webmaster Tools, womit zum einen die Robots.txt geprüft werden kann und zum anderen die Seite durch einen Crawler abgerufen werden kann. An den Resultaten lässt sich erkennen, wie der Google-Bot die Webseite sieht und natürlich welche Inhalte der Bot abgreifen kann und welche nicht.

Das Tool aus den Google Webmaster-Tools nennt sich übrigens „robots.txt“-Analyse Tool.

Informationen zur Erstellung einer Robots.txt finden sich auf nachfolgenden Seiten:

Neben der Erstellung einer Robots.txt gibt es auch die Möglichkeit für einzelne HTML-Seiten mittels dem Meta-Tag „<meta name=“robots“ content=“index,follow“ />“ bestimmte Einstellungen vorzunehmen, die einem Suchmaschinen-Crawler mitteilen, ob die Inhalte indexiert werden dürfen („index“) oder nicht indexiert werden dürfen („noindex“). Zudem kann angegeben werden, ob den Links auf der einzelnen Seite gefolgt („follow“) oder nicht gefolgt („nofollow“) werden sollen.

Die Webseite auf Herz und Nieren testen (Teil 2.1)

Aufgrund des Themenumfangs behandle ich diesen Punkt in einem separaten Artikel. Lesen Sie die Fortsetzung in „Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Weitere Artikel zum Thema Google Webmaster Richtlinien

Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)

Google Webmaster Tools und Google Webmaster Richtlinien

Dies ist der erste Artikel zu einer dreiteiligen Artikelserie zu den Google Webmaster Richtlinien – in Teil 2 wird die Thematik „Webmaster Richtlinien zum technischen Aufbau von Webinhalten“ und in Teil 3 „Webmaster Richtlinien zur Qualität“ angesprochen. Begonnen wird nachfolgend mit dem Thema „Webmaster Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts„. „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ weiterlesen

comspace beim Sitecore Jump Training zum Thema Digital Marketing Suite im Januar 2012

Das Thema Customer Engagement wird aktuell von ersten Softwareherstellern im CMS Markt aufgegriffen.

Sitecore hat nach Einschätzung von comspace starke Funktionalitäten in der Software, die Unternehmen bei der gezielten Kundenansprache unterstützen. Wir haben Sitecore im Portfolio, um marketingaffinen Unternehmen eine professionelle CMS Lösung anzubieten.

Schulung zum Thema „Customer Engagement“ – Erfahrungswerte Tag 1

Christopher Nash von Sitecore hat zum Thema Customer Engagement Ende Januar vier deutsche Partner geschult. Eine Gruppe von 8 Zuhörern hat zwei Tage angeregt diskutiert. Teilnehmer von comspace waren Ben, Tim, Tilmann und Michael.

Am ersten Tag wurde die Digital Marketing Suite von Sitecore fachlich vorgestellt. Adressiert wird im Sitecore Produkt ein gängiges Problem. Viele Unternehmen nutzen Analyse Tools, um die Performance Ihrer verschiedenen Online Angebote zu messen. Häufigstes Kriterium ist heute der Traffic, d.h. die Anzahl der Besucher. Ob die Besucher aus der für den Anbieter relevanten Zielgruppe kommen oder relevante Inhalte ansehen wird meist nicht geprüft. Selten werden die Ergebnisse genutzt, um die Seite weiterzuentwickeln. Meistens wird eine Site nur klassich SEO optimiert oder in SEM investiert. Eine Zunahme des Traffics wird als Erfolg bewertet. Ein Rückfluss der Infos aus dem Analysewerkzeug für eine Optimierung der Site findet meist nicht statt. Ebenfalls selten werden Besucher einer Website in den normalen Vertriebsprozess eines Unternehmens eingebunden oder als Lead verfolgt. Das ärgert uns doch sehr, da viele Corporate Websites noch immer bloße Visitenkarten der Unternehmen sind und nicht integraler Bestandteil einer Marketing- und Vertriebsstrategie.

Sitecore unterstützt mit seiner Digital Marketing Suite Marketing und Vertrieb der Unternehmen dabei, Website Besucher zu Kunden weiterzuentwickeln.

Integraler Bestandteil des CMS Produktes ist eine Analyse Komponente. Diese leistet eine mit z.B. Google Analytics vergleichbare Funktionalität. Der erste Unterschied ist, dass abhängig von den Zielen der Website einzelne Module/Seiten eine Relevanz bekommen. So ist z.B. ein Dokumentendownload oder eine Newsletteranmeldung „mehr Wert bzw. relevanter“ als ein einfacher Besuch einer Produktdetailseite. Das integrierte Analysemodul liefert also dem Konzepter oder Projektleiter des Kunden Hinweise, ob wirklich relevanter Content genutzt wird (Conversion). Qualität statt Quantität!

Warum ein Analysemodul integriert im CMS Sinn macht:

Web Analyse                            Engagement Analyse in Sitecore
Quantität (Traffic)                   Qualität der Besuche (Relevanz)
Silo Marketing                         Cross-Channel
Complex                                   im Context des CMS und einfach zu nutzen

Effizient wird das integrierte Analysemodul in Zusammenarbeit mit dem Modul für A/B bzw. Multivariantentesting. Mit wenig Aufwand durch den Kunden oder Dienstleister lässt sich so die Website optimieren, ohne dass ein Relaunch notwendig ist. Alles ist Bestandteil einer integrierten Lösung.

Im weiteren Verlauf wurde das Kampagnenmanagement, die explizite rollenbasierte Personalisierung (kennen wir seit einigen Jahren und haben Preise gewonnen), die implizite Personalisierung (das begeistert in dieser Form auch alte Hasen bei uns!) und die CRM Integration geschult und deren Nutzwert diskutiert.

Schulung zum Thema „Customer Engagement“ – Erfahrungswerte Tag 2

Der zweite Tag lieferte Hinweise für die technische Umsetzung in Projekten.
Interessant dabei sind die Projektvoraussetzungen, Aspekte der Performance und des Projektbaus.  Auch der Weg bestehende Sitecore Projekte so umzubauen, dass erste Funktionalitäten der Digital Marketing Suite genutzt werden können, wurde aufgezeigt.

Ein Einstieg in das Thema Customer Engagement ist für bestehende Sitecore Kunden einfach möglich.
Unternehmen, die Ihr bestehendes CMS ablösen wollen finden in Sitecore eine .Net basierte, kommerzielle Software mit großen Stärken im Bereich Customer Engagement, Kampagnenmanagement und Personalisierung.

Lösungen und Leistungen für Sitecore Projekte

comspace berät Sitecore Kunden auf dem Weg zur Nutzung der Digital Marketing Suite und der Implementierung von Sitecore Projekten. Sprechen Sie uns gern an.

comspace ist Sitecore Partner seit 2010 und implementiert .Net basierte CMS Lösungen seit über zehn Jahren.

Sitecore ist ein führendes .NET basiertes CMS System. Details unter www.sitecore.net