Webseiten könnten soviel smarter sein – Michael Steinfort erklärt SITECORE

Letzte Woche habe ich ein langes Gespräch mit unserem Geschäftsführer Michael Steinfort geführt. Eingangs wollte ich nur wissen, warum und welches CMS System für Unternehmen Sinn macht. Gelernt habe ich dabei aber viel, viel mehr.

In den nächsten Wochen werde ich hier einige der Erkenntnisse aus dem Gespräch berichten und gleich mal mit einer Frage starten, die Michael aufgeworfen hat:

Michael Steinfort sagt: „Viele Webseiten sind dumm.“ Und damit meint er:

“Leider ist es so, dass wir mit vielen Projekten, die wir momentan umsetzen, noch viel zufriedener sein könnten. Denn unsere Kunden schöpfen die Möglichkeiten, die technologisch verfügbar sind, meist noch nicht aus. comspace ist ein Technologie-Unternehmen. Wir arbeiten oft mit  führenden Lead-Agenturen oder internen Kreativ-Abteilungen unserer Kunden zusammen. Dort ist zuerst unsere Expertise und Erfahrung gefragt, die Agenturen und internen Abteilungen unserer Kunden über die technischen Möglichkeiten aktueller CMS Software zu informieren. Wir zeigen den Designern und Konzeptern, was technisch machbar ist, so dass sie die State-of-the-Art Funktionen in ihr Konzept mit einfließen lassen können. Das ist unbedingt notwendig, da die meisten Konzepter nur die klassischen Funktionen eines Redaktionssystems kennen (Content erstellen und publizieren). Heutige marktführende CMS Systeme können viel mehr.“

Wenn wir die Kreativ-Agenturen als Architekten sehen, die eine Website als Haus planen, designen und strukturieren, sind wir als comspace die Handwerker, die diese Pläne realisieren. Und wie ein Handwerker am Bau, haben wir eine klare Meinung zu dem, was Grafiker und Konzepter uns liefern: Das ist häufig designfokussiert und hat selten Konzeptansätze für eine zielgruppenspezifische Auslieferung von Inhalten.

Viele Webseiten sind wenig clever, weil sie ihren Besuchern nicht die gesuchten (relevanten) Inhalte zeigen, obwohl die technischen Voraussetzungen gegeben sind. Anstelle dessen wird möglichst viel an Informationen angeboten, in der Hoffnung, relevanter Inhalt möge doch dabei sein.”

Ein Beispiel dafür wäre schön.

“Klar. Fangen wir mit einem Beispiel aus dem alltäglichen Leben an: Wenn ich in ein Bekleidungs-Geschäft gehe, mich beraten lassen möchte und die Verkäuferin sagt:

‘Guten Tag und willkommen, ich sehe, Sie tragen Größe 102, ein anthrazit-farbener Anzug, darf ich Ihnen einen schwarzen oder blauen Anzug zeigen? Ich hab hier einen Schnapper aus einem tollen Stoff, Super120!’

Dann fühle ich mich gut beraten. Webseiten in Deutschland funktionieren leider nicht so. Wenn ich auf eine Unternehmens-Webseite in Deutschland surfe, drehen sich die ‘virtuellen Verkäufer’ zur Wand.

Als anschauliches Beispiel betrachten wir die Volkswagen Webseite für Endkunden (B2C).
(Volkswagen soll nur als exemplarisches Beispiel dienen. Wir fahren zu Haus die Marke und haben zu Volkswagen aktuell keine Geschäftsbeziehung.)

Da wird seit einigen Monaten der Kleinwagen Up! angeteasert, beworben und mit viel Geld durch Design-Agenturen möglichst attraktiv dargestellt. Wir surfen also auf Volkswagen.com und werden auf Volkswagen.de umgeleitet. Das ist schonmal super. Doch trotz des ganzen Zaubers (teurer, toller Film) rund um den Up! klicken wir zielstrebig auf den Multivan, also den Bus. Und dann sehen wir uns noch den Caddy Kastenwagen an. Damit müsste die Seite gelernt haben: ‘Hmm, dieser Kunde interessiert sich nicht für den Up! sondern für die etwas größeren Nutzfahrzeuge. Es handelt sich mit hoher Wahrscheinlichkeit um einen Kunden mit großer Familie, oder einen gewerblichen Kunden wie z.B. einen Handwerker .’

Das sollte die Webseite nun wissen. Wenn ich nun aber NOCHMAL auf Volkswagen.de bzw. den Home-Button (Logo) gehe, dann zeigt mir die Webseite wieder den Up!.

Webseiten als gute Verkäufer und Berater

Zurück in unserem Alltagsbeispiel hieße das: Ich habe der Verkäuferin angedeutet, dass ich einen blauen Anzug Größe 102 suche und die Verkäuferin sagt: ‘Kommen Sie doch bitte mit in unsere Jeans-Abteilung, ich habe auch etwas in Größe 42 extraweit. Und danach bittet Sie mich, ihr durch den ganzen Laden zu folgen (viel Content).’

So konzeptlos funktionieren heute Websites von deutschen weltmarktführerenden Unternehmen und Konzernen, selbst wenn sie mit führenden CMS-Systemen umgesetzt wurden. Die Schwäche in den Konzepten und die später geringe Akzeptanz in den Zielgruppen ist für uns teilweise sehr frustrierend.

Denn:
Redaktionssysteme haben sich in den letzten 10 Jahren immens weiterentwickelt und können heute deutlich mehr als einfach nur Content erfassen, erzeugen und anzeigen. Und Design ist wichtig, aber um im o.g. Beispiel zu bleiben, rettet ein hübsches Äußeres nicht die Inkompetenz der Verkäuferin im Kleidungsfachgeschäft.

Das Content Management System SITECORE

Sitecore – eine Lösung aus unserem Portfolio – liefert z.B. ein System, das besonders für marketingaffine Unternehmen interessant ist und aktives Verkaufen unterstützt.

Um wieder zu unserem Volkswagen-Beispiel zurück zu gehen: Idealerweise hat die Seite jetzt nicht nur erkannt, dass ich mich für ein großes und praktisches Auto interessiere, sondern zeigt mir auch gleich noch eine spezielle Bilderwelt an: Eine Familie mit vielen Kindern vor dem Auto oder ein Handwerker, der lange Gegenstände ins Auto lädt. Dann würde ich mich als Kunde schon ein ganzes Stück besser verstanden fühlen.

Technisch ist diese Art der Personalisierung ein alter Hut. Auf klassischen E-Commerce Seiten wie Amazon oder eBay sind solche Funktionen Nutzern seit vielen Jahren bekannt. Bestes Beispiel: “Kunden, die dieses Produkt gekauft haben, haben sich auch für jene Produkte interessiert”. Doch auf Unternehmens-Seiten, die mit klassischen Content Management Systemen ohne Personalisierung gebaut werden, fehlen diese Funktionalitäten meist noch. Technisch sind diese verfügbar, auch ohne Budget in der Größe von Amazon.

Solche Funktionen bietet Sitecore im Standard. Bestandteil des Produktes ist ein Digital Marketing System, das u.a. auf das Nutzerverhalten in Echtzeit reagiert und den redaktionellen Content für den individuellen Betrachter der Seite anpasst.”

Wie funktionieren personalisierte CMS genau?

So weit, so gut. Aber wie funktioniert das genau und wie kann ein Unternehmen diese Technologie in seine Webseite einbauen?

Michael blickt dazu kurz in die Vergangenheit:

“Wenn man Konzepte für Webseiten erstellt, geht es meistens so los:
User-Experience-Designer und Informations-Architekten überlegen sich: Wie muss die Seite aufgebaut und strukturiert werden, damit der User sich möglichst leicht zurecht findet und idealerweise relevanten Content besucht? Als Orientierung schafft man sich hierfür Zielgruppen (z.B. Familenvater, 30-38, Einkommen 3700,-) oder besser noch Personas (detaillierte Definition einer beispielhaften Zielperson: Max Mustermann, 36, 3 Kinder, fährt gerne mit der Familie im Auto in den Urlaub, Heimwerker).
Der User-Experience-Designer stellt sich nun die Frage: Welcher Content ist denn nun für Zielgruppen und Personas relevant? Entsprechende Wireframes werden dann im Konzept entwickelt und durch Designer „angehübscht“. Eine feste Struktur der Seite, die Navigation, die Bühne, Teaserelemente, Tabbings, Karussels und die Suche sind wesentliche Bestandteile der klassischen Konzeption, um relevanten Content anzubieten. Es ist jedoch eine feste Struktur für alle Benutzergruppen.

Die festen Strukturen lassen sich in Sitecore aufbrechen indem jedem Schnipsel Content die Information mitgegeben wird, wie relevant dieser Content für die vordefinierten Zielgruppen ist (Meta-Daten). Die Seite wird später dynamisch, d.h. unterschiedliche Zielgruppen sehen unterschiedlichen Content.
In unserem Beispiel Volkswagen erhalten die Inhalte zum Up! eine sehr niedrige Relevanz für Max Mustermann (die Zielgruppe mit den drei Kindern). Multivan und Caddy haben eine deutlich höhere Relevanz. Im Detail werden Inhalte aus dem Umfeld, Familie, Freizeit, Urlaub stärker hervorgehoben, als die gewerblichen Einsatzgebiete.

Was passiert nun, wenn Max Mustermann auf die Webseite surft?

Zunächst etwas ganz ähnliches wie bsw. beim Online-Banking. Es wird eine Session für den User aufgemacht und ein Cookie im Besucher-Browser angelegt, in das all das reingeschrieben wird, was helfen kann, dem Besucher die für ihn interessanten Inhalte anzuzeigen. Das geschieht ohne Anmeldung des Kunden, d.h. ohne Login (implizite Personalisierung).
Wenn der Kunde beim nächsten Mal wieder auf die Seite surft, bekommt er relevante Inhalte auf der Website angezeigt und muss sich nicht erst wieder durch die gesamte Seite hindurch klicken.
Beim Besucher der Webseite stellt sich dadurch folgender Effekt ein: “OH! Hier werde ich verstanden, hier möchte ich gerne kaufen. Oder zumindest: Hier bewege ich mich noch weiter auf der Seite und schaue, was mir noch weiter angeboten wird”.

Im Beispiel Kleidungsfachgeschäft ist das der prüfende Blick der Verkäuferin auf mein Äußeres beim Erstbesuch des Geschäftes, ohne dass üblicherweise mein Kundenname erfragt wird.

Wieviel Personalisierung ist möglich und wie setzt man das im Projekt um?

Natürlich könnte man hingehen und den gesamten Content für Personalisierung auslegen. Jedem Informations-Schnipsel Meta-Daten zuordnen, über die die Relevanz für die unterschiedlichen Zielgruppen deutlich wird usw. Die gesamte Webseite wird dynamisch für jeden Besucher anders angezeigt. Das erzeugt jedoch technisch und organisatorisch zu viel Komplexität und schränkt die Einfachheit der Benutzung ein.
comspace empfiehlt ein schrittweises Vorgehen.

Beispiel Jobsuche: Wenn ein Webseitenbesucher sich gezielt auf den Job-Angeboten bewegt, wird ihm im Header der Seite kein Produkt-Teaser mehr angezeigt, sondern eine Grafik, die zur Kontaktaufnahme mit der Personalabteilung einlädt. Denn augenscheinlich handelt es sich ja um jemanden, der für das Unternehmen arbeiten möchte und nichts kaufen wird (Zielgruppe Berwerber, definiert im Konzept über eine Perona).

Eine solche Anpassung ist meist innerhalb kurzer Zeit zu realisieren und man kann erste Erfahrungen sammeln, wie die Besucher der Seite auf eine solche Personalisierung reagieren. Begleitend notwendig ist der Einsatz eines Analytics-Tools (teilweise in aktuellen CMS-Lösungen integriert), um mehr über seine Besucher und den Erfolg der Personalisierung zu lernen und Schritt für Schritt weitere Zielgruppen gezielt zu bedienen.

In weiteren Schritten lässt sich Marketing Automation aufbauen. Bestimmte Handlungen des Besuchers auf der Webseite führen zu festgelegten Reaktionen im Backend der Webseite, die dann ganz gezielte Marketing-Tools auslöst, wie z.B. einen Newsletter, Prospektmaterial oder eine Kontaktaufnahme anzubieten. Sinnvolle Ergänzung ist eine CRM Anbindung, durch die die Informationen, die ein bereits bekannter Besucher der Webseite hinterlassen hat, direkt in das Customer Relationship Management einfließen und weiteren Vertriebskanälen zur Verfügung stehen.

Zurück zu unserem Volkswagen-Beispiel:
Der Kunde hat sich beim zweiten Besuch auf der Webseite registriert und einen Multivan konfiguriert. Farbe, Felgen, Ausstattung…
Nun kommt der Kunde zum dritten Mal auf die Seite. Die Bilderwelt wird direkt auf das Aussehen des vom Kunden konfigurierten Fahrzeugs angepasst. Der Kunde erkennt ‘sein’ Fahrzeug wieder. Nun werden auf der Webseite Informationen angezeigt, die zum Abschluss des Geschäftes führen (exemplarische Schritte, wir sind keine Strategieberatung im Umfeld Automotive):

  • Probefahrt vereinbaren
  • Finanzierung
  • Versicherung
  • Zubehör

Und selbst nach einem Kauf hört die Funktionaltät nicht auf:

Wird ein Kunde, der bereits gekauft hat, auf der Seite wieder erkannt, können gezielt Inhalte angezeigt werden, die Zusatzkäufe generieren sollen oder ergänzende Dienstleistungen anbieten. Ebenso können aber auch Service-Leistungen angeboten werden, wie häufige Fragen zum gekauften Produkt, Neuigkeiten, Bedienungsanleitungen etc.

Ein einfaches, preisgekröntes Beispiel für Personalisierung aus der comspace Praxis:

 

Nach Ursprungsort des Webnutzers angezeigtes Bild auf der Dornbracht Seite

Unser Kunde Dornbracht präsentiert auf der Webseite (basierend auf Sitecore), unter anderem eine horizontale HighEnd Dusche. Unter den Bildern auf der Produktseite ist u.a. auch eines dabei, auf dem eine unbekleidete Dame in dieser Dusche angedeutet ist.

Es handelt es sich um ein Premium-Produkt, das auch im arabischen Markt angeboten wird. Da eine solche Abbildung dort problematisch ist, erkennt die Webseite anhand der GEO-IP woher der Besucher kommt und zeigt dementsprechend ein anderes Bild an. Das ist ein sehr einfaches Beispiel für Personalisierung von Content für eine Zielgruppe, basierend auf Lokalisierungsdaten.

Ein anderes Beispiel für die Personalabteilung

Die meisten Unternehmen haben eigene IP-Nummernkreise. Also jeder, der aus dem Adressbereich eines Unternehmens im Web surft, ist als Mitarbeiter dieses Unternehmens im Web erkennbar.

Mitbewerber auf der eigenen Seite werden nicht gern gesehen. Dabei vergessen wird jedoch, dass es sich um hochqualifizierte potenzielle Bewerber handelt.

CMS-Systemen kann man beibringen, anhand der IP-Adressen zu erkennen, ob ein Mitarbeiter eines Mitbewerbers meine Webseite besucht. Wie wäre es denn zum Beispiel, wenn Mitarbeiter von Wettbewerbern zu allererst Stellenangebote zu sehen bekommen? Dies ist keine hypothetische Diskussion, sondern wird aufgrund des bestehenden Fachkräftemangels schon von ersten Unternehmen umgesetzt.

Warum brachten wir eigentlich die ganze Zeit das Beispiel Volkswagen?

Wie oben angeführt nur als exemplarisches Beispiel aufgrund der Bekanntheit der Marke und für die Nachvollziehbarkeit des Beispiels.

Volkswagen benutzt das CMS Web Experience Management von Adobe, auf dessen Basis wir dieses Jahr ein erstes Projekt realisiert haben. Das System bietet ebenfalls viele der Personalisierungs-Funktionen, die ich im Zusammenhang mit Sitecore erklärt habe.

Sicherlich plant Volkswagen in nächsten Schritten, diese angedeuteten Konzepte in der Online Welt umzusetzen.

Das o.g. Szenario funktioniert nicht nur im Umfeld B2C, sondern ebenfalls in mehrstufigen Märkten B2B.

Mitnehmen

  • CMS-Software kann heute mehr als Content erstellen
  • Konzepte müssen Lösungen zur zielgruppenspezifischen Auslieferung von Content liefern
  • Design rettet keine unrelevanten Inhalte
  • Konzepter müssen aktuelle CMS Systeme kennen, vor allem das System, auf dem später die Implementierung stattfinden soll
  • comspace ist Sparringspartner mit technologischem Fokus für Endkunden und Agenturen

Was macht das Arbeiten in der Cloud so attraktiv?

Ein Mann sitzt in der Lobby eines Luxushotels. Es ist 3 Uhr nachts und nur hier unten hat er WLAN, um noch einmal schnell seine E-Mails zu checken. Ein junges Pärchen kommt durch die Drehtür des Hotels von einer Strandparty, sie versucht gar nicht erst zu flüstern: „Schau Dir den armen Knilch an, selbst im Urlaub kann er bis tief in die Nacht nicht aufhören zu arbeiten.“

Der Mann mit dem Laptop auf den Knien denkt bei sich „Wer ist denn der arme Knilch – der, der seinen Job liebt und jederzeit von überall aus arbeiten kann oder diejenigen, die sich in 2 Wochen im Jahr von den anderen 50 Wochen Arbeit, die sie nicht gerne machen, erholen müssen?“

Diese selbsterlebte Geschichte erzählt Marketingexperte und Bestseller-Autor Seth Godin in einem seiner Bücher.

Warum ich Ihnen davon erzähle?

Weil diese kleine Anekdote sich vor einigen Jahren zutrug und damals noch eine sehr kleine Personengruppe betraf. Je größer die Datenwolke aber wird, desto größer wird auch die Auswirkung auf all die Berufsgruppen, die ich hier mal mit dem neudeutschen Begriff „Wissensarbeiter“ bezeichnen möchte.

Dazu zähle ich allerdings nicht nur Programmierer und hippe Freelancer, deren Büro immer gerade dort ist, wo sie ihr Macbook und einen Cafè Latte abstellen können, sondern alle Menschen, die nach der wortwörtlichen Bedeutung des Begriffes mit Wissen arbeiten.

Außendienstler arbeiten mit Wissen. Projektmanager arbeiten mit Wissen. Callcenter-Mitarbeiter arbeiten mit Wissen. Kundenservice-Mitarbeiter arbeiten mit Wissen usw. usf.

Möglicherweise sollten wir den Begriff Wissensarbeiter etwas erweitern und Wissens- und Kommunikations-Arbeiter sagen, denn Wissen, das nicht kommuniziert und weiter entwickelt wird, ist relativ wertlos.

All diese Wissens- und Kommunikations-Arbeiter waren bis vor wenigen Jahren noch an ihren Arbeitsplatz gebunden. Denn dort standen die Aktenordner, das Faxgerät, das Telefon mit der persönlichen Durchwahl, der Schreibtisch-PC auf dessen Festplatte alle wichtigen Dokumente abgelegt waren. Dort war auch die Stempeluhr, die betätigt werden musste, bevor man überhaupt an diese Geräte heran kam.

Wie viele dieser ortsgebundenen Artefakte haben Sie noch an Ihrem Arbeitsplatz?

Oder sind Sie schon mit Smartphone, Laptop und flexiblen Arbeitszeiten unterwegs? Dann sind Sie möglicherweise auch gar nicht mehr so weit von der Cloud entfernt.

Wie wird unsere Arbeitsweise zukünftig aussehen?

Die Zukunft der Arbeit ist – zumindest teilweise – unabhängig von Zeit und Ort. Wenn Sie von überall her auf Ihre Arbeit zugreifen könnten: Würde das Ihre Art zu arbeiten dann nicht verändern? Und hiermit meine ich nicht nur ein paar E-Mails und Word-Dateien. Sie können alle relevanten Arbeitsabläufe von überall her erledigen. Idealerweise sogar zu jeder Zeit. Ihnen fällt noch eine Ergänzung zum Konzept ein? Statt dass Sie sich eine Notiz schreiben müssen, können Sie die Änderung direkt und für alle anderen Beteiligten sofort sichtbar vornehmen.

Stellen Sie sich vor, ein Kunde ruft Sie auf Ihrer Büronummer an und wird direkt an Ihr Smartphone weiter geleitet. Der Kunde erteilt Ihnen einen weiteren Auftrag. Sie machen eine Gesprächsnotiz im mobilen CRM-System über das Gespräch mit dem Kunden. Danach werfen Sie einen Blick in das ebenfalls mobile ERP-System und kontrollieren, ob ausreichend Kapazitäten für den Auftrag vorhanden sind. Ebenso gut können Sie hier mobil in Geschäftsprozesse eingreifen. Meetingprotokolle und Lastenhefte liegen ebenfalls in der Cloud und somit in Ihrem Zugriff – selbstverständlich in einem ordnungsgemäß geschützten Bereich.

Selbst unsere Kernkompetenz bei comspace – Content Management Systeme – können als Cloud-Lösung von überall her bedient werden.

Das Konzept des Cloud Computing ermöglicht dabei unabhänigig von Hard- und Software des Endnutzers einfache Zugriffsmöglichkeiten über Browser und Apps. Anwendungen, Daten und Dokumente liegen nicht mehr nur auf einem spezifischen Rechner sondern redundant verteilt auf mehreren Maschinen, die gemeinsam eben die Wolke darstellen. Diese Wolke kann vollständig durch das firmeneigene Rechenzentrum vorgehalten werden, von Dienstleistern zur Verfügung gestellt werden oder eine Mischung aus beidem darstellen.

Somit macht uns die Daten-Wolke ein ganzes Stück unabhängiger und flexibler darin, wie wir Daten, Programme und Computer nutzen. Zum Arbeiten wie auch privat.

So sehr ich persönlich diese flexible und unabhängige Art zu arbeiten genauso wie Seth Godin schätzen gelernt habe: Wenn es um den Blick aus dem Fenster geht muss ich Ihnen ehrlich gestehen:

Ein wolkenloser Himmel ist mir immer noch am liebsten 😉

Tagsüber twittern, abends facebooken

Eine interessante Social Media Studie bei futurebiz hat herausgefunden, dass tagsüber mehr getwittert und abends mehr Facebook genutzt wird. Nach 19 Uhr sind die Interaktionen auf Facebook am häufigsten.

Heisst das nun, dass Menschen bei der Arbeit zwar heimlich twittern können, aber Facebook gesperrt ist? Oder könnte es sein, dass diejenigen, die Social Media auch berufsmäßig nutzen oder zumindest in Unternehmen arbeiten, die dem Social Web aufgeschlossener gegenüber stehen, eben verstärkt twittern und ihren Facebook-Account eben nur privat nutzen? Vielleicht verursacht Facebook mit den ganzen Fotos und Videos in den Timelines auch derart viel Traffic, dass der kostensensible Mobilfunknutzer lieber das sparsamere Twitter während der Arbeitszeit nutzt. Auf dem privaten Handy natürlich 😉

Die vollständige Studie zur Nutzeraktivität kann hier herunter geladen werden.

Richtlinien zum qualitativen Aufbau von Webinhalten: Nutzen für den Besucher (Teil 3)

Google Webmaster Tools und Google Webmaster Richtlinien

Qualität ist nicht erst seit den vergangenen Google Updates namens Panda und Pinguin ein Diskussionsthema, sondern schon länger ein relativ wichtiger Faktor in Bezug auf den Aufbau und die Erstellung von Webseiten und Webinhalten.

Dies bezüglich gibt es in den Google Webmaster Richtlinien einen gesonderten Bereich der sich mit dem Thema „Qualitätsrichtlinien“ beschäftigt. Primär wird den Richtlinien auf die bekanntesten manipulativen Verfahren eingegangen, die natürlich für den erfahrenden Webentwickler ein Begriff sein dürften.

Google Webmaster Tools und Google Webmaster Richtlinien

Null Toleranz bei der Anwendung manipulativer Verfahren

Seit Bestehen der Suchmaschinen versucht der Webseitenbesitzer seine Webseite so erfolgreich wie möglich zu gestalten. Bei der Vielzahl an Internetseiten und potentiellen Konkurrenten ist es vor allem in der heutigen Zeit nicht unbedingt einfach, sich auf den vorderen Plätzen unter den relevanten Keywords zu positionieren.

So gibt es früher wie heute findige Webseitenbetreiber die versuchen durch gezielte Manipulation die Suchmaschinen und deren Algorithmen auszutricksen. Genau aus diesen Gründen haben Suchmaschinenbetreiber eigene Qualitätsrichtlinien entwickelt, die Webseitenbetreiber darüber aufklären, was erlaubt ist und was nicht.

In vielen Fällen glauben die Webseitenbetreiber allerdings, solange ein Verfahren nicht in den Qualitätsrichtlinien der Webmaster Richtlinien auftaucht, wird das Verfahren seitens der Suchmaschinenbetreiber wie Google gebilligt. Doch dies ist eigentlich nicht der Fall – manipulative Verfahren werden von Suchmaschinen nicht toleriert. Es kann aber durchaus sein, dass bis dato noch kein Algorithmus Update existiert, dass diese Verfahren in die Schranken weist.

Bei Missachtung der Qualitätsrichtlinien werden die Webseitenbetreiber durch verschiedene Maßnahmen von der Abwertung im Ranking bis hin zur Deindexierung einer Webseite bestraft.

Webseiten sind für die Nutzer da

Häufig vergessen die Webseitenbetreiber, dass eine Webseite nicht für die Suchmaschinen erstellt wird, sondern für den potentiellen Besucher bzw. Kunden, der auf seinem Streifzug durch das World Wide Web, die eine Webseite entdeckt.

Um unsinnigen und aufwendigen Manipulationsversuchen entgegen zu wirken, gibt Google dem Webseitenbetreiber den Ratschlag seine Zeit in die Optimierung und Verbesserung seiner Webseite und Webinhalte zu investieren. Dadurch wird dem Besucher der Website ein wesentlich größerer Dienst erwiesen und gleichzeitig wird zur langfristigen Verbesserung von Suchergebnissen und Suchqualität beigetragen. Die Webseiten, die die Qualitätsrichtlinien von Google einhalten, werden durch ein besseres Ranking belohnt.

Wie du mir, so ich dir – der Linktausch

Google empfiehlt nicht an Linktauschprogrammen teil zu nehmen oder Linkkauf zu betreiben, um das Ranking oder den PageRank zu verbessern. Partnerseiten zu erstellen, die alleine dem Zweck der Websitevernetzung dienen ist ein Verstoß gegen die Google Webmaster Richtlinien, der sich negativ auf das Ranking Ihrer Website in den Suchergebnissen auswirkt, gleiches gilt für Links zu Webspammern oder „schlechte Nachbarschaft“.

Grundprinzipen der Qualitätsrichtlinien

In den Google Webmaster Richtlinien werden einige Grundprinzipien seitens Google aufgelistet – wobei diese in den meisten Fällen dem Webmaster eigentlich auch bekannt sein sollten. Dazu gehört das Cloaking eine Modeerscheinung, bei der Suchmaschinen andere Inhalte angezeigt wurden, als dem Besucher – damit Webseiten sich in den Suchergebnissen besser positionieren.

Seitens Google sind Verborgene Texte oder verborgene Links, automatischen Suchanfragen an Google, Seiten mit irrelevanten Suchbegriffen, doppelte Seiten, Sub-Domains und Duplicate Content, Seiten mit Phishingversuchen, Viren, Trojanern usw. nicht erlaubt. Zudem wird von Brückenseiten und Partnerprogrammen, die keinen Wertgewinn darstellen abgeraten. Sollte eine Seite nicht diesen Richtlinien entsprechen, bietet Google die Möglichkeit an, nach der Korrektur einen Antrag auf die erneute Überprüfung der Website zu stellen.

Weitere Artikel zum Thema Google Webmaster Richtlinien

Crowd Sourcing und LEGO – Wie passt das zusammen? PERFEKT! Und macht Minecraft anfassbar :)

Screenshot des LEGO Cuusoo Portals mit dem Minecraft LEGO Bausatz

Crowd Sourcing meint, dass massenweise Leute über das Netz an etwas zusammen arbeiten können. Wikipedia, Google Docs, Firmen-Intranets… You name it. Und ein Modell ist abstrakter als das andere.

Screenshot des LEGO Cuusoo Portals mit dem Minecraft LEGO Bausatz
Screenshot der LEGO Cuusoo Webseite

Haben Sie auch früher mit LEGO die abgefahrensten Dinge gebaut?

Häuser, Schiffe, Autos, Raumstationen und Ritterburgen… Was haben wir nicht alles aus den kleinen, dänischen Klötzchen für Welten erschaffen. Zahllose Nachmittage, an denen unsere Knie tiefe Beulen im Kinderzimmerteppich hinterlassen haben. Und dann haben wir unsere Werke stolz ins Wohnzimmer getragen, um sie ein paar Tage später fallen zu lassen und nach dem großen SCHEPPER! die Steinchen nach und nach aus den hintersten Zimmerecken zu fischen und zu einem neuen Kunstwerk zusammen zu setzen.

1,7 mm hohe Noppen, die Welten zusammen halten und uns in Sekunden die Vergänglichkeit unserer Arbeit vor Augen führten.

Heute sieht das plötzlich ganz anders aus: Wir können uns nicht nur wie der Bielefelder Schriftsteller Mischa Sarim-Verrolet beim Bauen unseres LEGO Bullis zuschauen lassen und unsere Bauwerke nicht nur  im Web für die Ewigkeit festhalten, sondern uns Anregungen in LEGO Blogs holen, wo virtuose Klötzchen-Architekten ganze Filmsets nachbauen oder sogar filmreife Modelle entwerfen.

Crowd Sourcing heisst gemeinsam arbeiten

So wie wir früher gemeinsam an einem LEGO-Projekt gearbeitet haben, können wir heute mit Crowd-Sourcing und Cloud-Anwendungen auch im echten Leben echte Projekte umsetzen und Meilensteinchen an Meilensteinchen reihen. Eigentlich logisch, diese beiden Dinge zusammen zu führen, oder?

Neben privat erstellten LEGO-Bauplänen, die von anderen runtergeladen, kommentiert, verbessert und erweitert werden können, hat LEGO als Unternehmen mittlerweile eine clevere Crowd-Sourcing Plattform aufgebaut.

Auf dem Portal LEGO.cuusoo.com können Fans ihre fertiggestellten (mit Teileliste und Bauplan dokumentierten) LEGO-Fan-Projekte vor- und zur Wahl stellen.

Projekte, die durch die Community mindestens 10.000 Stimmen erhalten, werden von LEGO in Betracht gezogen, als tatsächliches Produkt in den Handel zu kommen.

Warum vertraut LEGO auf diese Schwarmintelligenz der Kunden?

Seit 90 Jahren ist LEGO einer der erfolgreichsten Spielzeughersteller der Welt – 2012 ist tatsächlich Jubiläumsjahr. Warum sollte sich das Unternehmen von Kunden in die Produktentwicklung reinreden lassen? Hier die 5 offensichtlichsten Gründe:

  1. Innovative Produkte entstehen
  2. Grundabsatz unter den Projekt-Supportern ist relativ sicher
  3. Hohe Akzeptanz durch den „Mitmach-Faktor“
  4. Virale Verbreitung auch der nicht realisierten Projekte in Social Networks
  5. Awareness für die Marke LEGO

Minecraft wird durch LEGO Cuusoo aus der Virtualität in die Anfassbarität gebracht

Ein Beispiel für perfektes Crossmarketing: Minecraft ist wohl DAS Computer-Spiel-Phänomen der letzten Jahre. In dem kostenlosen Online-Spiel kann der Spieler eigene Welten zusammenbauen. Aus Klötzchen.

Was liegt da näher als Minecraft mit Hilfe von LEGO in die echte Welt zu überführen? Doch weder LEGO noch der Spiele-Entwickler Markus Persson kamen auf die Idee, sondern die Cuusoo Community. Vier auf dem Globus verteilte Fans entwickelten zusammen mit einem LEGO-Designer den ersten Minecraft-LEGO-Baukasten, der seit Juni auch in Deutschland für 34,95 im Regal steht.

Erste Blogs berichten bereits begeistert über das fertige Produkt:

Video hier entdeckt

Hinterlassen Sie uns doch einen Kommentar, wie Massenzusammenarbeit mit Kunden für Ihre Produkte aussehen könnte!

 

 

Durch einen Hinweis auf dieses LEGO Autoprojekt, das ich gleich in meinem eigenen Blog verwendet habe, bin ich auf LEGO.Cuusoo aufmerksam geworden

Warum betreibt man denn einen Firmen-Blog?

Warum betreibt man als Unternehmen ein Blog? Als Marketing-Instrument? Dafür ist der Aufwand eigentlich zu groß. Als Mitarbeiter-Magazin? Dafür ist es zu öffentlich, denn auch das transparenteste Unternehmen ist ja schon rechtlich als auch wirtschaftlich dazu verpflichtet, einige Informationen für sich zu behalten.

Wozu ist also ein Unternehmens-Blog sinnvoll?

Dazu habe ich letztens einen spannenden Artikel im Blog Deadline beim schweizer Tagesanzeiger gelesen. Dort schreibt Constantin Seibt, der als einer der besten deutschsprachigen Wirtschafts- und Politik-Journalisten gilt, über Journalismus im 21. Jahrhundert im Allgemeinen und im speziellen über die letzte exklusive Ware des Journalismus: Komprimierte Zeit.

Denn die Ware im Journalismus ist im Kern nicht die Nachricht, die Unterhaltung oder der Kommentar, sondern die Ware jedes professionellen Schreibers: komprimierte Zeit.

Seibt meint damit, der Schreibende nimmt sich Zeit über ein Thema nachzudenken, Informationen zusammen zu stellen und neu zu kombinieren. Die daraus entstehenden Erkenntnisse, das erlangte Wissen oder aktuell erkannte Entwicklungen kann er dann wiederum seinen Lesern anbieten.

Woran der Schreiber 60 Minuten oder länger herumgedacht und geschrieben hat, kann der Leser innerhalb weniger Minuten aufnehmen.

Deswegen: Komprimeirte Zeit.

Ein ganz ähnlichen Anspruch haben wir uns für diesen Blog auch gesetzt. Nur eben mit einer sehr viel spitzeren Zielgruppe: Unsere Kunden, Mitarbeiter und alle, die sich für die Themen, die uns bewegen ebenfalls interessieren.

Wenn wir Events zusammenfassen und unsere Erkenntnisse daraus veröffentlichen oder unsere Mitarbeiter ihr Expertenwissen in kleine, leicht nachvollziehbare und anzuwendene Informations-Happen komprimieren, helfen wir uns und Ihnen:

Wir schenken Ihnen komprimierte Zeit und profitieren selbst davon, wenn unsere Kunden top-informiert sind.

Rechtssichere Integration des Share-Buttons

Allyve Share Plugin - Teilen ButtonAb sofort sind die Share-Plugins auf unseren Seiten von Allyve und somit bieten wir eine rechtssichere Integration des Like-Buttons von Facebook. Deutsche Datenschutzbehörden haben zuletzt immer wieder eine 2-Klick-Lösung für Webseiten gefordert. Im Folgenden möchte ich kurz auf die Vorteile des Share Plugins eingehen aber auch auf die aktuelle Diskussion zum Thema „2-Klick-Lösung“ eingehen.

Warum sollte man ein Share Plugin einsetzen?

Webseiten-Besucher können interessante Inhalte schnell und einfach in alle relevanten sozialen Netzwerke teilen. Der Content kann sich so schnell viral verbreiten, was zu steigenden Nutzerzahlen auf dem eigenen Angebot führt. Da aber niemand eine Vielzahl unterschiedlicher Icons auf der eigenen Seite unterbringen möchte, sind verschiedene Unternehmen auf die Idee gekommen diese Buttons hinter einem „Teilen“-Button zusammenzufassen. Als Mehrwert steht dem Nutzer oft eine Multisharing-Option zur Verfügung, die so das mehrfache Anklicken verschiedener Buttons auf wenige Klicks reduziert.

Datenschutz und 2-Klick-Lösung

Wir möchten uns an dieser Stelle nicht an der aktuellen Diskussion zum Thema beteiligen aber im Sinne des  §3a BDSG sorgt eine 2-Klick-Lösung für eine Datensparsamkeit was die Sammelleidenschaft von Facebook & Co. betrifft. Wer sich selber mit dem Thema beschäftigen möchte, dem empfehlen wir ein paar Links um weiter in das Thema einzusteigen:

Der gute alte Google PageRank

PageRank von Comspace

Jedes Mal aufs Neue, sobald sich die Anzeige des Google PageRanks verändert, diskutieren die Seo- und Marketingexperten darüber, welche Wertigkeit der PageRank in der heutigen Zeit besitzt.

Rückblick in die Anfangszeit des PageRank Algorithmus

Der Google PageRank-Algorithmus stammt, wie der Name eigentlich schon sagt, aus dem Hause von Google und diente als Grundlage der modernen Suchmaschine.

Die Aufgabe des PageRank-Algorithmus war die Qualität von Internetseiten anhand ihrer Linkpopularität, also Links die auf eine Webseite verweisen, zu gewichten und Webseiten anhand der Bewertung in den Serps (Suchergebnissen) zu positionieren. Im Hinterkopf sollten wir dabei aber behalten, dass der Algorithmus weitaus komplexer ist, als wir ihn hier dargestellt haben.

PageRank von Comspace

Der öffentliche PageRank wird in einer Skala von 0 bis 10 dargestellt. Webseiten mit einem hohen PageRank wurde lange Zeit nachgesagt, dass diese von der Qualität besser sind als Webseiten, die einen niedrigeren PageRank besitzen. Das Problem dabei war nur, dass der PageRank aufgrund des Linkhandels manipuliert werden konnte und deshalb kein ausreichendes Qualitätsmerkmal für gute Inhalte darstellte.

Linkhandel – Linktausch und Linkverkauf

Aufgrund dessen, dass relativ schnell klar war, welche Bedeutung der PageRank hat, erlebte der Linkhandel einen Aufschwung und Links/Backlinks wurden in verschiedenen Formen gehandelt.

Dem entsprechend wurde auch viel Kritik an dem PageRank laut, da finanzkräftige Unternehmen in der Lage waren Backlinks zu kaufen. Mittlerweile verstößt der Handel mit Links, ob Kauf oder Tausch, gegen die Google Webmasterrichtlinien.

Google hat sich nicht nur als Unternehmen durch viele seiner Dienste wie GoogleMail oder GooglePlus weiterentwickelt, auch der Google Algorithmus ist mittlerweile deutlich größer und facettenreicher als zu Zeiten, wo der PageRank einer der wenigen Qualitätsmerkmale war. Besonders durch diverse Algorithmus Updates wie zum Beispiel das Panda Update (einst auch Farmer Update) und Pinguin Update versucht Google auf Basis der eigenen Webmasterrichtlinien den Handel mit Links zu unterbinden und die Qualität in den Vordergrund zu rücken.

Warum Google an dem PageRank festhält

Im Online Marketing wird häufig die Frage gestellt, warum Google überhaupt an dem PageRank festhält, wenn doch bekannt ist, dass dieser sich ggf. auch noch heute manipulieren lässt und dadurch der Linktausch gefördert wird.

Google wird sicherlich nicht aus dem Grund des Linkhandels an dem PageRank festhalten – sondern weil der PageRank noch ein Teil eines großen Algorithmus zur Bewertung von Webseiten und eben nicht mehr das Alleinstellungsmerkmal für qualitative Webseiten ist, aber dennoch als ein Kriterium von sehr vielen in die Bewertung von Webseiten einfließt.

Trotz aller Theorien – ohne eine 100 %ige konkrete Aussage von Google wird diese Frage nie zur vollsten Zufriedenheit aller beantwortet werden können.

Aktualität des sichtbaren PageRanks

Ein weiteres Problem ist die Aktualität des PageRanks – während sich Suchmaschinenoptimierer oder Suchmaschinenmarketing-Experten stets auf aktuelle Daten verlassen wollen bzw. sogar müssen, so ist der sichtbare PageRank, im Gegensatz zum internen PageRank, nie wirklich aktuell.

PageRank Updates werden in der Regel alle drei bis sechs Monate durchgeführt und viele Webseitenbetreiber erfreuen sich daran, dass sich der PageRank ihrer Seite ggf. verbessert oder überhaupt einen bekommen hat.

Doch gerade im Update-Intervall liegt das Problem – ist der PageRank am Tage des Updates tatsächlich aktuell oder hat der Google Algorithmus den PageRank bereits Wochen zuvor berechnet und diesen erst am Tage des Updates sichtbar für alle Webseitenbetreiber gemacht?

Google Panda und Google Pinguin Update

Wie bereits im Abschnitt “Linkhandel – Linktausch und Linkverkauf” beschrieben, arbeitet der Suchmaschinenbetreiber Google stets daran, die Qualität seiner Suchergebnisse zu verbessern. Dem entsprechend gab es in den vergangenen Wochen und Monaten einige Updates wie zum Beispiel das Panda Update und das Pinguin Update.

Des Weiteren hat Google viele Linknetzwerke, die einzig und allein zum Zweck des Backlinkhandels hochgezüchtet wurden, deutlich abgewertet und teilweise deindexiert.

Ist der PageRank tot?

Beim Google PageRank kommt ein Spruch besonders zum Tragen: „Tot Gesagte leben länger.“  In der Vergangenheit wurde der PageRank immer mal wieder tot geredet – doch ist der PageRank tatsächlich tot?

Meines Ermessens ist der PageRank nicht tot, sondern er ist zum einen ein Bestandteil eines großen Algorithmus zur Verbesserung der Qualität in der Suchergebnissen und zum anderen kann ich mir gut vorstellen, dass der PageRank aufgrund der Deindexierung und Abwertung von Blocknetzwerken eine Wiedergeburt erlebt.

Wenn Google in der Lage ist, sogenannte Blognetzwerke zu erkennen und diese entsprechend aus der Bewertung von Webseiten herauszufiltern, so erlaube ich mir die Theorie aufzustellen, dass der PageRank nicht tot ist, sondern aus seinem langen „Winterschlaf“ erwacht.

Die vergangenen fünf PageRank Updates

  • PageRank Update am 03.05.2012
  • PageRank Update am 07.02.2012
  • PageRank Update am 07.11.2011
  • PageRank Update am 22.07.2011
  • PageRank Update am 27.06.2011

Eine komplette Historie der PageRank Updates findet sich hier.

Passwörter sicher verwalten mit KeePass Password Safe

Wer im Internet viel unterwegs ist, kennt das Problem: überall werden Zugangsdaten benötigt, sei es beim Online-Banking, in Foren, beim Webmailer oder Online-Shops. Das Problem? Wer kann sich all die verschiedenen Passwörter merken?

Ich kenne viele, die sich ein Passwort merken und dieses bei den verschiedenen Diensten, in verschiedenen Variationen einsetzen oder noch schlimmer gleich ein Passwort für alles benutzen. Die Gefahr, die damit einhergeht, ist ganz klar: verschafft sich jemand unerlaubt Zugang zu einem der Konten des Nutzers, stehen ihm Tür und Tor offen zu allen Online-Konten.

Sicherer fährt man nur, wenn man sich starke Passwörter ausdenkt und jedem Online-Konto ein eigenes zuweist.

Wie installiere ich KeePass?

Wie man sich all diese Passwörter merken kann, möchte ich Ihnen im Folgenden aufzeigen. Das Programm meiner Wahl heißt KeePass, es ist OpenSource, Freeware und leicht in der Handhabung. Um KeePass zu nutzen, benötigen Sie ein installiertes .NET Framework 2.0 oder höher.

Zunächst einmal müssen Sie sich KeePass herunterladen:

Legen Sie sich einen Ordner KeePass an und entpacken Sie beide Archive in diesen Ordner – so wie auf nachfolgendem Screenshot sollte es aussehen:

Keepass entpacken - Keepass Ordnerstruktur

Nach dem Entpacken des Archives von KeePass sind nachfolgende Schritte auszuführen:

  • KeePass starten über die KeePass.exe.
  • Über den Punkt View->Change Language… die deutsche Sprachdatei auswählen.

KeePass wird daraufhin automatisch neu gestartet und sollte Sie dann mit der deutschen Oberfläche begrüßen:

KeePass Oberfläche in deutscher Sprachausgabe

Über Datei->Neu… legen Sie eine neue Datenbank-Datei an. Ich lege diese Datei immer im KeePass-Programmordner an, so habe ich alles beisammen und kann es bei Bedarf auf einem USB-Stick mitnehmen.

Anlegen eines Master-Passwortes

Als nächstes geht es darum, die Datenbank mit einem Master-Passwort zu schützen, genauer mit einem sogenannten Mantra, einem Passwort-Satz. Dieser sollte sorgfältig gewählt werden, im Zweifel ist es Ihr einziger Schutz, wenn die Passwort-Datenbank in fremde Hände fällt.

Das Mantra oder generell ein Passwort sollte kein Wort aus einem Wörterbuch sein, egal in welcher Sprache und sei die Sprache noch so exotisch. Zudem sollte man eine Kombination aus Groß- und Kleinbuchstaben, Zahlen und Sonderzeichen wählen. Eine Möglichkeit wäre, sich einen Satz auszudenken, den man sich gut merken kann wie z.B.: Was Fritzchen nicht lernt, lernt Fritz nimmermehr. Man baut Rechtschreibfehler ein und ersetzt einzelne Buchstaben durch Zahlen und Sonderzeichen, so dass am Ende so etwas dabei rauskommt: W4s Fr!7zch3n n!ch7 lärn+, lärn+ Fr!7z n!mmermöhr. Natürlich muss das Mantra nicht so lang sein, dies soll hier nur als Beispiel dienen.

KeePass verschlüsselt mit dem AES-Algorithmus und einer Schlüssellänge von 256 Bit. Um den maximalen Schutz zu nutzen, den diese Methode bietet, müsste das Mantra 32 Zeichen enthalten. Um Ihre Datenbank zusätzlich zu sichern, können Sie eine Schlüsseldatei erzeugen. In diesem Fall bräuchte ein Angreifer zum Öffnen Ihrer Passwort-Datenbank nicht nur das richtige Mantra, sondern auch die dazugehörige Schlüsseldatei, die natürlich nicht gleich im Programmordner von KeePass abgelegt werden sollte.

Wählen Sie ihr Master-Passwort und setzen Sie das Häkchen bei Schlüsseldatei / Provider…

Schlüsseldatei erstellen und Masterpasswort in Keepass vergeben

… und klicken Sie auf Erstellen, anschließend den Bildschirmhinweisen folgen bis die Schlüsseldatei erzeugt wird.

Schlüsseldatei für KeePass erzeugen

Zum Schluss können Sie mit OK das Erzeugen der Datenbank abschließen und im nächsten Schritt die Vorgaben des Programms ruhig übernehmen und mit OK bestätigen.

Jetzt gelangen Sie wieder in das KeePass Hauptfenster, das dann so aussehen sollte:

Hauptfenster von KeePass

Herzlichen Glückwunsch, Sie haben Ihre Passwort-Datenbank erfolgreich angelegt. Wenn Sie testen wollen, ob alles geklappt hat, einfach das Programm schließen und neu starten. Nun muss das Mantra eingegeben und die Schlüsseldatei eingebunden werden, nur so lässt sich die Datenbank öffnen.

Wie fülle ich die Passwort-Datenbank mit Inhalt?

Als nächstes können Sie die Datenbank mit Ihren Passwörtern füttern, vielleicht eine gute Gelegenheit, für bestehende Accounts neue Passwörter zu generieren.

Wählen Sie in der linken Spalte eine Kategorie und anschließend Bearbeiten->Eintrag hinzufügen… , um einen neuen Eintrag zu erstellen. Im folgenden Dialog füllen Sie die Felder aus. Wichtig ist, dass der Benutzername dem Login-Namen entspricht und unter URL die Adresse zu der Anmeldeseite gesetzt wird.

Eintrag in KeePass hinzufügen

Hat man nun einen Eintrag erstellt und möchte sich beim gewünschten Dienst anmelden, ruft man das Programm auf und wählt den entsprechenden Eintrag. In der unteren Spalte wird die URL angezeigt, mit einem Klick auf den Link öffnet sich Ihr Standardbrowser mit der jeweiligen Website und das Programm KeePass fällt in den Hintergrund. Auf der Website müssen Sie jetzt einmal in das Login-Feld klicken, damit KeePass einen „Anhaltspunkt hat“.

Passwort hinzufügen am Beispiel von gmx.de

Nun holen Sie KeePass wieder in den Vordergrund und führen einen Rechtsklick auf den Eintrag aus. Aus dem Kontextmenü wählen Sie Auto-Type ausführen.

Auto-Type für KeePass ausführen

KeePass trägt automatisch die Login-Informationen ein und bestätigt die Eingabe mit ENTER, so dass der Login erfolgt.

Auf diese Weise kann man sich für alle Dienste, die man nutzt, unterschiedliche und sehr komplexe Passwörter leisten und diese auch in regelmäßigen Abständen ändern, ohne sie sich merken zu müssen… bis auf das Master-Passwort natürlich. Zudem hat man die Passwörter in einer zentralen Datenbank – sehr hilfreich, wenn man mit unterschiedlichen Browsern oder Programmen arbeitet, denn KeePass spielt auf diese Weise mit unterschiedlichen Programmen zusammen.

Viel Spaß beim Ausprobieren!

Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Zu einer Webseite gehört auch die regelmäßige Prüfung, ob diese entsprechend den eigenen Vorstellungen funktioniert und seitens der Besucher sowie den Suchmaschinen-Crawlern abgerufen werden kann.

404 Fehler - Webseite - Inhalt nicht gefundenBesonders wichtig ist dabei zum Beispiel das Prüfen von internen und externen Links und eben das Vermeiden von 404-Fehlerseiten. Denn sowohl für den Besucher wie auch für Suchmaschinen ist es nicht von Vorteil, wenn Inhalte aufgrund fehlerhafter Links nicht erreichbar sind – der Besucher erhält somit den gewünschten Mehrwert nicht und verlässt die Webseite mit dem Gedanken „die Webseite ist unbrauchbar und funktioniert nicht“ und Suchmaschinen können den brandaktuellen und wichtigen Inhalt nicht in die Suchergebnisse aufnehmen, da dieser nicht verfügbar ist und mit hoher Wahrscheinlichkeit einen 404-Fehler liefert. Ebenfalls sollte auch eine hohe Anzahl von 404-Fehlern vermieden werden – dazu ist es einfach wichtig, regelmäßig, z.B. einmal im Monat, die Verlinkungen durch Programme wie Xenu’s Link Sleuth und durch Inanspruchnahme der Google Webmaster Tools zu prüfen und eventuelle Fehler zu begradigen.

Häufig verstecken sich aber auch Fehler im Detail – wie bereits im vorigen Artikel zum Thema „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ angesprochen sollten Webseiten einer regelmäßigen Prüfung auf Syntax-Fehler unterzogen werden. Dies sollte durch einen sogenannten W3-Validator geschehen – neben der rein technischen Überprüfungen des HTML / CSS Quellcodes ist eine Überprüfung der verschiedenen Webbrowser einschließlich ihrer unterschiedlichen Versionen eine durchaus sinnvolle Maßnahme. Beispielsweise kann eine Webseite im Internet Explorer 6 anders aussehen als im Internet Explorer 9, denn es gibt Unterschiede zwischen den einzelnen Browseranbietern wie z.B. Mozilla Firefox, Microsoft Internet Explorer oder den Safari von Apple. Der Grund für die unterschiedlichen Darstellungen von Webseiten in verschiedenen Browsern liegt in der Interpretation von HTML/CSS Elementen. Beispielsweise kann es sein, dass ein Mozilla Firefox ein HTML-Element anders interpretiert als der Internet Explorer. Eine gute Übersicht zu den Unterschieden einzelner HTML-Elemente und CSS-Elemente sind auf der Webseite css4you.de zu finden. Des Weiteren kann die Darstellung einer Webseite in verschiedenen Browsern sehr einfach auf Browsershots.org überprüft werden.

Ein weiteres Kriterium, dass durchaus im Auge behalten werden sollte, ist die Ladezeit einer Webseite – es ist bereits länger bekannt, dass die Ladezeit ein Kriterium für das Ranking einer Webseite ist und auch Google hat den Pagespeed bereits in die Google Webmaster Tools aufgenommen. In den Google Webmaster Richtlinien sagt Google selbst zum Pagespeed, dass schnelle Webseiten die Zufriedenheit der Nutzer und die Gesamtqualität des Internets steigern. Lange Ladezeiten sorgen allgemein dafür, dass Besucher schnell abspringen und selbst in der heutigen Zeit gibt es noch die einen oder anderen Internetnutzer, die aufgrund von ländlichen Begebenheiten nicht in der Lage sind, mit DSL-Geschwindigkeit das Internet zu erleben. Auch hier sollte eine regelmäßige Überprüfung der Webseiten-Geschwindigkeit erfolgen. Dazu eignen sich nachfolgende Tools aus dem Hause vn Google.

Unsere Empfehlung ist das Tool von GTMetrix, da dieses eine sehr angenehme und v.a. verständliche und strukturierte Übersicht bietet. Des Weiteren lassen sich schnell Optimierungspotentiale, wie z.B. die Optimierung von Bildgrößen/Dateigrößen, erkennen.

Weitere Artikel zum Thema Google Webmaster Richtlinien