Wir unterstützen transparente und partizipative Prozesse in der Gestaltung von Netzpolitik und die Etablierung von fünf grundlegenen Prinzipien:
Meinungsfreiheit: Zensiert das Internet nicht.
Zugang: Fördert den universellen Zugang zu schnellen und bezahlbaren Netzwerken.
Offenheit: Erhaltet das Internet als offenes Netzwerk, wo alle Menschen frei sind sich zu vernetzen, zu kommunizieren, zu schreiben, zu lesen, zu betrachten, zu sprechen, zuzuhören, zu lernen sowie schöpferisch und innovativ tätig zu sein.
Innovation: Beschützt die Freiheit ohne Erlaubnis innovativ und schöpferisch tätig zu sein. Neue Technologien dürfen nicht blockiert und Innovatoren nicht für die Handlungen ihrer Nutzer bestraft werden.
Privatsphäre: Beschützt die Privatsphäre und verteidigt das Recht jedes Einzelnen, über die Nutzung seiner Daten und Geräte zu bestimmen.”
Das Hypertext Transfer Protocol (HTTP, Hypertext-Übertragungsprotokoll) wird benutzt, um Webseiten aus dem World Wide Web in einen Webbrowser zu laden.
Das Protokoll HTTPS gewährleistet die Sicherheit auf einer Internetseite. HTTPS steht für HyperText Transfer Protocol Secure (sicheres Hypertext-Übertragungsprotokoll) und dient zur Verschlüsselung und zur Authentifizierung der Kommunikation zwischen Webserver und dem Browser.
Dieses Protokoll stellt das einzige Verschlüsselungsverfahren dar, das ohne gesonderte Softwareinstallation auf allen Internet-fähigen Computern unterstützt wird.
Die Daten im Web wären ohne Verschlüsselung für jeden, der Zugang zum entsprechenden Netz hat, als Klartext lesbar. Internetseiten benutzen dieses Protokoll, um zu verhindern, dass Dritte die Informationen manipulieren können, die zwischen der Internetseite und dem Benutzer ausgetauscht werden.
Einsatz von HTTPS
HTTPS wird oft auf Internetseiten benutzt, wo mit sensiblen Daten wie zum Beispiel Bankverbindungen in Online Shops gearbeitet wird.
Das grüne Vorhangschlosssymbol sowie das grüne HTTPS und die ausführlichen Informationen zeigen dem Benutzer schnell, ob die Seite sicher oder unsicher ist.
Falls man sich auf einer Internetseite mit HTTPS Verschlüsselung befindet und kein grünes Vorhangschlosssymbol, sondern ein rotes durchgestrichenes HTTPS in der Browser Adresszeile erscheint, dann ist der Browser davon überzeugt, dass diese Internetseite trotzdem unsicher ist.
Fazit
Wenn eine Internetseite sensible Daten von Ihnen verlangt, zum Beispiel die Bankverbindung in Onlineshops, dann schauen Sie unbedingt in die Adresszeile, ob die Internetseite mit HTTPS läuft und das grüne Vorhangschlosssymbol vorhanden ist.
Im Zusammenhang mit der Suchmaschinen Optimierung stößt man mit zunehmender Häufigkeit auf die Bezeichnungen mit der Vorsilbe Geo, dazu gehören Geo-Tags, Geo-Targeting und Geo-Tagging. Was diese Begriffe im Einzelnen in der SEO Optimierung bedeuten und was ihr Einsatz bewirken kann, wird hier näher erläutert:
Geo-Tags (Meta-Tags)
Anhand der Geo-Tags ist es möglich, dass Ihre Seite und damit Ihre Firma räumlich zu lokalisieren und somit direkt bei Google Earth, Google Maps und Local zu finden ist. Daher empfiehlt es sich, Geodaten in die Meta-Tags einfügen. Die Geo-Tags werden im Kopfbereich des Quellcodes einer Webseite eingetragen. Zu den Geo-Tags gehören die Stadt, das Land, die Region (z.B. Nordrhein-Westfalen), Längen und Breitengrad. Die geographischen Daten können auf http://tools.themenrelevant.de/ eingesehen werden.
Die Lokalisierung wird zunehmend wichtiger. Auch wenn Geo-Tags bisher keine direkte Auswirkung auf das Ranking einer Webseite haben, schaffen Sie sich damit einen erheblichen Vorteil: Ihre Kunden finden Sie schneller. Hilfreich ist es zudem, wenn Sie Ihre vollständige Adresse untereinander in Zusammenhang mit dem Begriff „Impressum“ oder „Kontakt“ angeben.
Geo-Tagging
Unter dem Begriff Geo-Tagging (Verortung) ist sozusagen die geographische Etikettierung, zumeist die Zuordnung eines Fotos oder eines Videos zu der geografischen Position, an der es aufgenommen wurde, gemeint. Um diese Zuordnung möglich zu machen, muss das Meta Element „geo“ mit der Koordinate versehen werden. So wird es möglich, über Google Maps und Google Earth die Bilder dem Ort zuzuordnen, an dem sie aufgenommen worden sind.
Geo-Targeting
Beim Geo-Targeting wird die geographische Lage anhand der IP Adresse der Suchanfrage zugeordnet. So können regionale Anfragen mit standortbezogenen Suchergebnissen und regionaler Werbung versehen werden.
Der rel= „alternate“ hreflang =“x“ Link verweist auf eine alternative Seite, die in einer anderen Sprach- oder Länderversion existiert, aber mit dem gleichen Inhalt gefüllt ist. Er unterstützt die Google Suche in verschieden Ländern und gibt anhand der URL die Website in der richtigen Sprache aus.
Durch die Verwendung von rel= alternate wird die Entstehung von Duplicate Content vermieden. Dieser entstand bisher vor allem bei Seiten mit identischem Inhalt wie zum Beispiel bei deutschsprachigen Seiten für die Schweiz, Österreich und Deutschland. Außerdem werden alle Backlinks auf die verschiedenen Domains der Länder addiert, sodass alle Domains gleichermaßen im Google Ranking davon profitieren. Ein weiterer Vorteil des rel=“alternate“hreflang=“x“ ist, dass die Erstellung individueller Texte für die Länder und Sprachen, die ohnehin meist eher für die Suchmaschinen als für die Leser verfasst wurden, nun weg fällt.
Die berühmteste (und meistens auch elaborierteste) Frisur des deutschsprachigen Internets hat letztens in Spiegel Online Kolumne einen raus gehauen:
In der Kolumne mit dem Titel „Zuckerberg verkauft Ihre Zukunft“ meint Sascha Lobo, „Facebook versilbere die Persönlichkeit seiner Nutzer“.
Bevor wir uns die Frage stellen, ob da etwas dran ist, möchte ich erst noch eine andere stellen:
Wird die Anzahl der Facebook-Freunde auch gleichzeitig sozialen Status in der „echten“ Welt repräsentieren?
Ich denke nein, weil jeder Mensch anders mit der digitalen Welt umgeht. Natürlich besteht die Gefahr, dass diejenigen mit den meisten Online-Freunden auch die „beliebtesten“ auf dem realen Schulhof sind.
Darin steckt aber auch eine Chance:
Diejenigen, die eher schüchtern, introvertiert oder weniger kommunikativ sind, können nun durch das profilisierte Abbild der echten Schul- oder Arbeits-Welt Schüler, Kollegen und Nachbarn ausmachen, die sie sonst nie entdeckt hätten.
Hier hilft der von Lobo aus Otl Aichers Buch „analog und digital“ zitierte „unaufhaltsame fortschritt der bürokratie und der erfolg der statistik.“ weiter.
In sozialen Netzwerken machen wir uns selbst messbar. Legen uns freiwillig in die Schubladen von Gruppen und „Gefällt mir“-Klicks. Wir machen uns zu perfekten Werbezielgruppen und Ansprechpartnern von Unternehmen, die uns ans Portemonnaie wollen.
So ist jedenfalls meine derzeitige Wahrnehmung der meisten Facebook-Kritiker (Facebook sei hier mal stellvertretend für alle Social Web Dienste genannt).
Ist Facebook deswegen zu misstrauen? Oft wird dabei ja eines vergessen:
Facebook ist nicht mit Vorsatz losgezogen und hat sich überlegt „Wir vermessen ab heute die soziale Welt und sammeln soviele persönliche Daten wie möglich“. Die Entwicklung zu dem was Facebook heute ist, war ein Prozess, der lange noch nicht abgeschlossen ist. Dabei gibt Facebook nicht nur Vorgaben, sondern reagiert auch auf das Verhalten, die Wünsche und Bedürfnisse seiner Nutzer. Zum einen müssen die fast 1 Milliarde Facebook-Mitglieder nach Mark Zuckerbergs Regeln spielen, zum anderen haben sie aber auch die Möglichkeit direkt (durch Proteste gegen bestimmte Änderungen oder Nichtverwendung) oder indirekt (durch die Nutzung von anderen Tools oder Netzwerken) Einfluss auf die Entwicklung nehmen.
Meine persönliche Erfahrung mit Social Networks war bisher durchweg positiv. Sogar gegenteilig zu meinen bisherigen Web-Erfahrungen. In den Früh-Zeiten des Internets (in meinem Fall Ende der 90er), als ich noch akribisch auf Anonymität achtete, habe ich deutlich mehr skurille oder unangenehme Erfahrungen gemacht als heutzutage. Und das obwohl ich heuten so ziemlich alles teile, verfacebooke und in Profildaten über mich veröffentliche, was nicht bei drei im Datenkeller verschwunden ist. Möglicherweise liegt hier auch der Hase im Social-Pfeffer begraben:
Durch möglichst umfassende Selbstinformationsüberflutung lässt sich eine wunderbare Mauer der Daten-Überforderung aufbauen, durch die aktuell weder soziale Algorithmen, geschweige denn menschliche Auffassungsgabe durchdringen kann, um ein sinnvolles Web-Psychogramm zu erstellen. Bewusst habe ich mir diese Strategie nicht ausgedacht, sie hat sich einfach aus meinem Nutzungsverhalten und meiner Neugier und Experimentierfreude gegenüber neuen Webdiensten entwickelt.
Trotz dieser unbewusst erzeugten Tarnkappe aus Daten sind diejenigen, die nach passenden Fähigkeiten, Interessen oder Anknüpfungspunkten bei mir suchten, bisher immer in meinen absichtlich und gezielt verbreiteten Informationen, die ich als Signale im Rauschen platziere, fündig geworden. Ganz subjektiv kann ich daher deutlich mehr Chancen als Risiken erkennen.
Schauen wir mal, wie lange das noch so bleibt. So lange noch Projekte wie das von Lobo erwähnte Quantified Self da sind, um im Falle eines Falles einfach neue und noch mehr Daten nach zu legen, nehme ich den Wettbewerb mit Algorihtmen gerne auf 😉
Aber was ist nun mit der Frage nach der Versilberung der Nutzerdaten durch Facebook?
Darauf möchte ich mit einem Vorschlag, der schon einen Schritt weiter sein könnte, antworten:
Möglicherweise werden wir nun nach Facebooks Börsengang bald schon unsere persönlichen Daten selbst vermarkten und verkaufen können. Vergleichbar mit Affiliate-Programmen oder Marktplätzen für virtuelle Güter wie bsw. iTunes. Ich sammle Daten über mich und Facebook bietet mir die Plattform, diese Daten an interessierte Abnehmer zu verkauen. Gegen Provision versteht sich. Marktforschung mal ganz anders. Momentan bezahlen wir mit den Informationen über unser Leben solche Dienste wie Facebook. Moderner Tauschhandel.
Ich gebe der Plattform meine Daten in der von ihr vorgegebenen Form, dafür gibt mir die Plattform die realistischste Soap-Opera der Welt, Zugang zu Informationen über Stars und Marken, von denen ich Fan bin und Kontakt zu alten Freundinnen und Freunden, die vor 5 Jahren einfach nicht mehr auffindbar gewesen wären. Fairer Deal soweit.
Mal sehen, wann aus dem „sozialen“ Wert ein finanzieller wird. Wenn wir unsere Datenbasis und die zugehörigen Kontakte direkt anbieten können. Nur eine Frage der Zeit, bis ein entsprechender Web-Service die Möglichkeit dazu bietet.
Denkbar wäre es. Nehmen Sie nur die zahlreichen Autoren, die heutzutage nicht mehr auf Verlage angewiesen sind, sondern ihre E-Books direkt über Amazon auf die Kindles ihrer Leser verkaufen können.
Warum sollte es da nicht bald auch einen Marktplatz für soziale Kontakte geben?
Ach, und wenn Sie sich fragen, wer dieser Otl Aicher war: Er hat als Designer unter anderem die Erscheinungsbilder von Unternehmen wie der Lufthansa, dem ZDF, der Sparkasse und vielen mehr geprägt.
Letzte Woche habe ich ein langes Gespräch mit unserem Geschäftsführer Michael Steinfort geführt. Eingangs wollte ich nur wissen, warum und welches CMS System für Unternehmen Sinn macht. Gelernt habe ich dabei aber viel, viel mehr.
In den nächsten Wochen werde ich hier einige der Erkenntnisse aus dem Gespräch berichten und gleich mal mit einer Frage starten, die Michael aufgeworfen hat:
Michael Steinfort sagt: „Viele Webseiten sind dumm.“ Und damit meint er:
“Leider ist es so, dass wir mit vielen Projekten, die wir momentan umsetzen, noch viel zufriedener sein könnten. Denn unsere Kunden schöpfen die Möglichkeiten, die technologisch verfügbar sind, meist noch nicht aus. comspace ist ein Technologie-Unternehmen. Wir arbeiten oft mit führenden Lead-Agenturen oder internen Kreativ-Abteilungen unserer Kunden zusammen. Dort ist zuerst unsere Expertise und Erfahrung gefragt, die Agenturen und internen Abteilungen unserer Kunden über die technischen Möglichkeiten aktueller CMS Software zu informieren. Wir zeigen den Designern und Konzeptern, was technisch machbar ist, so dass sie die State-of-the-Art Funktionen in ihr Konzept mit einfließen lassen können. Das ist unbedingt notwendig, da die meisten Konzepter nur die klassischen Funktionen eines Redaktionssystems kennen (Content erstellen und publizieren). Heutige marktführende CMS Systeme können viel mehr.“
Wenn wir die Kreativ-Agenturen als Architekten sehen, die eine Website als Haus planen, designen und strukturieren, sind wir als comspace die Handwerker, die diese Pläne realisieren. Und wie ein Handwerker am Bau, haben wir eine klare Meinung zu dem, was Grafiker und Konzepter uns liefern: Das ist häufig designfokussiert und hat selten Konzeptansätze für eine zielgruppenspezifische Auslieferung von Inhalten.
Viele Webseiten sind wenig clever, weil sie ihren Besuchern nicht die gesuchten (relevanten) Inhalte zeigen, obwohl die technischen Voraussetzungen gegeben sind. Anstelle dessen wird möglichst viel an Informationen angeboten, in der Hoffnung, relevanter Inhalt möge doch dabei sein.”
Ein Beispiel dafür wäre schön.
“Klar. Fangen wir mit einem Beispiel aus dem alltäglichen Leben an: Wenn ich in ein Bekleidungs-Geschäft gehe, mich beraten lassen möchte und die Verkäuferin sagt:
‘Guten Tag und willkommen, ich sehe, Sie tragen Größe 102, ein anthrazit-farbener Anzug, darf ich Ihnen einen schwarzen oder blauen Anzug zeigen? Ich hab hier einen Schnapper aus einem tollen Stoff, Super120!’
Dann fühle ich mich gut beraten. Webseiten in Deutschland funktionieren leider nicht so. Wenn ich auf eine Unternehmens-Webseite in Deutschland surfe, drehen sich die ‘virtuellen Verkäufer’ zur Wand.
Als anschauliches Beispiel betrachten wir die Volkswagen Webseite für Endkunden (B2C).
(Volkswagen soll nur als exemplarisches Beispiel dienen. Wir fahren zu Haus die Marke und haben zu Volkswagen aktuell keine Geschäftsbeziehung.)
Da wird seit einigen Monaten der Kleinwagen Up! angeteasert, beworben und mit viel Geld durch Design-Agenturen möglichst attraktiv dargestellt. Wir surfen also auf Volkswagen.com und werden auf Volkswagen.de umgeleitet. Das ist schonmal super. Doch trotz des ganzen Zaubers (teurer, toller Film) rund um den Up! klicken wir zielstrebig auf den Multivan, also den Bus. Und dann sehen wir uns noch den Caddy Kastenwagen an. Damit müsste die Seite gelernt haben: ‘Hmm, dieser Kunde interessiert sich nicht für den Up! sondern für die etwas größeren Nutzfahrzeuge. Es handelt sich mit hoher Wahrscheinlichkeit um einen Kunden mit großer Familie, oder einen gewerblichen Kunden wie z.B. einen Handwerker .’
Das sollte die Webseite nun wissen. Wenn ich nun aber NOCHMAL auf Volkswagen.de bzw. den Home-Button (Logo) gehe, dann zeigt mir die Webseite wieder den Up!.
Webseiten als gute Verkäufer und Berater
Zurück in unserem Alltagsbeispiel hieße das: Ich habe der Verkäuferin angedeutet, dass ich einen blauen Anzug Größe 102 suche und die Verkäuferin sagt: ‘Kommen Sie doch bitte mit in unsere Jeans-Abteilung, ich habe auch etwas in Größe 42 extraweit. Und danach bittet Sie mich, ihr durch den ganzen Laden zu folgen (viel Content).’
So konzeptlos funktionieren heute Websites von deutschen weltmarktführerenden Unternehmen und Konzernen, selbst wenn sie mit führenden CMS-Systemen umgesetzt wurden. Die Schwäche in den Konzepten und die später geringe Akzeptanz in den Zielgruppen ist für uns teilweise sehr frustrierend.
Denn:
Redaktionssysteme haben sich in den letzten 10 Jahren immens weiterentwickelt und können heute deutlich mehr als einfach nur Content erfassen, erzeugen und anzeigen. Und Design ist wichtig, aber um im o.g. Beispiel zu bleiben, rettet ein hübsches Äußeres nicht die Inkompetenz der Verkäuferin im Kleidungsfachgeschäft.
Das Content Management System SITECORE
Sitecore – eine Lösung aus unserem Portfolio – liefert z.B. ein System, das besonders für marketingaffine Unternehmen interessant ist und aktives Verkaufen unterstützt.
Um wieder zu unserem Volkswagen-Beispiel zurück zu gehen: Idealerweise hat die Seite jetzt nicht nur erkannt, dass ich mich für ein großes und praktisches Auto interessiere, sondern zeigt mir auch gleich noch eine spezielle Bilderwelt an: Eine Familie mit vielen Kindern vor dem Auto oder ein Handwerker, der lange Gegenstände ins Auto lädt. Dann würde ich mich als Kunde schon ein ganzes Stück besser verstanden fühlen.
Technisch ist diese Art der Personalisierung ein alter Hut. Auf klassischen E-Commerce Seiten wie Amazon oder eBay sind solche Funktionen Nutzern seit vielen Jahren bekannt. Bestes Beispiel: “Kunden, die dieses Produkt gekauft haben, haben sich auch für jene Produkte interessiert”. Doch auf Unternehmens-Seiten, die mit klassischen Content Management Systemen ohne Personalisierung gebaut werden, fehlen diese Funktionalitäten meist noch. Technisch sind diese verfügbar, auch ohne Budget in der Größe von Amazon.
Solche Funktionen bietet Sitecore im Standard. Bestandteil des Produktes ist ein Digital Marketing System, das u.a. auf das Nutzerverhalten in Echtzeit reagiert und den redaktionellen Content für den individuellen Betrachter der Seite anpasst.”
Wie funktionieren personalisierte CMS genau?
So weit, so gut. Aber wie funktioniert das genau und wie kann ein Unternehmen diese Technologie in seine Webseite einbauen?
Michael blickt dazu kurz in die Vergangenheit:
“Wenn man Konzepte für Webseiten erstellt, geht es meistens so los:
User-Experience-Designer und Informations-Architekten überlegen sich: Wie muss die Seite aufgebaut und strukturiert werden, damit der User sich möglichst leicht zurecht findet und idealerweise relevanten Content besucht? Als Orientierung schafft man sich hierfür Zielgruppen (z.B. Familenvater, 30-38, Einkommen 3700,-) oder besser noch Personas (detaillierte Definition einer beispielhaften Zielperson: Max Mustermann, 36, 3 Kinder, fährt gerne mit der Familie im Auto in den Urlaub, Heimwerker).
Der User-Experience-Designer stellt sich nun die Frage: Welcher Content ist denn nun für Zielgruppen und Personas relevant? Entsprechende Wireframes werden dann im Konzept entwickelt und durch Designer „angehübscht“. Eine feste Struktur der Seite, die Navigation, die Bühne, Teaserelemente, Tabbings, Karussels und die Suche sind wesentliche Bestandteile der klassischen Konzeption, um relevanten Content anzubieten. Es ist jedoch eine feste Struktur für alle Benutzergruppen.
Die festen Strukturen lassen sich in Sitecore aufbrechen indem jedem Schnipsel Content die Information mitgegeben wird, wie relevant dieser Content für die vordefinierten Zielgruppen ist (Meta-Daten). Die Seite wird später dynamisch, d.h. unterschiedliche Zielgruppen sehen unterschiedlichen Content.
In unserem Beispiel Volkswagen erhalten die Inhalte zum Up! eine sehr niedrige Relevanz für Max Mustermann (die Zielgruppe mit den drei Kindern). Multivan und Caddy haben eine deutlich höhere Relevanz. Im Detail werden Inhalte aus dem Umfeld, Familie, Freizeit, Urlaub stärker hervorgehoben, als die gewerblichen Einsatzgebiete.
Was passiert nun, wenn Max Mustermann auf die Webseite surft?
Zunächst etwas ganz ähnliches wie bsw. beim Online-Banking. Es wird eine Session für den User aufgemacht und ein Cookie im Besucher-Browser angelegt, in das all das reingeschrieben wird, was helfen kann, dem Besucher die für ihn interessanten Inhalte anzuzeigen. Das geschieht ohne Anmeldung des Kunden, d.h. ohne Login (implizite Personalisierung).
Wenn der Kunde beim nächsten Mal wieder auf die Seite surft, bekommt er relevante Inhalte auf der Website angezeigt und muss sich nicht erst wieder durch die gesamte Seite hindurch klicken.
Beim Besucher der Webseite stellt sich dadurch folgender Effekt ein: “OH! Hier werde ich verstanden, hier möchte ich gerne kaufen. Oder zumindest: Hier bewege ich mich noch weiter auf der Seite und schaue, was mir noch weiter angeboten wird”.
Im Beispiel Kleidungsfachgeschäft ist das der prüfende Blick der Verkäuferin auf mein Äußeres beim Erstbesuch des Geschäftes, ohne dass üblicherweise mein Kundenname erfragt wird.
Wieviel Personalisierung ist möglich und wie setzt man das im Projekt um?
Natürlich könnte man hingehen und den gesamten Content für Personalisierung auslegen. Jedem Informations-Schnipsel Meta-Daten zuordnen, über die die Relevanz für die unterschiedlichen Zielgruppen deutlich wird usw. Die gesamte Webseite wird dynamisch für jeden Besucher anders angezeigt. Das erzeugt jedoch technisch und organisatorisch zu viel Komplexität und schränkt die Einfachheit der Benutzung ein.
comspace empfiehlt ein schrittweises Vorgehen.
Beispiel Jobsuche: Wenn ein Webseitenbesucher sich gezielt auf den Job-Angeboten bewegt, wird ihm im Header der Seite kein Produkt-Teaser mehr angezeigt, sondern eine Grafik, die zur Kontaktaufnahme mit der Personalabteilung einlädt. Denn augenscheinlich handelt es sich ja um jemanden, der für das Unternehmen arbeiten möchte und nichts kaufen wird (Zielgruppe Berwerber, definiert im Konzept über eine Perona).
Eine solche Anpassung ist meist innerhalb kurzer Zeit zu realisieren und man kann erste Erfahrungen sammeln, wie die Besucher der Seite auf eine solche Personalisierung reagieren. Begleitend notwendig ist der Einsatz eines Analytics-Tools (teilweise in aktuellen CMS-Lösungen integriert), um mehr über seine Besucher und den Erfolg der Personalisierung zu lernen und Schritt für Schritt weitere Zielgruppen gezielt zu bedienen.
In weiteren Schritten lässt sich Marketing Automation aufbauen. Bestimmte Handlungen des Besuchers auf der Webseite führen zu festgelegten Reaktionen im Backend der Webseite, die dann ganz gezielte Marketing-Tools auslöst, wie z.B. einen Newsletter, Prospektmaterial oder eine Kontaktaufnahme anzubieten. Sinnvolle Ergänzung ist eine CRM Anbindung, durch die die Informationen, die ein bereits bekannter Besucher der Webseite hinterlassen hat, direkt in das Customer Relationship Management einfließen und weiteren Vertriebskanälen zur Verfügung stehen.
Zurück zu unserem Volkswagen-Beispiel:
Der Kunde hat sich beim zweiten Besuch auf der Webseite registriert und einen Multivan konfiguriert. Farbe, Felgen, Ausstattung…
Nun kommt der Kunde zum dritten Mal auf die Seite. Die Bilderwelt wird direkt auf das Aussehen des vom Kunden konfigurierten Fahrzeugs angepasst. Der Kunde erkennt ‘sein’ Fahrzeug wieder. Nun werden auf der Webseite Informationen angezeigt, die zum Abschluss des Geschäftes führen (exemplarische Schritte, wir sind keine Strategieberatung im Umfeld Automotive):
Probefahrt vereinbaren
Finanzierung
Versicherung
Zubehör
Und selbst nach einem Kauf hört die Funktionaltät nicht auf:
Wird ein Kunde, der bereits gekauft hat, auf der Seite wieder erkannt, können gezielt Inhalte angezeigt werden, die Zusatzkäufe generieren sollen oder ergänzende Dienstleistungen anbieten. Ebenso können aber auch Service-Leistungen angeboten werden, wie häufige Fragen zum gekauften Produkt, Neuigkeiten, Bedienungsanleitungen etc.
Ein einfaches, preisgekröntes Beispiel für Personalisierung aus der comspace Praxis:
Unser Kunde Dornbracht präsentiert auf der Webseite (basierend auf Sitecore), unter anderem eine horizontale HighEnd Dusche. Unter den Bildern auf der Produktseite ist u.a. auch eines dabei, auf dem eine unbekleidete Dame in dieser Dusche angedeutet ist.
Es handelt es sich um ein Premium-Produkt, das auch im arabischen Markt angeboten wird. Da eine solche Abbildung dort problematisch ist, erkennt die Webseite anhand der GEO-IP woher der Besucher kommt und zeigt dementsprechend ein anderes Bild an. Das ist ein sehr einfaches Beispiel für Personalisierung von Content für eine Zielgruppe, basierend auf Lokalisierungsdaten.
Ein anderes Beispiel für die Personalabteilung
Die meisten Unternehmen haben eigene IP-Nummernkreise. Also jeder, der aus dem Adressbereich eines Unternehmens im Web surft, ist als Mitarbeiter dieses Unternehmens im Web erkennbar.
Mitbewerber auf der eigenen Seite werden nicht gern gesehen. Dabei vergessen wird jedoch, dass es sich um hochqualifizierte potenzielle Bewerber handelt.
CMS-Systemen kann man beibringen, anhand der IP-Adressen zu erkennen, ob ein Mitarbeiter eines Mitbewerbers meine Webseite besucht. Wie wäre es denn zum Beispiel, wenn Mitarbeiter von Wettbewerbern zu allererst Stellenangebote zu sehen bekommen? Dies ist keine hypothetische Diskussion, sondern wird aufgrund des bestehenden Fachkräftemangels schon von ersten Unternehmen umgesetzt.
Warum brachten wir eigentlich die ganze Zeit das Beispiel Volkswagen?
Wie oben angeführt nur als exemplarisches Beispiel aufgrund der Bekanntheit der Marke und für die Nachvollziehbarkeit des Beispiels.
Volkswagen benutzt das CMS Web Experience Management von Adobe, auf dessen Basis wir dieses Jahr ein erstes Projekt realisiert haben. Das System bietet ebenfalls viele der Personalisierungs-Funktionen, die ich im Zusammenhang mit Sitecore erklärt habe.
Sicherlich plant Volkswagen in nächsten Schritten, diese angedeuteten Konzepte in der Online Welt umzusetzen.
Das o.g. Szenario funktioniert nicht nur im Umfeld B2C, sondern ebenfalls in mehrstufigen Märkten B2B.
Mitnehmen
CMS-Software kann heute mehr als Content erstellen
Konzepte müssen Lösungen zur zielgruppenspezifischen Auslieferung von Content liefern
Design rettet keine unrelevanten Inhalte
Konzepter müssen aktuelle CMS Systeme kennen, vor allem das System, auf dem später die Implementierung stattfinden soll
comspace ist Sparringspartner mit technologischem Fokus für Endkunden und Agenturen
Ein Mann sitzt in der Lobby eines Luxushotels. Es ist 3 Uhr nachts und nur hier unten hat er WLAN, um noch einmal schnell seine E-Mails zu checken. Ein junges Pärchen kommt durch die Drehtür des Hotels von einer Strandparty, sie versucht gar nicht erst zu flüstern: „Schau Dir den armen Knilch an, selbst im Urlaub kann er bis tief in die Nacht nicht aufhören zu arbeiten.“
Der Mann mit dem Laptop auf den Knien denkt bei sich „Wer ist denn der arme Knilch – der, der seinen Job liebt und jederzeit von überall aus arbeiten kann oder diejenigen, die sich in 2 Wochen im Jahr von den anderen 50 Wochen Arbeit, die sie nicht gerne machen, erholen müssen?“
Diese selbsterlebte Geschichte erzählt Marketingexperte und Bestseller-Autor Seth Godin in einem seiner Bücher.
Warum ich Ihnen davon erzähle?
Weil diese kleine Anekdote sich vor einigen Jahren zutrug und damals noch eine sehr kleine Personengruppe betraf. Je größer die Datenwolke aber wird, desto größer wird auch die Auswirkung auf all die Berufsgruppen, die ich hier mal mit dem neudeutschen Begriff „Wissensarbeiter“ bezeichnen möchte.
Dazu zähle ich allerdings nicht nur Programmierer und hippe Freelancer, deren Büro immer gerade dort ist, wo sie ihr Macbook und einen Cafè Latte abstellen können, sondern alle Menschen, die nach der wortwörtlichen Bedeutung des Begriffes mit Wissen arbeiten.
Außendienstler arbeiten mit Wissen. Projektmanager arbeiten mit Wissen. Callcenter-Mitarbeiter arbeiten mit Wissen. Kundenservice-Mitarbeiter arbeiten mit Wissen usw. usf.
Möglicherweise sollten wir den Begriff Wissensarbeiter etwas erweitern und Wissens- und Kommunikations-Arbeiter sagen, denn Wissen, das nicht kommuniziert und weiter entwickelt wird, ist relativ wertlos.
All diese Wissens- und Kommunikations-Arbeiter waren bis vor wenigen Jahren noch an ihren Arbeitsplatz gebunden. Denn dort standen die Aktenordner, das Faxgerät, das Telefon mit der persönlichen Durchwahl, der Schreibtisch-PC auf dessen Festplatte alle wichtigen Dokumente abgelegt waren. Dort war auch die Stempeluhr, die betätigt werden musste, bevor man überhaupt an diese Geräte heran kam.
Wie viele dieser ortsgebundenen Artefakte haben Sie noch an Ihrem Arbeitsplatz?
Oder sind Sie schon mit Smartphone, Laptop und flexiblen Arbeitszeiten unterwegs? Dann sind Sie möglicherweise auch gar nicht mehr so weit von der Cloud entfernt.
Wie wird unsere Arbeitsweise zukünftig aussehen?
Die Zukunft der Arbeit ist – zumindest teilweise – unabhängig von Zeit und Ort. Wenn Sie von überall her auf Ihre Arbeit zugreifen könnten: Würde das Ihre Art zu arbeiten dann nicht verändern? Und hiermit meine ich nicht nur ein paar E-Mails und Word-Dateien. Sie können alle relevanten Arbeitsabläufe von überall her erledigen. Idealerweise sogar zu jeder Zeit. Ihnen fällt noch eine Ergänzung zum Konzept ein? Statt dass Sie sich eine Notiz schreiben müssen, können Sie die Änderung direkt und für alle anderen Beteiligten sofort sichtbar vornehmen.
Stellen Sie sich vor, ein Kunde ruft Sie auf Ihrer Büronummer an und wird direkt an Ihr Smartphone weiter geleitet. Der Kunde erteilt Ihnen einen weiteren Auftrag. Sie machen eine Gesprächsnotiz im mobilen CRM-System über das Gespräch mit dem Kunden. Danach werfen Sie einen Blick in das ebenfalls mobile ERP-System und kontrollieren, ob ausreichend Kapazitäten für den Auftrag vorhanden sind. Ebenso gut können Sie hier mobil in Geschäftsprozesse eingreifen. Meetingprotokolle und Lastenhefte liegen ebenfalls in der Cloud und somit in Ihrem Zugriff – selbstverständlich in einem ordnungsgemäß geschützten Bereich.
Selbst unsere Kernkompetenz bei comspace – Content Management Systeme – können als Cloud-Lösung von überall her bedient werden.
Das Konzept des Cloud Computing ermöglicht dabei unabhänigig von Hard- und Software des Endnutzers einfache Zugriffsmöglichkeiten über Browser und Apps. Anwendungen, Daten und Dokumente liegen nicht mehr nur auf einem spezifischen Rechner sondern redundant verteilt auf mehreren Maschinen, die gemeinsam eben die Wolke darstellen. Diese Wolke kann vollständig durch das firmeneigene Rechenzentrum vorgehalten werden, von Dienstleistern zur Verfügung gestellt werden oder eine Mischung aus beidem darstellen.
Somit macht uns die Daten-Wolke ein ganzes Stück unabhängiger und flexibler darin, wie wir Daten, Programme und Computer nutzen. Zum Arbeiten wie auch privat.
So sehr ich persönlich diese flexible und unabhängige Art zu arbeiten genauso wie Seth Godin schätzen gelernt habe: Wenn es um den Blick aus dem Fenster geht muss ich Ihnen ehrlich gestehen:
Ein wolkenloser Himmel ist mir immer noch am liebsten 😉
Eine interessante Social Media Studie bei futurebiz hat herausgefunden, dass tagsüber mehr getwittert und abends mehr Facebook genutzt wird. Nach 19 Uhr sind die Interaktionen auf Facebook am häufigsten.
Heisst das nun, dass Menschen bei der Arbeit zwar heimlich twittern können, aber Facebook gesperrt ist? Oder könnte es sein, dass diejenigen, die Social Media auch berufsmäßig nutzen oder zumindest in Unternehmen arbeiten, die dem Social Web aufgeschlossener gegenüber stehen, eben verstärkt twittern und ihren Facebook-Account eben nur privat nutzen? Vielleicht verursacht Facebook mit den ganzen Fotos und Videos in den Timelines auch derart viel Traffic, dass der kostensensible Mobilfunknutzer lieber das sparsamere Twitter während der Arbeitszeit nutzt. Auf dem privaten Handy natürlich 😉
Hauptgrund dafür wird in den Datenschutzskandalen der letzten Monate gesehen. Auch wenn sich bei DuckDuckGo eine Verdreifachung der Suchanfragen entwickelt hat, sind diese 1,5 Millionen am Tag im Vergleich zu Google doch eher gering, Dort kann man nach vorsichtigen Schätzungen mit mindestens dem tausendfachen – also 1,5 Milliarden Suchanfragen rechnen. In Deutschland.
Trotzdem sind Suchmaschinen mit Alleinstellungsmerkmal oder für bestimmte Anwendungszwecke durchaus interessant. In der nachfolgenden Suchmaschinenliste sind ein paar interessante Vertreter.
Wolfram Alpha beispielsweise kann komplexe Fragen lösen und liefert semantisch aufbereitete Suchergebnisse.
Volunia ist vor wenigen Wochen gestartet und soll bei der Gewichtung der Suchergebnisse stark auf Nutzer-Kommentare und Interaktionen auf den durchsuchten Seiten setzen
yummly ist eine Suchmaschine für Rezepte und alles, was mit Essen zu tun hat
DuckDuckGo stellt ZeroClick Suchergebnisse zur Verfügung, die bereits Informationen auf die Suchanfrage bieten sollen, ohne die Suchergebnisse anklicken zu müssen. Dazu speichert die Suchmaschine keine Nutzerdaten
Das waren natürlich nur ein paar Beispiele für alternative Suchmaschinen, die für spezielle Anwendungen oder ein schnelles Ausprobieren mal ganz interessant sind. Echte Konkurrenz für Google ist noch nicht zu erkennen.
Auch was Suchmaschinenoptimierung angeht, kann man diese Tools zwar noch vernachlässigen. Nichts desto trotz sollte man hin und wieder prüfen, ob und wo die eigenen Seiten abseits von Google gesucht werden. Auch unter 1,5 Millionen Suchanfragen könnten ja einige potentielle Kunden dabei sein.
Euro-Paletten haben ja durchaus ihren Reiz. Was mostarchitecture aus Holland hier mit den Transportlogistik-Möbeln aber so angestellt haben ist schon verdammt lecker:
In diesem Portfolio-PDF der Architekten finden sich noch mehr Bilder der Einrichtung. Seit ich das Design aus Tischen, Sofas und Treppen gesehen habe, suche ich immer mal wieder nach Möbeln aus Europaletten und heute ist gleich ein ganzer Fundus aufgetaucht.
Die Sammlung zeigt auch gleich, wozu Pinterest eigentlich gut ist:
Qualität ist nicht erst seit den vergangenen Google Updates namens Panda und Pinguin ein Diskussionsthema, sondern schon länger ein relativ wichtiger Faktor in Bezug auf den Aufbau und die Erstellung von Webseiten und Webinhalten.
Dies bezüglich gibt es in den Google Webmaster Richtlinien einen gesonderten Bereich der sich mit dem Thema „Qualitätsrichtlinien“ beschäftigt. Primär wird den Richtlinien auf die bekanntesten manipulativen Verfahren eingegangen, die natürlich für den erfahrenden Webentwickler ein Begriff sein dürften.
Null Toleranz bei der Anwendung manipulativer Verfahren
Seit Bestehen der Suchmaschinen versucht der Webseitenbesitzer seine Webseite so erfolgreich wie möglich zu gestalten. Bei der Vielzahl an Internetseiten und potentiellen Konkurrenten ist es vor allem in der heutigen Zeit nicht unbedingt einfach, sich auf den vorderen Plätzen unter den relevanten Keywords zu positionieren.
So gibt es früher wie heute findige Webseitenbetreiber die versuchen durch gezielte Manipulation die Suchmaschinen und deren Algorithmen auszutricksen. Genau aus diesen Gründen haben Suchmaschinenbetreiber eigene Qualitätsrichtlinien entwickelt, die Webseitenbetreiber darüber aufklären, was erlaubt ist und was nicht.
In vielen Fällen glauben die Webseitenbetreiber allerdings, solange ein Verfahren nicht in den Qualitätsrichtlinien der Webmaster Richtlinien auftaucht, wird das Verfahren seitens der Suchmaschinenbetreiber wie Google gebilligt. Doch dies ist eigentlich nicht der Fall – manipulative Verfahren werden von Suchmaschinen nicht toleriert. Es kann aber durchaus sein, dass bis dato noch kein Algorithmus Update existiert, dass diese Verfahren in die Schranken weist.
Bei Missachtung der Qualitätsrichtlinien werden die Webseitenbetreiber durch verschiedene Maßnahmen von der Abwertung im Ranking bis hin zur Deindexierung einer Webseite bestraft.
Webseiten sind für die Nutzer da
Häufig vergessen die Webseitenbetreiber, dass eine Webseite nicht für die Suchmaschinen erstellt wird, sondern für den potentiellen Besucher bzw. Kunden, der auf seinem Streifzug durch das World Wide Web, die eine Webseite entdeckt.
Um unsinnigen und aufwendigen Manipulationsversuchen entgegen zu wirken, gibt Google dem Webseitenbetreiber den Ratschlag seine Zeit in die Optimierung und Verbesserung seiner Webseite und Webinhalte zu investieren. Dadurch wird dem Besucher der Website ein wesentlich größerer Dienst erwiesen und gleichzeitig wird zur langfristigen Verbesserung von Suchergebnissen und Suchqualität beigetragen. Die Webseiten, die die Qualitätsrichtlinien von Google einhalten, werden durch ein besseres Ranking belohnt.
Wie du mir, so ich dir – der Linktausch
Google empfiehlt nicht an Linktauschprogrammen teil zu nehmen oder Linkkauf zu betreiben, um das Ranking oder den PageRank zu verbessern. Partnerseiten zu erstellen, die alleine dem Zweck der Websitevernetzung dienen ist ein Verstoß gegen die Google Webmaster Richtlinien, der sich negativ auf das Ranking Ihrer Website in den Suchergebnissen auswirkt, gleiches gilt für Links zu Webspammern oder „schlechte Nachbarschaft“.
Grundprinzipen der Qualitätsrichtlinien
In den Google Webmaster Richtlinien werden einige Grundprinzipien seitens Google aufgelistet – wobei diese in den meisten Fällen dem Webmaster eigentlich auch bekannt sein sollten. Dazu gehört das Cloaking eine Modeerscheinung, bei der Suchmaschinen andere Inhalte angezeigt wurden, als dem Besucher – damit Webseiten sich in den Suchergebnissen besser positionieren.
Seitens Google sind Verborgene Texte oder verborgene Links, automatischen Suchanfragen an Google, Seiten mit irrelevanten Suchbegriffen, doppelte Seiten, Sub-Domains und Duplicate Content, Seiten mit Phishingversuchen, Viren, Trojanern usw. nicht erlaubt. Zudem wird von Brückenseiten und Partnerprogrammen, die keinen Wertgewinn darstellen abgeraten. Sollte eine Seite nicht diesen Richtlinien entsprechen, bietet Google die Möglichkeit an, nach der Korrektur einen Antrag auf die erneute Überprüfung der Website zu stellen.
Weitere Artikel zum Thema Google Webmaster Richtlinien