Eine schöne Infografik haben das Fortune Magazin und Geotel Communications da auf die Beine gestellt:
Die tatsächlichen, physikalischen Leitungen des Webs und wie sie um die Welt laufen.
Letztendlich besteht das Internet ja genau daraus: Zahllose Rechner, die durch noch zahllosere Kilometern an Kabeln verbunden sind, miteinander kommunizieren und uns in Millisekunden Informationen einmal rund um die Welt schicken.
Fortune Autor Andrew Blum und der Graphik-Designer Nicolas Rapp zeigen in ihrem Artikel „Mapping the Internet“ (der witzigerweise bisher nicht online, sondern nur als Print- und Tablet-Version erschienen ist), was die Informations-Welt im großen und kleineren zusammen hält:
In der Weltkarte erkennen wir aus der Perspektive des Nordpols, welche Leitungen einzelne Städte verbinden:
Ein Schaubild von New York verdeutlicht, wo die Musik spielt: In Lower Manhattan. Dabei wurde darauf geachtet, den Detailgrad unscharf zu halten, um keine potenziellen Anschlagsziele zu verraten.
Auch wenn eigentlich – wie Mashable in seinem Artikel zur Karte des Webs schreibt – Fußgängern in NYC die Informationen zur Verfügung stehen: Auf den dortigen Gullideckeln sind die Laufrichtungen der Kabel festgehalten, damit bei Bauarbeiten nicht versehentlich Verbindungen zerstört werden.
Interessant zu sehen, wie einfach dieses komplexe Gewirr aussieht, wenn man nur weit genug heraus zoomt 🙂
Das Hypertext Transfer Protocol (HTTP, Hypertext-Übertragungsprotokoll) wird benutzt, um Webseiten aus dem World Wide Web in einen Webbrowser zu laden.
Das Protokoll HTTPS gewährleistet die Sicherheit auf einer Internetseite. HTTPS steht für HyperText Transfer Protocol Secure (sicheres Hypertext-Übertragungsprotokoll) und dient zur Verschlüsselung und zur Authentifizierung der Kommunikation zwischen Webserver und dem Browser.
Dieses Protokoll stellt das einzige Verschlüsselungsverfahren dar, das ohne gesonderte Softwareinstallation auf allen Internet-fähigen Computern unterstützt wird.
Die Daten im Web wären ohne Verschlüsselung für jeden, der Zugang zum entsprechenden Netz hat, als Klartext lesbar. Internetseiten benutzen dieses Protokoll, um zu verhindern, dass Dritte die Informationen manipulieren können, die zwischen der Internetseite und dem Benutzer ausgetauscht werden.
Einsatz von HTTPS
HTTPS wird oft auf Internetseiten benutzt, wo mit sensiblen Daten wie zum Beispiel Bankverbindungen in Online Shops gearbeitet wird.
Das grüne Vorhangschlosssymbol sowie das grüne HTTPS und die ausführlichen Informationen zeigen dem Benutzer schnell, ob die Seite sicher oder unsicher ist.
Falls man sich auf einer Internetseite mit HTTPS Verschlüsselung befindet und kein grünes Vorhangschlosssymbol, sondern ein rotes durchgestrichenes HTTPS in der Browser Adresszeile erscheint, dann ist der Browser davon überzeugt, dass diese Internetseite trotzdem unsicher ist.
Fazit
Wenn eine Internetseite sensible Daten von Ihnen verlangt, zum Beispiel die Bankverbindung in Onlineshops, dann schauen Sie unbedingt in die Adresszeile, ob die Internetseite mit HTTPS läuft und das grüne Vorhangschlosssymbol vorhanden ist.
Im Zusammenhang mit der Suchmaschinen Optimierung stößt man mit zunehmender Häufigkeit auf die Bezeichnungen mit der Vorsilbe Geo, dazu gehören Geo-Tags, Geo-Targeting und Geo-Tagging. Was diese Begriffe im Einzelnen in der SEO Optimierung bedeuten und was ihr Einsatz bewirken kann, wird hier näher erläutert:
Geo-Tags (Meta-Tags)
Anhand der Geo-Tags ist es möglich, dass Ihre Seite und damit Ihre Firma räumlich zu lokalisieren und somit direkt bei Google Earth, Google Maps und Local zu finden ist. Daher empfiehlt es sich, Geodaten in die Meta-Tags einfügen. Die Geo-Tags werden im Kopfbereich des Quellcodes einer Webseite eingetragen. Zu den Geo-Tags gehören die Stadt, das Land, die Region (z.B. Nordrhein-Westfalen), Längen und Breitengrad. Die geographischen Daten können auf http://tools.themenrelevant.de/ eingesehen werden.
Die Lokalisierung wird zunehmend wichtiger. Auch wenn Geo-Tags bisher keine direkte Auswirkung auf das Ranking einer Webseite haben, schaffen Sie sich damit einen erheblichen Vorteil: Ihre Kunden finden Sie schneller. Hilfreich ist es zudem, wenn Sie Ihre vollständige Adresse untereinander in Zusammenhang mit dem Begriff „Impressum“ oder „Kontakt“ angeben.
Geo-Tagging
Unter dem Begriff Geo-Tagging (Verortung) ist sozusagen die geographische Etikettierung, zumeist die Zuordnung eines Fotos oder eines Videos zu der geografischen Position, an der es aufgenommen wurde, gemeint. Um diese Zuordnung möglich zu machen, muss das Meta Element „geo“ mit der Koordinate versehen werden. So wird es möglich, über Google Maps und Google Earth die Bilder dem Ort zuzuordnen, an dem sie aufgenommen worden sind.
Geo-Targeting
Beim Geo-Targeting wird die geographische Lage anhand der IP Adresse der Suchanfrage zugeordnet. So können regionale Anfragen mit standortbezogenen Suchergebnissen und regionaler Werbung versehen werden.
Der rel= „alternate“ hreflang =“x“ Link verweist auf eine alternative Seite, die in einer anderen Sprach- oder Länderversion existiert, aber mit dem gleichen Inhalt gefüllt ist. Er unterstützt die Google Suche in verschieden Ländern und gibt anhand der URL die Website in der richtigen Sprache aus.
Durch die Verwendung von rel= alternate wird die Entstehung von Duplicate Content vermieden. Dieser entstand bisher vor allem bei Seiten mit identischem Inhalt wie zum Beispiel bei deutschsprachigen Seiten für die Schweiz, Österreich und Deutschland. Außerdem werden alle Backlinks auf die verschiedenen Domains der Länder addiert, sodass alle Domains gleichermaßen im Google Ranking davon profitieren. Ein weiterer Vorteil des rel=“alternate“hreflang=“x“ ist, dass die Erstellung individueller Texte für die Länder und Sprachen, die ohnehin meist eher für die Suchmaschinen als für die Leser verfasst wurden, nun weg fällt.
Letzte Woche habe ich ein langes Gespräch mit unserem Geschäftsführer Michael Steinfort geführt. Eingangs wollte ich nur wissen, warum und welches CMS System für Unternehmen Sinn macht. Gelernt habe ich dabei aber viel, viel mehr.
In den nächsten Wochen werde ich hier einige der Erkenntnisse aus dem Gespräch berichten und gleich mal mit einer Frage starten, die Michael aufgeworfen hat:
Michael Steinfort sagt: „Viele Webseiten sind dumm.“ Und damit meint er:
“Leider ist es so, dass wir mit vielen Projekten, die wir momentan umsetzen, noch viel zufriedener sein könnten. Denn unsere Kunden schöpfen die Möglichkeiten, die technologisch verfügbar sind, meist noch nicht aus. comspace ist ein Technologie-Unternehmen. Wir arbeiten oft mit führenden Lead-Agenturen oder internen Kreativ-Abteilungen unserer Kunden zusammen. Dort ist zuerst unsere Expertise und Erfahrung gefragt, die Agenturen und internen Abteilungen unserer Kunden über die technischen Möglichkeiten aktueller CMS Software zu informieren. Wir zeigen den Designern und Konzeptern, was technisch machbar ist, so dass sie die State-of-the-Art Funktionen in ihr Konzept mit einfließen lassen können. Das ist unbedingt notwendig, da die meisten Konzepter nur die klassischen Funktionen eines Redaktionssystems kennen (Content erstellen und publizieren). Heutige marktführende CMS Systeme können viel mehr.“
Wenn wir die Kreativ-Agenturen als Architekten sehen, die eine Website als Haus planen, designen und strukturieren, sind wir als comspace die Handwerker, die diese Pläne realisieren. Und wie ein Handwerker am Bau, haben wir eine klare Meinung zu dem, was Grafiker und Konzepter uns liefern: Das ist häufig designfokussiert und hat selten Konzeptansätze für eine zielgruppenspezifische Auslieferung von Inhalten.
Viele Webseiten sind wenig clever, weil sie ihren Besuchern nicht die gesuchten (relevanten) Inhalte zeigen, obwohl die technischen Voraussetzungen gegeben sind. Anstelle dessen wird möglichst viel an Informationen angeboten, in der Hoffnung, relevanter Inhalt möge doch dabei sein.”
Ein Beispiel dafür wäre schön.
“Klar. Fangen wir mit einem Beispiel aus dem alltäglichen Leben an: Wenn ich in ein Bekleidungs-Geschäft gehe, mich beraten lassen möchte und die Verkäuferin sagt:
‘Guten Tag und willkommen, ich sehe, Sie tragen Größe 102, ein anthrazit-farbener Anzug, darf ich Ihnen einen schwarzen oder blauen Anzug zeigen? Ich hab hier einen Schnapper aus einem tollen Stoff, Super120!’
Dann fühle ich mich gut beraten. Webseiten in Deutschland funktionieren leider nicht so. Wenn ich auf eine Unternehmens-Webseite in Deutschland surfe, drehen sich die ‘virtuellen Verkäufer’ zur Wand.
Als anschauliches Beispiel betrachten wir die Volkswagen Webseite für Endkunden (B2C).
(Volkswagen soll nur als exemplarisches Beispiel dienen. Wir fahren zu Haus die Marke und haben zu Volkswagen aktuell keine Geschäftsbeziehung.)
Da wird seit einigen Monaten der Kleinwagen Up! angeteasert, beworben und mit viel Geld durch Design-Agenturen möglichst attraktiv dargestellt. Wir surfen also auf Volkswagen.com und werden auf Volkswagen.de umgeleitet. Das ist schonmal super. Doch trotz des ganzen Zaubers (teurer, toller Film) rund um den Up! klicken wir zielstrebig auf den Multivan, also den Bus. Und dann sehen wir uns noch den Caddy Kastenwagen an. Damit müsste die Seite gelernt haben: ‘Hmm, dieser Kunde interessiert sich nicht für den Up! sondern für die etwas größeren Nutzfahrzeuge. Es handelt sich mit hoher Wahrscheinlichkeit um einen Kunden mit großer Familie, oder einen gewerblichen Kunden wie z.B. einen Handwerker .’
Das sollte die Webseite nun wissen. Wenn ich nun aber NOCHMAL auf Volkswagen.de bzw. den Home-Button (Logo) gehe, dann zeigt mir die Webseite wieder den Up!.
Webseiten als gute Verkäufer und Berater
Zurück in unserem Alltagsbeispiel hieße das: Ich habe der Verkäuferin angedeutet, dass ich einen blauen Anzug Größe 102 suche und die Verkäuferin sagt: ‘Kommen Sie doch bitte mit in unsere Jeans-Abteilung, ich habe auch etwas in Größe 42 extraweit. Und danach bittet Sie mich, ihr durch den ganzen Laden zu folgen (viel Content).’
So konzeptlos funktionieren heute Websites von deutschen weltmarktführerenden Unternehmen und Konzernen, selbst wenn sie mit führenden CMS-Systemen umgesetzt wurden. Die Schwäche in den Konzepten und die später geringe Akzeptanz in den Zielgruppen ist für uns teilweise sehr frustrierend.
Denn:
Redaktionssysteme haben sich in den letzten 10 Jahren immens weiterentwickelt und können heute deutlich mehr als einfach nur Content erfassen, erzeugen und anzeigen. Und Design ist wichtig, aber um im o.g. Beispiel zu bleiben, rettet ein hübsches Äußeres nicht die Inkompetenz der Verkäuferin im Kleidungsfachgeschäft.
Das Content Management System SITECORE
Sitecore – eine Lösung aus unserem Portfolio – liefert z.B. ein System, das besonders für marketingaffine Unternehmen interessant ist und aktives Verkaufen unterstützt.
Um wieder zu unserem Volkswagen-Beispiel zurück zu gehen: Idealerweise hat die Seite jetzt nicht nur erkannt, dass ich mich für ein großes und praktisches Auto interessiere, sondern zeigt mir auch gleich noch eine spezielle Bilderwelt an: Eine Familie mit vielen Kindern vor dem Auto oder ein Handwerker, der lange Gegenstände ins Auto lädt. Dann würde ich mich als Kunde schon ein ganzes Stück besser verstanden fühlen.
Technisch ist diese Art der Personalisierung ein alter Hut. Auf klassischen E-Commerce Seiten wie Amazon oder eBay sind solche Funktionen Nutzern seit vielen Jahren bekannt. Bestes Beispiel: “Kunden, die dieses Produkt gekauft haben, haben sich auch für jene Produkte interessiert”. Doch auf Unternehmens-Seiten, die mit klassischen Content Management Systemen ohne Personalisierung gebaut werden, fehlen diese Funktionalitäten meist noch. Technisch sind diese verfügbar, auch ohne Budget in der Größe von Amazon.
Solche Funktionen bietet Sitecore im Standard. Bestandteil des Produktes ist ein Digital Marketing System, das u.a. auf das Nutzerverhalten in Echtzeit reagiert und den redaktionellen Content für den individuellen Betrachter der Seite anpasst.”
Wie funktionieren personalisierte CMS genau?
So weit, so gut. Aber wie funktioniert das genau und wie kann ein Unternehmen diese Technologie in seine Webseite einbauen?
Michael blickt dazu kurz in die Vergangenheit:
“Wenn man Konzepte für Webseiten erstellt, geht es meistens so los:
User-Experience-Designer und Informations-Architekten überlegen sich: Wie muss die Seite aufgebaut und strukturiert werden, damit der User sich möglichst leicht zurecht findet und idealerweise relevanten Content besucht? Als Orientierung schafft man sich hierfür Zielgruppen (z.B. Familenvater, 30-38, Einkommen 3700,-) oder besser noch Personas (detaillierte Definition einer beispielhaften Zielperson: Max Mustermann, 36, 3 Kinder, fährt gerne mit der Familie im Auto in den Urlaub, Heimwerker).
Der User-Experience-Designer stellt sich nun die Frage: Welcher Content ist denn nun für Zielgruppen und Personas relevant? Entsprechende Wireframes werden dann im Konzept entwickelt und durch Designer „angehübscht“. Eine feste Struktur der Seite, die Navigation, die Bühne, Teaserelemente, Tabbings, Karussels und die Suche sind wesentliche Bestandteile der klassischen Konzeption, um relevanten Content anzubieten. Es ist jedoch eine feste Struktur für alle Benutzergruppen.
Die festen Strukturen lassen sich in Sitecore aufbrechen indem jedem Schnipsel Content die Information mitgegeben wird, wie relevant dieser Content für die vordefinierten Zielgruppen ist (Meta-Daten). Die Seite wird später dynamisch, d.h. unterschiedliche Zielgruppen sehen unterschiedlichen Content.
In unserem Beispiel Volkswagen erhalten die Inhalte zum Up! eine sehr niedrige Relevanz für Max Mustermann (die Zielgruppe mit den drei Kindern). Multivan und Caddy haben eine deutlich höhere Relevanz. Im Detail werden Inhalte aus dem Umfeld, Familie, Freizeit, Urlaub stärker hervorgehoben, als die gewerblichen Einsatzgebiete.
Was passiert nun, wenn Max Mustermann auf die Webseite surft?
Zunächst etwas ganz ähnliches wie bsw. beim Online-Banking. Es wird eine Session für den User aufgemacht und ein Cookie im Besucher-Browser angelegt, in das all das reingeschrieben wird, was helfen kann, dem Besucher die für ihn interessanten Inhalte anzuzeigen. Das geschieht ohne Anmeldung des Kunden, d.h. ohne Login (implizite Personalisierung).
Wenn der Kunde beim nächsten Mal wieder auf die Seite surft, bekommt er relevante Inhalte auf der Website angezeigt und muss sich nicht erst wieder durch die gesamte Seite hindurch klicken.
Beim Besucher der Webseite stellt sich dadurch folgender Effekt ein: “OH! Hier werde ich verstanden, hier möchte ich gerne kaufen. Oder zumindest: Hier bewege ich mich noch weiter auf der Seite und schaue, was mir noch weiter angeboten wird”.
Im Beispiel Kleidungsfachgeschäft ist das der prüfende Blick der Verkäuferin auf mein Äußeres beim Erstbesuch des Geschäftes, ohne dass üblicherweise mein Kundenname erfragt wird.
Wieviel Personalisierung ist möglich und wie setzt man das im Projekt um?
Natürlich könnte man hingehen und den gesamten Content für Personalisierung auslegen. Jedem Informations-Schnipsel Meta-Daten zuordnen, über die die Relevanz für die unterschiedlichen Zielgruppen deutlich wird usw. Die gesamte Webseite wird dynamisch für jeden Besucher anders angezeigt. Das erzeugt jedoch technisch und organisatorisch zu viel Komplexität und schränkt die Einfachheit der Benutzung ein.
comspace empfiehlt ein schrittweises Vorgehen.
Beispiel Jobsuche: Wenn ein Webseitenbesucher sich gezielt auf den Job-Angeboten bewegt, wird ihm im Header der Seite kein Produkt-Teaser mehr angezeigt, sondern eine Grafik, die zur Kontaktaufnahme mit der Personalabteilung einlädt. Denn augenscheinlich handelt es sich ja um jemanden, der für das Unternehmen arbeiten möchte und nichts kaufen wird (Zielgruppe Berwerber, definiert im Konzept über eine Perona).
Eine solche Anpassung ist meist innerhalb kurzer Zeit zu realisieren und man kann erste Erfahrungen sammeln, wie die Besucher der Seite auf eine solche Personalisierung reagieren. Begleitend notwendig ist der Einsatz eines Analytics-Tools (teilweise in aktuellen CMS-Lösungen integriert), um mehr über seine Besucher und den Erfolg der Personalisierung zu lernen und Schritt für Schritt weitere Zielgruppen gezielt zu bedienen.
In weiteren Schritten lässt sich Marketing Automation aufbauen. Bestimmte Handlungen des Besuchers auf der Webseite führen zu festgelegten Reaktionen im Backend der Webseite, die dann ganz gezielte Marketing-Tools auslöst, wie z.B. einen Newsletter, Prospektmaterial oder eine Kontaktaufnahme anzubieten. Sinnvolle Ergänzung ist eine CRM Anbindung, durch die die Informationen, die ein bereits bekannter Besucher der Webseite hinterlassen hat, direkt in das Customer Relationship Management einfließen und weiteren Vertriebskanälen zur Verfügung stehen.
Zurück zu unserem Volkswagen-Beispiel:
Der Kunde hat sich beim zweiten Besuch auf der Webseite registriert und einen Multivan konfiguriert. Farbe, Felgen, Ausstattung…
Nun kommt der Kunde zum dritten Mal auf die Seite. Die Bilderwelt wird direkt auf das Aussehen des vom Kunden konfigurierten Fahrzeugs angepasst. Der Kunde erkennt ‘sein’ Fahrzeug wieder. Nun werden auf der Webseite Informationen angezeigt, die zum Abschluss des Geschäftes führen (exemplarische Schritte, wir sind keine Strategieberatung im Umfeld Automotive):
Probefahrt vereinbaren
Finanzierung
Versicherung
Zubehör
Und selbst nach einem Kauf hört die Funktionaltät nicht auf:
Wird ein Kunde, der bereits gekauft hat, auf der Seite wieder erkannt, können gezielt Inhalte angezeigt werden, die Zusatzkäufe generieren sollen oder ergänzende Dienstleistungen anbieten. Ebenso können aber auch Service-Leistungen angeboten werden, wie häufige Fragen zum gekauften Produkt, Neuigkeiten, Bedienungsanleitungen etc.
Ein einfaches, preisgekröntes Beispiel für Personalisierung aus der comspace Praxis:
Unser Kunde Dornbracht präsentiert auf der Webseite (basierend auf Sitecore), unter anderem eine horizontale HighEnd Dusche. Unter den Bildern auf der Produktseite ist u.a. auch eines dabei, auf dem eine unbekleidete Dame in dieser Dusche angedeutet ist.
Es handelt es sich um ein Premium-Produkt, das auch im arabischen Markt angeboten wird. Da eine solche Abbildung dort problematisch ist, erkennt die Webseite anhand der GEO-IP woher der Besucher kommt und zeigt dementsprechend ein anderes Bild an. Das ist ein sehr einfaches Beispiel für Personalisierung von Content für eine Zielgruppe, basierend auf Lokalisierungsdaten.
Ein anderes Beispiel für die Personalabteilung
Die meisten Unternehmen haben eigene IP-Nummernkreise. Also jeder, der aus dem Adressbereich eines Unternehmens im Web surft, ist als Mitarbeiter dieses Unternehmens im Web erkennbar.
Mitbewerber auf der eigenen Seite werden nicht gern gesehen. Dabei vergessen wird jedoch, dass es sich um hochqualifizierte potenzielle Bewerber handelt.
CMS-Systemen kann man beibringen, anhand der IP-Adressen zu erkennen, ob ein Mitarbeiter eines Mitbewerbers meine Webseite besucht. Wie wäre es denn zum Beispiel, wenn Mitarbeiter von Wettbewerbern zu allererst Stellenangebote zu sehen bekommen? Dies ist keine hypothetische Diskussion, sondern wird aufgrund des bestehenden Fachkräftemangels schon von ersten Unternehmen umgesetzt.
Warum brachten wir eigentlich die ganze Zeit das Beispiel Volkswagen?
Wie oben angeführt nur als exemplarisches Beispiel aufgrund der Bekanntheit der Marke und für die Nachvollziehbarkeit des Beispiels.
Volkswagen benutzt das CMS Web Experience Management von Adobe, auf dessen Basis wir dieses Jahr ein erstes Projekt realisiert haben. Das System bietet ebenfalls viele der Personalisierungs-Funktionen, die ich im Zusammenhang mit Sitecore erklärt habe.
Sicherlich plant Volkswagen in nächsten Schritten, diese angedeuteten Konzepte in der Online Welt umzusetzen.
Das o.g. Szenario funktioniert nicht nur im Umfeld B2C, sondern ebenfalls in mehrstufigen Märkten B2B.
Mitnehmen
CMS-Software kann heute mehr als Content erstellen
Konzepte müssen Lösungen zur zielgruppenspezifischen Auslieferung von Content liefern
Design rettet keine unrelevanten Inhalte
Konzepter müssen aktuelle CMS Systeme kennen, vor allem das System, auf dem später die Implementierung stattfinden soll
comspace ist Sparringspartner mit technologischem Fokus für Endkunden und Agenturen
Ein Mann sitzt in der Lobby eines Luxushotels. Es ist 3 Uhr nachts und nur hier unten hat er WLAN, um noch einmal schnell seine E-Mails zu checken. Ein junges Pärchen kommt durch die Drehtür des Hotels von einer Strandparty, sie versucht gar nicht erst zu flüstern: „Schau Dir den armen Knilch an, selbst im Urlaub kann er bis tief in die Nacht nicht aufhören zu arbeiten.“
Der Mann mit dem Laptop auf den Knien denkt bei sich „Wer ist denn der arme Knilch – der, der seinen Job liebt und jederzeit von überall aus arbeiten kann oder diejenigen, die sich in 2 Wochen im Jahr von den anderen 50 Wochen Arbeit, die sie nicht gerne machen, erholen müssen?“
Diese selbsterlebte Geschichte erzählt Marketingexperte und Bestseller-Autor Seth Godin in einem seiner Bücher.
Warum ich Ihnen davon erzähle?
Weil diese kleine Anekdote sich vor einigen Jahren zutrug und damals noch eine sehr kleine Personengruppe betraf. Je größer die Datenwolke aber wird, desto größer wird auch die Auswirkung auf all die Berufsgruppen, die ich hier mal mit dem neudeutschen Begriff „Wissensarbeiter“ bezeichnen möchte.
Dazu zähle ich allerdings nicht nur Programmierer und hippe Freelancer, deren Büro immer gerade dort ist, wo sie ihr Macbook und einen Cafè Latte abstellen können, sondern alle Menschen, die nach der wortwörtlichen Bedeutung des Begriffes mit Wissen arbeiten.
Außendienstler arbeiten mit Wissen. Projektmanager arbeiten mit Wissen. Callcenter-Mitarbeiter arbeiten mit Wissen. Kundenservice-Mitarbeiter arbeiten mit Wissen usw. usf.
Möglicherweise sollten wir den Begriff Wissensarbeiter etwas erweitern und Wissens- und Kommunikations-Arbeiter sagen, denn Wissen, das nicht kommuniziert und weiter entwickelt wird, ist relativ wertlos.
All diese Wissens- und Kommunikations-Arbeiter waren bis vor wenigen Jahren noch an ihren Arbeitsplatz gebunden. Denn dort standen die Aktenordner, das Faxgerät, das Telefon mit der persönlichen Durchwahl, der Schreibtisch-PC auf dessen Festplatte alle wichtigen Dokumente abgelegt waren. Dort war auch die Stempeluhr, die betätigt werden musste, bevor man überhaupt an diese Geräte heran kam.
Wie viele dieser ortsgebundenen Artefakte haben Sie noch an Ihrem Arbeitsplatz?
Oder sind Sie schon mit Smartphone, Laptop und flexiblen Arbeitszeiten unterwegs? Dann sind Sie möglicherweise auch gar nicht mehr so weit von der Cloud entfernt.
Wie wird unsere Arbeitsweise zukünftig aussehen?
Die Zukunft der Arbeit ist – zumindest teilweise – unabhängig von Zeit und Ort. Wenn Sie von überall her auf Ihre Arbeit zugreifen könnten: Würde das Ihre Art zu arbeiten dann nicht verändern? Und hiermit meine ich nicht nur ein paar E-Mails und Word-Dateien. Sie können alle relevanten Arbeitsabläufe von überall her erledigen. Idealerweise sogar zu jeder Zeit. Ihnen fällt noch eine Ergänzung zum Konzept ein? Statt dass Sie sich eine Notiz schreiben müssen, können Sie die Änderung direkt und für alle anderen Beteiligten sofort sichtbar vornehmen.
Stellen Sie sich vor, ein Kunde ruft Sie auf Ihrer Büronummer an und wird direkt an Ihr Smartphone weiter geleitet. Der Kunde erteilt Ihnen einen weiteren Auftrag. Sie machen eine Gesprächsnotiz im mobilen CRM-System über das Gespräch mit dem Kunden. Danach werfen Sie einen Blick in das ebenfalls mobile ERP-System und kontrollieren, ob ausreichend Kapazitäten für den Auftrag vorhanden sind. Ebenso gut können Sie hier mobil in Geschäftsprozesse eingreifen. Meetingprotokolle und Lastenhefte liegen ebenfalls in der Cloud und somit in Ihrem Zugriff – selbstverständlich in einem ordnungsgemäß geschützten Bereich.
Selbst unsere Kernkompetenz bei comspace – Content Management Systeme – können als Cloud-Lösung von überall her bedient werden.
Das Konzept des Cloud Computing ermöglicht dabei unabhänigig von Hard- und Software des Endnutzers einfache Zugriffsmöglichkeiten über Browser und Apps. Anwendungen, Daten und Dokumente liegen nicht mehr nur auf einem spezifischen Rechner sondern redundant verteilt auf mehreren Maschinen, die gemeinsam eben die Wolke darstellen. Diese Wolke kann vollständig durch das firmeneigene Rechenzentrum vorgehalten werden, von Dienstleistern zur Verfügung gestellt werden oder eine Mischung aus beidem darstellen.
Somit macht uns die Daten-Wolke ein ganzes Stück unabhängiger und flexibler darin, wie wir Daten, Programme und Computer nutzen. Zum Arbeiten wie auch privat.
So sehr ich persönlich diese flexible und unabhängige Art zu arbeiten genauso wie Seth Godin schätzen gelernt habe: Wenn es um den Blick aus dem Fenster geht muss ich Ihnen ehrlich gestehen:
Ein wolkenloser Himmel ist mir immer noch am liebsten 😉
Eine interessante Social Media Studie bei futurebiz hat herausgefunden, dass tagsüber mehr getwittert und abends mehr Facebook genutzt wird. Nach 19 Uhr sind die Interaktionen auf Facebook am häufigsten.
Heisst das nun, dass Menschen bei der Arbeit zwar heimlich twittern können, aber Facebook gesperrt ist? Oder könnte es sein, dass diejenigen, die Social Media auch berufsmäßig nutzen oder zumindest in Unternehmen arbeiten, die dem Social Web aufgeschlossener gegenüber stehen, eben verstärkt twittern und ihren Facebook-Account eben nur privat nutzen? Vielleicht verursacht Facebook mit den ganzen Fotos und Videos in den Timelines auch derart viel Traffic, dass der kostensensible Mobilfunknutzer lieber das sparsamere Twitter während der Arbeitszeit nutzt. Auf dem privaten Handy natürlich 😉
Qualität ist nicht erst seit den vergangenen Google Updates namens Panda und Pinguin ein Diskussionsthema, sondern schon länger ein relativ wichtiger Faktor in Bezug auf den Aufbau und die Erstellung von Webseiten und Webinhalten.
Dies bezüglich gibt es in den Google Webmaster Richtlinien einen gesonderten Bereich der sich mit dem Thema „Qualitätsrichtlinien“ beschäftigt. Primär wird den Richtlinien auf die bekanntesten manipulativen Verfahren eingegangen, die natürlich für den erfahrenden Webentwickler ein Begriff sein dürften.
Null Toleranz bei der Anwendung manipulativer Verfahren
Seit Bestehen der Suchmaschinen versucht der Webseitenbesitzer seine Webseite so erfolgreich wie möglich zu gestalten. Bei der Vielzahl an Internetseiten und potentiellen Konkurrenten ist es vor allem in der heutigen Zeit nicht unbedingt einfach, sich auf den vorderen Plätzen unter den relevanten Keywords zu positionieren.
So gibt es früher wie heute findige Webseitenbetreiber die versuchen durch gezielte Manipulation die Suchmaschinen und deren Algorithmen auszutricksen. Genau aus diesen Gründen haben Suchmaschinenbetreiber eigene Qualitätsrichtlinien entwickelt, die Webseitenbetreiber darüber aufklären, was erlaubt ist und was nicht.
In vielen Fällen glauben die Webseitenbetreiber allerdings, solange ein Verfahren nicht in den Qualitätsrichtlinien der Webmaster Richtlinien auftaucht, wird das Verfahren seitens der Suchmaschinenbetreiber wie Google gebilligt. Doch dies ist eigentlich nicht der Fall – manipulative Verfahren werden von Suchmaschinen nicht toleriert. Es kann aber durchaus sein, dass bis dato noch kein Algorithmus Update existiert, dass diese Verfahren in die Schranken weist.
Bei Missachtung der Qualitätsrichtlinien werden die Webseitenbetreiber durch verschiedene Maßnahmen von der Abwertung im Ranking bis hin zur Deindexierung einer Webseite bestraft.
Webseiten sind für die Nutzer da
Häufig vergessen die Webseitenbetreiber, dass eine Webseite nicht für die Suchmaschinen erstellt wird, sondern für den potentiellen Besucher bzw. Kunden, der auf seinem Streifzug durch das World Wide Web, die eine Webseite entdeckt.
Um unsinnigen und aufwendigen Manipulationsversuchen entgegen zu wirken, gibt Google dem Webseitenbetreiber den Ratschlag seine Zeit in die Optimierung und Verbesserung seiner Webseite und Webinhalte zu investieren. Dadurch wird dem Besucher der Website ein wesentlich größerer Dienst erwiesen und gleichzeitig wird zur langfristigen Verbesserung von Suchergebnissen und Suchqualität beigetragen. Die Webseiten, die die Qualitätsrichtlinien von Google einhalten, werden durch ein besseres Ranking belohnt.
Wie du mir, so ich dir – der Linktausch
Google empfiehlt nicht an Linktauschprogrammen teil zu nehmen oder Linkkauf zu betreiben, um das Ranking oder den PageRank zu verbessern. Partnerseiten zu erstellen, die alleine dem Zweck der Websitevernetzung dienen ist ein Verstoß gegen die Google Webmaster Richtlinien, der sich negativ auf das Ranking Ihrer Website in den Suchergebnissen auswirkt, gleiches gilt für Links zu Webspammern oder „schlechte Nachbarschaft“.
Grundprinzipen der Qualitätsrichtlinien
In den Google Webmaster Richtlinien werden einige Grundprinzipien seitens Google aufgelistet – wobei diese in den meisten Fällen dem Webmaster eigentlich auch bekannt sein sollten. Dazu gehört das Cloaking eine Modeerscheinung, bei der Suchmaschinen andere Inhalte angezeigt wurden, als dem Besucher – damit Webseiten sich in den Suchergebnissen besser positionieren.
Seitens Google sind Verborgene Texte oder verborgene Links, automatischen Suchanfragen an Google, Seiten mit irrelevanten Suchbegriffen, doppelte Seiten, Sub-Domains und Duplicate Content, Seiten mit Phishingversuchen, Viren, Trojanern usw. nicht erlaubt. Zudem wird von Brückenseiten und Partnerprogrammen, die keinen Wertgewinn darstellen abgeraten. Sollte eine Seite nicht diesen Richtlinien entsprechen, bietet Google die Möglichkeit an, nach der Korrektur einen Antrag auf die erneute Überprüfung der Website zu stellen.
Weitere Artikel zum Thema Google Webmaster Richtlinien
Crowd Sourcing meint, dass massenweise Leute über das Netz an etwas zusammen arbeiten können. Wikipedia, Google Docs, Firmen-Intranets… You name it. Und ein Modell ist abstrakter als das andere.
Haben Sie auch früher mit LEGO die abgefahrensten Dinge gebaut?
Häuser, Schiffe, Autos, Raumstationen und Ritterburgen… Was haben wir nicht alles aus den kleinen, dänischen Klötzchen für Welten erschaffen. Zahllose Nachmittage, an denen unsere Knie tiefe Beulen im Kinderzimmerteppich hinterlassen haben. Und dann haben wir unsere Werke stolz ins Wohnzimmer getragen, um sie ein paar Tage später fallen zu lassen und nach dem großen SCHEPPER! die Steinchen nach und nach aus den hintersten Zimmerecken zu fischen und zu einem neuen Kunstwerk zusammen zu setzen.
1,7 mm hohe Noppen, die Welten zusammen halten und uns in Sekunden die Vergänglichkeit unserer Arbeit vor Augen führten.
So wie wir früher gemeinsam an einem LEGO-Projekt gearbeitet haben, können wir heute mit Crowd-Sourcing und Cloud-Anwendungen auch im echten Leben echte Projekte umsetzen und Meilensteinchen an Meilensteinchen reihen. Eigentlich logisch, diese beiden Dinge zusammen zu führen, oder?
Neben privat erstellten LEGO-Bauplänen, die von anderen runtergeladen, kommentiert, verbessert und erweitert werden können, hat LEGO als Unternehmen mittlerweile eine clevere Crowd-Sourcing Plattform aufgebaut.
Auf dem Portal LEGO.cuusoo.com können Fans ihre fertiggestellten (mit Teileliste und Bauplan dokumentierten) LEGO-Fan-Projekte vor- und zur Wahl stellen.
Projekte, die durch die Community mindestens 10.000 Stimmen erhalten, werden von LEGO in Betracht gezogen, als tatsächliches Produkt in den Handel zu kommen.
Warum vertraut LEGO auf diese Schwarmintelligenz der Kunden?
Seit 90 Jahren ist LEGO einer der erfolgreichsten Spielzeughersteller der Welt – 2012 ist tatsächlich Jubiläumsjahr. Warum sollte sich das Unternehmen von Kunden in die Produktentwicklung reinreden lassen? Hier die 5 offensichtlichsten Gründe:
Innovative Produkte entstehen
Grundabsatz unter den Projekt-Supportern ist relativ sicher
Hohe Akzeptanz durch den „Mitmach-Faktor“
Virale Verbreitung auch der nicht realisierten Projekte in Social Networks
Awareness für die Marke LEGO
Minecraft wird durch LEGO Cuusoo aus der Virtualität in die Anfassbarität gebracht
Ein Beispiel für perfektes Crossmarketing: Minecraft ist wohl DAS Computer-Spiel-Phänomen der letzten Jahre. In dem kostenlosen Online-Spiel kann der Spieler eigene Welten zusammenbauen. Aus Klötzchen.
Was liegt da näher als Minecraft mit Hilfe von LEGO in die echte Welt zu überführen? Doch weder LEGO noch der Spiele-Entwickler Markus Persson kamen auf die Idee, sondern die Cuusoo Community. Vier auf dem Globus verteilte Fans entwickelten zusammen mit einem LEGO-Designer den ersten Minecraft-LEGO-Baukasten, der seit Juni auch in Deutschland für 34,95 im Regal steht.
Erste Blogs berichten bereits begeistert über das fertige Produkt:
Warum betreibt man als Unternehmen ein Blog? Als Marketing-Instrument? Dafür ist der Aufwand eigentlich zu groß. Als Mitarbeiter-Magazin? Dafür ist es zu öffentlich, denn auch das transparenteste Unternehmen ist ja schon rechtlich als auch wirtschaftlich dazu verpflichtet, einige Informationen für sich zu behalten.
Wozu ist also ein Unternehmens-Blog sinnvoll?
Dazu habe ich letztens einen spannenden Artikel im Blog Deadline beim schweizer Tagesanzeiger gelesen. Dort schreibt Constantin Seibt, der als einer der besten deutschsprachigen Wirtschafts- und Politik-Journalisten gilt, über Journalismus im 21. Jahrhundert im Allgemeinen und im speziellen über die letzte exklusive Ware des Journalismus: Komprimierte Zeit.
Denn die Ware im Journalismus ist im Kern nicht die Nachricht, die Unterhaltung oder der Kommentar, sondern die Ware jedes professionellen Schreibers: komprimierte Zeit.
Seibt meint damit, der Schreibende nimmt sich Zeit über ein Thema nachzudenken, Informationen zusammen zu stellen und neu zu kombinieren. Die daraus entstehenden Erkenntnisse, das erlangte Wissen oder aktuell erkannte Entwicklungen kann er dann wiederum seinen Lesern anbieten.
Woran der Schreiber 60 Minuten oder länger herumgedacht und geschrieben hat, kann der Leser innerhalb weniger Minuten aufnehmen.
Deswegen: Komprimeirte Zeit.
Ein ganz ähnlichen Anspruch haben wir uns für diesen Blog auch gesetzt. Nur eben mit einer sehr viel spitzeren Zielgruppe: Unsere Kunden, Mitarbeiter und alle, die sich für die Themen, die uns bewegen ebenfalls interessieren.
Wenn wir Events zusammenfassen und unsere Erkenntnisse daraus veröffentlichen oder unsere Mitarbeiter ihr Expertenwissen in kleine, leicht nachvollziehbare und anzuwendene Informations-Happen komprimieren, helfen wir uns und Ihnen:
Wir schenken Ihnen komprimierte Zeit und profitieren selbst davon, wenn unsere Kunden top-informiert sind.
Ab sofort sind die Share-Plugins auf unseren Seiten von Allyve und somit bieten wir eine rechtssichere Integration des Like-Buttons von Facebook. Deutsche Datenschutzbehörden haben zuletzt immer wieder eine 2-Klick-Lösung für Webseiten gefordert. Im Folgenden möchte ich kurz auf die Vorteile des Share Plugins eingehen aber auch auf die aktuelle Diskussion zum Thema „2-Klick-Lösung“ eingehen.
Warum sollte man ein Share Plugin einsetzen?
Webseiten-Besucher können interessante Inhalte schnell und einfach in alle relevanten sozialen Netzwerke teilen. Der Content kann sich so schnell viral verbreiten, was zu steigenden Nutzerzahlen auf dem eigenen Angebot führt. Da aber niemand eine Vielzahl unterschiedlicher Icons auf der eigenen Seite unterbringen möchte, sind verschiedene Unternehmen auf die Idee gekommen diese Buttons hinter einem „Teilen“-Button zusammenzufassen. Als Mehrwert steht dem Nutzer oft eine Multisharing-Option zur Verfügung, die so das mehrfache Anklicken verschiedener Buttons auf wenige Klicks reduziert.
Datenschutz und 2-Klick-Lösung
Wir möchten uns an dieser Stelle nicht an der aktuellen Diskussion zum Thema beteiligen aber im Sinne des §3a BDSG sorgt eine 2-Klick-Lösung für eine Datensparsamkeit was die Sammelleidenschaft von Facebook & Co. betrifft. Wer sich selber mit dem Thema beschäftigen möchte, dem empfehlen wir ein paar Links um weiter in das Thema einzusteigen: