10 historische Beispiele für Content Marketing #cmcb15

Bereits vor einiger Zeit hatte ich einen unserer Fachartikel herausgefunden, dass nicht etwa John Deere der erste große Wurf in Sachen Content Marketing war, wie es US-Kollegen immer gerne auf 1895 datieren, sondern unser Bielefelder Traditionsunternehmen DrOetker war 1891 mit Content-Marketing schon deutlich früher dran.

In der Zwischenzeit habe ich mich mehr und mehr in das Thema Content Marketing eingearbeitet und bin dabei auf einige weitere interessante historische Fallbeispiele gestoßen, von denen ich Ihnen hier im Rahmen von Klaus Ecks Blogparade #cmcb15 zum Thema Content-Marketing und Corporate Blogs etwas mehr erzählen möchte. Auf das Thema Corporate Blogs werden wir noch etwas genauer in späteren Beiträgen eingehen.

Historisches Content-Marketing

Wenn man Trends und Neuentwicklungen bewerten und entdecken möchte, ist es meiner Erfahrung nach immer eine ganz gute Idee erstmal in die Vergangenheit zu schauen. Was hat sich schon bewährt? Welche Fehler haben andere gemacht? Welche Erfolge aus der Geschichte lassen sich auf heutige Vorhaben übertragen?

(c) HOLSTE-Gruppe Bielefeld
(c) HOLSTE-Gruppe Bielefeld

Kaiser Natron – ein weiteres Beispiel aus Bielefeld

Einsteigen möchte ich mit einem – Taadaa – weiteren Beispiel aus Bielefeld. Und zwar von der Firma Holste, die den Kaiser Natron herstellt. Mit der Vermarktung von Pulvern aller Art kennen wir uns hier in Bielefeld ganz besonders gut aus:)

Kaiser Natron – auch als Natriumhydrogencarbonat bekannt – wird bereits seit 1881 in Bielefeld hergestellt. Sehr früh begann man bei der Firma Holste ebenfalls wie Dr. Oetker damit, Anwendungstips, Rezepte und Anregungen auf die Verpackungen zu drucken. Ob damit bei Holste noch früher als bei Dr.Oetker mit dieser Form des Content Marketing begonnen wurde, konnte ich nicht herausfinden. Wohl aber entdeckte ich vor kurzem im historischen Museum eine außergewöhnliche Form des Content Marketing:

Im Zweiten Weltkrieg riet einer der aufgedruckten Anwendungstips auf Kaiser Natron Tütchen dazu, bei Bombenangriffen dem Löschwasser Kaiser Natron beizugeben, um damit die Löschwirkung zu erhöhen. In wieweit das tatsächlich stimmt, kann ich nicht nachvollziehen. Da aber Natriumhydrogencarbonat in Kombination mit Säure wie z.B. Essig Kohlendioxid erzeugt, könnte tatsächlich etwas dran sein.

342

Nichtsdestotrotz: Aus Marketingsicht durchaus geschickt: Die Kunden erhalten eine weitere Anwendungsmöglichkeit, Sicherheit ist immer ein wichtiges Thema und somit wird die Nutzung des Produkts intensiviert und Umsätze nach oben getrieben.

Der Guide Michelin

CC BY-SA 3.0 Trou Wikipedia
CC BY-SA 3.0 Trou Wikipedia

Ratgeber zum Reifenwechseln, Standorte von Werkstätten und wichtige Points of Interest wie Bahnhöfe, Apotheken und Hotels führte der erste Guide Michelin der gleichnamigen Brüder 1900 auf. Damals brachten Sie das Heftchen für gerade mal 3000 Autofahrer in Frankreich heraus. Damit brachten Sie nicht nur ihr eigenes Produkt – die Reifen – in den Fokus, sondern auch die Technologie Automobil weiter voran. Als 1923 dann die ersten Restaurantempfehlungen erschienen, lieferten die Michelins ihren Kunden Gründe und Anregungen die Michelin-Reifen fleißig abzufahren. Mehr zum Guide Michelin im Kontext Content-Marketing lesen Sie bei Kircher-Burkhardt.

Die Soap Operas

Soap Operas müssten eigentlich Frühstücksflocken-Oper heißen, denn die erste Radio-Serie mit Sponsor mit dem Titel „Betty and Bob“ lief 1932 auf NBC und wurde vom Cerealien-Hersteller Generell Mills unterstützt. Erst am 14.August 1933 startete mit „Ma Perkins“ die erste Radio Unterhaltungsserie, die vom Seifenhersteller Procter & Gamble präsentiert wurde und damit dem Format Soap Opera ihren Namen gab. Ob in diesen Sendungen regelmäßig auf die Produkte der Sponsoren hingewiesen wurde, weiß ich nicht – nichtsdestotrotz handelt es sich bei den Produkten um Content-Marketing, denn auch Unterhaltung, die eine positive Verbindung zum präsentierenden Unternehmen herstellt, kann als solches bezeichnet werden.

Product-Placement in Filmen

Ebenfalls in den 1930er Jahren begannen Filmproduzenten damit, ihre Produktionskosten damit zu senken, dass Produkte in die Handlung der Filme eingebaut und gezeigt wurden und die Hersteller der Produkte einen Zuschuss zum Film bezahlten. Wikipedia nennt als frühestes Beispiel für Product Placement den Alfa Romeo von Dustin Hoffman im Film Die Reifeprüfung von 1967. Ein erstes Beispiel mit Zahlen sind dann die Schokolinsen von Hershey’s aus E.T. Der Außerirdische deren Absatz sich nach dem Film um 60-75% gesteigert haben soll. Bogners Film Fire and Ice aus den 80ern ist mir auch noch ein Begriff. Hier wurde ein ganzer Kinofilm inszeniert, um Skimode zu verkaufen. Übrigens: Eine der aktivsten Industrien in Sachen Product Placement in Filmen und neuerdings Computerspielen ist die Waffenindustrie in den USA. Im Unterhaltungskontext werden Produkte in Aktion gezeigt, ein Image und ein Wert transportiert, die später bei einer Kaufentscheidung zum Tragen kommen.

Die Werbeanzeige mit mehr Inhalt als Werbung

Diese erste Anzeige von David Ogilvy (der auch als Vater der Werbung bezeichnet wird) als Chef seiner eigenen Agentur zeigt Content Marketing in Reinform. Nicht das Produkt – Guiness Bier – wird beworben, sondern dem Kunden werden interessante Informationen über Austern angeboten, zu denen dann die Brücke geschlagen wird, dass sie zufälligerweise gut mit Guiness schmecken:

Ogilvys-Guiness-Guide-to-Oysters

Content-Produkt weit ab vom Hauptprodukt

Und noch einmal Guiness. Diesmal als Guiness Buch de Rekorde. 1955 wurde das erste Guiness-Buch durch die Brauerei in Auftrag gegeben. Laut Wikipedia mit dem Ziel, den Bierkonsum durch die Wettleidenschaft der Biertrinker anzukurbeln.

Zur Meisterschaft hat dieses Prinzip heute natürlich Red Bull gebracht, das zwar noch Energydrinks verkauft, aber eigentlich sein eigenes Sportevent- und Medien-Imperium ist.

Just do it: Dem Kunden etwas verkaufen, für das er mein Produkt kauft

Genau das hat Bill Bowerman getan. Zunächst hat er für Blue Ribbon Sports das Produktdesign gemacht und sich um Verbesserungen bei den Sportschuhen gekümmert. Dann beobachtete er in Neu Seeland eine Joggergruppe und überlegte sich eine Strategie, wie er Jogging in den USA populär machen könnte. Denn: Mehr Leute die joggen bedeuten auch mehr verkaufte Schuhe. Also gab Bowerman 1966 zusammen mit dem Herzspezialisten Waldo Harris eine zunächst 3-seitige später 19-seitige Broschüre mit dem einfallsreichen Titel „Jogging“ heraus, die rasend schnell Verbreitung fand und die Joggingwelle in den USA auslöste.

Bowerman gab den Menschen nicht einfach neue Schuhe, er gab ihnen einen Grund, die Schuhe zu benutzen.

Ach ja: Die Schuhfirma heißt übrigens seit 1971 NIKE.

George Lucas drehte den Spieß um

A pros pos Filme: Star Wars gilt ja als DAS Paradebeispiel und Ursprung für Merchandising rund um Unterhaltungsprodukte. George Lucas verzichtete damals gegenüber 20th Century Fox auf einen Teil seiner Gage als Regisseur, erhielt dafür aber die Vermarktungsrechte für die Filmtrilogie. Was dann geschah wissen wir alle: Der Content – also die Filme – wurden zum initialen Treiber für den Verkauf „echter“ Produkte wie Actionfiguren, Kostüme, Tassen, Bettwäsche und Stormtroopers Keksdosen. Content-Marketing einmal anders herum.

Bildschirmfoto 2015-01-15 um 16.39.26

Sind Kundenmagazine dann eigentlich auch Content Marketing?

Oh ja! Selbstverständlich. Insbesondere die eher Branchenübergreifenden Magazine wie die Apotheken Umschau liefern den Kunden bsw. Informationen, über Produkte und die damit verbundenen Vorteile in Sachen Gesundheit, die eben nur bei den Apotheken zu erhalten sind. Das erste Apothekenmagazin erschien bereits 1925.

Allerdings waren die Apotheken damit nicht die erste Branche, die mit Kundenmagazinen auf sich aufmerksam machte, sondern – da kommen sie NIE drauf! – die Elektrizitätswirtschaft! Die musste sich als Junger Wirtschaftszweig gegen Gas und Petroleum durchsetzen und so erschienen 1905 die „Mitteilungen der Berliner Electricitäts-Werke“ (Wikipedia)

Gegenstände des täglichen Gebrauchs mit Werbebotschaften

Auch hier lässt sich ab einem gewissen Grad von inhaltlicher Tiefe von Content Marketing sprechen. Nehmen wir hier als letztes Beispiel den Taschenwerbekalender denn der wurde 1902 ebenfalls in Bielefeld erfunden. Friedrich Wilhelm Eilers, ein gelernter Buchbinder gründete aus der seit 1820 bestehenden Buchbinder- und Druckereifamilie heraus Spezial-Fabrik für vornehme Reklame. Bereits 1905 hatten die Taschenkalender mit Werbedruck ihren Durchbruch geschafft.

Der Klassiker im Kalendercontentmarketing sind und bleiben natürlich die Abreißkalender mit den oft despektierlich als solche bezeichneten Kalendersprüchen 🙂

In diesem Sinne verweise ich an dieser Stelle noch auf Andreas Graap und seine 10 Weisheiten von Goethe zum Content Marketing 🙂

Welche Beispiele für Content Marketing aus vergangenen Tagen oder der ausgefallenen Art fallen Ihnen noch ein? Wir freuen uns auf ergänzende Kommentare.

Hier die weiteren Beiträge zur Blogparade #cmcb15:

Das schöne an Blogparaden sind die vielen verschiedenen Perspektiven, aus denen ein Thema beleuchtet wird. Aus unserer eigenen Blogparade zum Thema Familienfreundlicher Arbeitgeber ist ein fast 70-seitiges PDF geworden, das Ole Wintermann zu der Frage veranlasste, „ob nicht vielleicht mit Hilfe der interessierten Crowd solche Handlungsempfehlungen grundsätzlich sehr viel schneller, praxisorientierter und vielfältiger (und auch kostengünstiger) zusammengestellt werden können“ (als durch Studien bsw.).  

Damit Sie sich bereits zu diesem Zeitpunkt tiefer in die unterschiedlichen Sichtweisen zum Thema Content Marketing einlesen können, hier nur die weiteren Einreichungen, diverser anderer Blogs mit sehr spannenden Einblicken. Weitere werden folgen:

Panoramafotografie in der Bielefeld 360 Grad App

Panoramafotografie ist der wesentlich inhaltliche Bestandteil der Bielefeld 360 Grad App. Daher auch der Namensbestandteil 360 Grad. Das Panoramafotografie aber deutlich mehr bedeutet, als ein Fotograf, der sich im Kreis dreht und ein paar mal auf den Auslöser drückt, sondern eine ganz eigene Expertise beansprucht, hat uns der Neue Westfälische Fotograf Andreas Frücht erklärt, der die Motive der App in seiner Kamera eingefangen hat.

Die App selber können Sie hier für 1,79 EUR herunterladen:

Panoramafotograf-Fruecht
(C) Panorama-Fotograf Andreas Frücht

Stellen Sie sich den Lesern doch bitte einmal kurz vor.

Andreas Frücht, Freier Fotograf, 52 Jahre alt, ich komme eigentlich aus dem Ruhrgebiet und wurde 1983 durch die ZVS nach Bielefeld „versetzt“. Psychologie-Studium an der Uni Bielefeld, zur Finanzierung desselben ab Oktober 1983 Freier Fotograf für die NW-Sportredaktion, ab 1988 auch für andere NW-Redaktionen. Volontariat bei der NW nach Abschluss des Studiums von 1992-94, danach wieder Freie Mitarbeit als Pauschalist. Wohne seit 1998 in Steinhagen, Hund Katze Haus.

Wie sind Sie zur Panorama-Fotografie gekommen?

Ich habe schon in den 80ern mit Kleinbild- und Mittelformat-Panoramakameras fotografiert, immer auf Diafilm,  meistens Reise- und Landschaftsfotos. Panoramafotos geben optimal den Eindruck wieder, den man von einer Landschaft oder einer fremden Stadt hat. Keine Ausschnitte, keine Gewichtung durch selektive Bildbeschnitte, keine Baustelle neben dem Traumhotel, die im Prospekt zufällig abgeschnitten wurde.

Was genau ist Panorama Fotografie eigentlich und wie funktioniert sie?

bielefeld-panorama-comspace-dach-fruecht Kopie
Bielefeld-Panorama vom comspace Dach (c) Andreas Frücht (Neue Westfälische) – größere Ansicht hier

 

In vordigitaler Zeit waren Panoramakameras Spezialgeräte, die sich von anderen handelsüblichen Fotoapparaten konstruktivisch unterschieden. Bei einer Panoramakamera schwenkte das Objektiv über einen zuvor festgelegten Bereich und belichtete dabei ein Format, welches gleich hoch wie das Standard-Filmformat war, dabei aber doppelt bis dreifach so breit. Die Aufnahmen waren also 36mm hoch (bei Mittelformat 60mm) und mindestens 70mm breit (bei Mittelformat etwa 130mm) Vereinfacht: Zwei aneinandergelegte Bilder. Ein sehr flaches Bild also. Während das Objektiv der Kamera während der Belichtung schwenkte, das heißt im Halbkreis die Umgebung abfotografiert, blieb die Kamera unbewegt in der Hand des Fotografen oder besser auf dem Stativ. In der Regel gab es nur drei oder vier einstellbare Belichtungszeiten: schwenkte das Objektiv schnell über den Film, entsprach dies einer schnellen Belichtungszeit, ein langsamer Schwenk dagegen entsprach einer langen Belichtung. Üblich waren Belichtungszeiten von einer 250stel bis zu einer 15tel Sekunde. Ich würde von „echter“ Panoramafotografie sprechen.

NW-AppAktuelle Kameras dagegen sind konventionelle Digitalkameras, ausgestattet mit einer Panorama-Funktion. Diese Kameras haben kein schwenkbares Objektiv, man muss die gesamte Kamera schwenken. Während des Schwenkens liefern sie dann im Panorama-Fotomodus eine Serie von vielen Aufnahmen, die von dem Panoramaprogramm in der Kamera mehr oder weniger gut zu einem einzigen Bild zusammen gerechnet werden. Am störungsfreiesten gelingt dies, wenn man die Aufnahme von einem Stativ macht und die Kamera auf dem Stativ um die eigene Achse dreht. Aber auch Aufnahmen aus der Hand sind möglich. Dies erfordert einige Erfahrung, da bei zu langsamem oder zu schnellem Schwenk das Programm abbricht und die Aufnahme wiederholt werden muss. Bei schrägen oder ruckeligen Schwenks wird das Bild zerhackt oder die Kamera bricht die Aufnahme ganz ab.

Ganz ohne Panoramakamera kommt man aus, wenn man ein Panoramaprogramm in Kombination mit einer herkömmlichen Digital-Kamera verwendet. Mit einer solchen fotografiert man einmal im Hochformat in die Runde, so dass die einzelnen Bilder an den Längskanten überlappen: Die entstandenen Bilder werden im Rechner vom Panorama-Programm (Autopano pro etwa) zu einem Bild vereinigt. Erfordert viel Rechenleistung.

Welche verschiedenen Arten der Panorama-Fotografie gibt es?

Echte Panoramafotografie plus kamera- oder rechnerbasiertes Zusammenrechnen mehrerer Einzelaufnahmen. Weitere Variante am Beispiel des Titelpanoramas von der Sparrenburg: beim Sparrenburgturm  ist es nicht möglich, von einer Stelle der Aussichtsplattform ein Stadtpanorama zu fotografieren, da das Häuschen auf der Turmplattform im Wege stehen würde. Also muss die Kamera mitsamt Fotograf sich während der Aufnahme(n) einmal im Kreis bewegen, also den gesamten Turm umrunden. Dasselbe gilt für das Panoramabild von der Altstädter Nicolaikirche. Auch hier würde der Turm im Weg stehen, wenn die Kamera an der selben Stelle bliebe.

Weitere Variante: Ein Kugelpanorama. Hier wird mit einem Fisheye-Objektiv mit 180 Grad Bildwinkel ein Panorama fotografiert, in welchem man nicht nur nach links und rechts, sondern auch nach oben und unten schwenken kann. Auch bei diesem Panorama werden viele einzelne 180-Grad-Bilder von einem Programm miteinander verrechnet zu einem einzigen virtuellen Bild, in welchem man nach links und rechts, aber auch hoch und runter schwenken kann. Diese Variante eignet sich nur noch für eine Bildschirmbetrachtung, nicht mehr für eine Printausgabe.

Welche Form der Panorama-Fotografie kam bei der NW-App zum Einsatz und warum?

Da das NW-Redaktionssystem mit digitalen Bilddateien arbeitet, wurde auf den Einsatz einer klassischen, analogen Panoramakamera (Widelux, Horizont) verzichtet. Digitale Panoramafotografie hat außerdem den Vorteil, dass auch bei schlechten Lichtverhältnissen noch brauchbare Ergebnisse zu erwarten sind. Zum einen sind die Kameras empfindlicher als Filme, zum anderen sind auch langsame Belichtungszeiten möglich. Schlussendlich: ein komplett „echtes“ 360-Grad-Panoramabild alter Schule für den Online-Gebrauch wäre gar nicht möglich. Selbst wenn es eine 360-Grad-Panoramakamera gäbe, so müssten Anfang und Ende des Bildes zusammengefügt werden – was störungsfrei  wiederum nur mit Bildprogrammen geht. Die Panoramakameras liefern aber je nach Schwenkgeschwindigkeit nur Ausschnitte zwischen 100 und 180 Grad, daher müssen in der Regel drei oder vier Bilder zu einem Bild verbunden werden.

Welche spezielle Kamera und welches Equipment braucht man?

4975335694_df14aff5df_b

Eine Digitalkamera mit Panoramafunktion. Verbessert wird das Ergebnis durch ein möglichst schweres Stativ mit Panorama-Kugelkopf. Alternativ: eine normale Digitalkamera und eine Panoramaprogramm (PTGUI,, Autopano Pro); Für das Verbinden der einzelnen Panoramen bzw. das Beseitigen von panoramatypischen Abbildungsfehlern ein Bildbearbeitungsprogramm (z.B. Photoshop)

Welche Motive eigenen sich besonders gut für 360 Grad Fotografie?

Am besten eignen sich Plätze mit einem Durchmesser von 25-50 Metern, Parks, Hallen, Stadien. Die Bebauung sollte nicht zu hoch sein, damit die Kamera nicht zu sehr geneigt werden muß. In der Mitte sollte sich kein störendes Bauwerk befinden. Ein Traum: Wenn man genau in der Mitte des Platzes eine Stehleiter aufbauen kann. Oder ein Gerüst!!  Beim manuellen  Zusammenbau der Bilder sind Bäume und Blattwerk sehr erleichtend, hier kann man Übergänge prima verstecken. Aufwendig: Strassenbahn-Oberleitungen, Kopfsteinpflaster.

Worauf muss man beim Fotografieren achten, was sind besondere Schwierigkeiten?

Will man lange Nächte bei der Bildnachbearbeitung vermeiden, sollte man auf eine genaue Ausrichtung der Kamera achten. Ansonsten endet der Horizont vom Bildende in Höhe des dritten Stockwerks am Anfang. Langgezogene Bauwerke sehen bauchig aus, da Anfang und Ende des Bauwerks weiter entfernt sind (und somit kleiner abgebildet werden) als die Mitte. Direkte Sonne ist nicht so ratsam, da für alle Bereiche des Bildes identische Belichtungswerte eingehalten werden sollten. Was dazu führt, dass der Teil mit der Sonne zu hell auf dem Bild erscheint. Leicht dunstiges Licht oder weiches Morgen- bzw. Abendlicht sind ideal. Es sollte nicht allzuviel Bewegung im Bild sein. Passanten, die während der Belichtung durchs Bild laufen, werden zerhackt und/oder mehrfach abgebildet, fahrende Autos desgleichen. Wasserflächen oder bewegtes Laub kann das Rechenprogramm in der Kamera irritieren, die Aufnahme wird dann abgebrochen. Für ein Foto von der Brandung am Strand habe ich einmal 20 Versuche gebraucht, und das Ergebnis war nicht besonders. Hier sind die analogen Kameras endlich einmal klar im Vorteil!

Welche Apps oder Software-Tools sind für die Bearbeitung der Fotos empfehlenswert?

Ich weiß, dass es Software-Tools gibt und wie sie heißen. Für meine Panoramen verwende ich Adobe Photoshop und meinen Kopf.

Die Apps finden Sie für 1,79 EUR in den entsprechenden Stores:

Bildnachweise:
Lomography Sprocket Rocket by Flickr User Boxy Brown’s Bling
Polaroid Land Camera 360 by Flickr User Peter Pawlowski
Bielefeld Panorama by Andreas Frücht

So entstand die Bielefeld 360 Grad App der Neuen Westfälischen

Screenshot 360 Grad Bielefeld App
Screenshot 360 Grad Bielefeld App

Am Anfang eines jeden neuen Projektes steht die richtige Team-Zusammenstellung. Bei unseren CMS-Projekten werden die Teams vor allem nach der verwendeten CMS-Technologie wie Sitecore oder FirstSpirit zusammen gesetzt. Im Fall der 360 Grad Bielefeld App-Entwicklung setzte sich das Kernteam nach den Anforderungen der Neuen Westfälischen aus drei Personen zusammen, die besonders gut zum Bereich Web-Anwendungsentwicklung passen:

John Gibbon als Web-Entwickler, Daniel Blomeyer als Frontend-Entwickler und Markus Plauschinn war der verantwortliche Projektmanager.

Die App selber können Sie hier für 1,79 EUR herunterladen:

Wer macht was?

Kurz gesagt: WebEntwickler_innen bauen die eigentliche App auf – die Anwendung eben. Frontend-Entwickler_innen sorgen dafür, dass die App gut aussieht und vor allem gut benutzt werden kann und Projekt-Manager_innen sind die Schnittstelle zwischen Kunde und comspace. Sie sorgen für die Abstimmung der Anforderungen, geben Lösungsansätze die durch Entwickler_innen erarbeitet werden an die Kunden zurück, erstellen den Projektplan und behalten ein Auge auf die Einhaltung von Terminen.

Ausführlich können Sie sich in diesem Artikel über die Berufsportraits informieren

Das heißt im Falle der Bielefeld 360 Grad App

Stefan Gerold von der Neuen Westfälischen stellte uns einen ersten Entwurf als Ausgangslage für den Aufbau der App vor. Diese bestand aus einer Webseite, die die grundsätzlichen Funktionen und erste Panorama-Fotos enthielt. Auf dieser Basis entstand eine technische Konzeption, die das spätere Endprodukt zum 800 Jahre Jubiläum der Stadt Bielefeld beschrieb.

Die technische Konzeption ließ uns die besonderen Herausforderungen erkennen, für die wir individuelle Lösungen entwickeln mussten:

  • Ansicht und Navigation durch Panorama-Bilder
  • lange Ladezeiten durch große Panoramas vermeiden – Zielgröße der App kleiner als 50MB
  • Bielefeld 360 Grad soll in verschiedenen Größen in Hoch- und Querformat dargestellt werden (auf Smartphones und Tablets verschiedener Größen)

Neben den Basisanforderungen wie Menü-Steuerung, Hilfe- und Infoseiten haben wir aus der vorliegenden Lösungsskizze die genauen Anforderungen rückwärts abgeleitet (re-engineered). Dann wurde zunächst einmal eine Web-Anwendung erstellt, die auf stationären Rechnern entwickelt wurde. Begonnen wurde mit dem Rahmen und der Navigation. Dann folgten die ersten Bielefeld-Panoramen um die App benutzbar zu machen. Die mobile Anwendung wurde zunächst einmal nur simuliert. Aus dieser Entwicklung entstanden dann die einzelnen Lösungsansätze, mit denen wir die Darstellung der großen Bielefeld-Panoramas ermöglichten:

  • Wir zerschnitten die Panoramas in Einzelbilder, die später in der App wieder zusammen gesetzt dargestellt werden, wie man es bsw. von Google Maps kennt
  • Um eine flexible Darstellung auf unterschiedlichen Bildschirmgrößen zu ermöglichen wurden die Markierungen neu gesetzt, mit deren Hilfe sich Benutzer_innen auf ihrem Bielefeld-Rundgang durch die einzelnen Panoramas navigieren
  • Bildergalerien und Zusatzinformationen wurden den Orten im Panorama zugeordnet und über eine Menüfunktion zugänglich gemacht
  • Radio Bielefeld steuerte Tonspuren bei, die automatisch abgespielt werden sollen, wenn ein Panorama angeklickt wird. Hierzu benötigte die App eine eigene  Abspielfunktion für Audiodateien
  • Das führte zu einem zusätzlichen Button um den Ton schnell an und aus zu schalten

Nachdem die erste funktionierende Web-App mit entsprechenden Funktionen stand, fütterten wir das Cordova-Framework mit dem Projektergebnis. Dieser Werkzeugkasten zur Webentwicklung, der mittlerweile zu Adobe gehört, hält den Aufwand gering, um aus einer Web-Anwendung eine lauffähige App für verschiedenste Smartphone-Systeme zu erzeugen.

Danach ging eigentlich alles ganz schnell: Der erste Stand wurde durch uns präsentiert und in mehreren Feedbackrunden nah am Kunden wurde mit der NW die App fertig entwickelt. Dabei wurden vor allem viele kleine Änderungen Schritt für Schritt durchgeführt, wie die Gestaltung des App-Icons, Testinstallationen auf verschiedenen Geräten usw.

Wie kommt die App in den Store?

Hier kommt das eigentlich aus dem voran gegangenen Absatz zum Tragen, denn von der Fertigstellung der App, der Freigabe durch den Kunden bis zur tatsächlichen Verfügbarkeit im Appstore (besonders bei Apple) vergehen gerne einmal zwei bis drei Wochen. Sollte Ihre App also zeitkritisch sein – bsw. für eine Messe oder ein Jubiläum, planen sie ausreichend Zeit für das Einstellen in die App-Stores ein. Mittlerweile ist es sowohl im Apple wie auch im Android Store möglich, eine automatische Veröffentlichung nach Freigabe zu deaktivieren. So lässt sich ein gleichzeitiger Launch verschiedener Versionen realisieren.

Weitere Einblicke in die Entstehung der Bielefeld 360 Grad App erhalten Sie in den kommenden Tagen zu folgenden Themen:

  • Wie entstand die Idee zur App – Interview mit Stefan Gerold von der NW
  • Panorama Fotografie was ist das eigentlich – Fotograf Andreas Frücht erklärt
  • Die Berufe hinter der App: Anwendungsentwickler, Frontent-Developer, Projektmanager
  • Elsa-Brändström-Straße 2-4:  Eines der Panoramas über den Dächern Bielefelds entstand auf dem Dach von comspace

c42 – das firmeninterne comspace Barcamp

Human beings, who are almost unique in
having the ability to learn from the experience
of others, are also remarkable for their
apparent disinclination to do so.
Douglas Adams, „Last Chance to See“

Mit diesem Zitat wurde eine Veranstaltung eingeleitet, die uns in Zukunft regelmäßig einer Antwort auf die folgende Frage näher bringt: Wie sammelt und verteilt man Wissen im Unternehmen? Unsere gut 60 Mitarbeiter_innen sind sowohl beruflich wie auch privat in vielen Gebieten Experten_innen. Doch jedes Unternehmen steht vor der Herausforderung, diesen Schatz an implizitem Wissen zu heben und in der Firma zu teilen.

Pläne für solch einen gegenseitigen Wissenstransfer gab es schon häufiger, doch im Sommer haben unsere Kollegen Ferit und Tilmann dann Nägel mit Köpfen gemacht. Sie starteten eine firmeninterne Guerilla-Aktion, die Spannung, Interesse und (anfängliche) Ratlosigkeit bei uns allen verursachte.

c42-guerilla-aktion-comspace-eingang

Es begann eines Sommermontagmorgens als plötzlich in unserem Eingangsbereich DIN-A4 Zettel mit der Aufschrift c42 klebten. c42 – dies ist der Titel der Veranstaltung, wie sich später herausstellen sollte – hielten wir zu dem Zeitpunkt alle noch für eine Information für jene Bauarbeiter, die zu der Zeit am Gebäude arbeiteten. (Sie hatten freundlicherweise just an diesem Morgen tatsächlich auch einige Schilder platziert). Einige Tage später tauchten dann ominöse c42-Zettel auch innerhalb unser Räume an Wänden, Waschraumspiegeln und an Arbeitsplätzen auf. Doch niemand wusste, was es damit auf sich hatte. Und diejenigen, die etwas wussten, hielten dicht. Die Fragezeichen, was sich hinter der geheimnisvollen Zeichenkombination verbarg, wurden immer größer.

c42-innen-guerilla-aktion

Dass die gesamte Guerilla-Aktion während des Urlaubs unseres Geschäftsführers Andi durchgeführt wurde, erwies sich übrigens als gute Entscheidung – er erkannte später am Design der bald folgenden c42 Karten, wer dahinter stecken könnte.

Diese Karten tauchten dann als nächste Stufe der Enthüllung auf. Durch sie war relativ schnell klar um was es ging:

c42-vortrags-vorschlaege

Ein monatliches Mini-Barcamp zum Wissensaustausch für comspace Mitarbeiter

Auf den Karten können jeweils 2-3 Wochen vor dem abendlichen c42-Termin die Themen vorgeschlagen werden, zu denen Kolleg_innen etwas erfahren möchten. Zu diesen ausgehangenen Themenwünschen finden sich Expert_innen aus unserem Unternehmen, die einen 14-minütigen Vortrag vorbereiten.

So fanden nun mittlerweile bereits zwei c42 Veranstaltungen bei comspace statt, in denen wir mehr über die Themen Enterprise Search, Automatische Webseiten-Personalisierung mit Sitecore, Datenschutz, Employer Branding, Software-Architektur und Qualitätsmanagement erfahren haben. Die einzelnen Beiträge werden zum Abschluss der Veranstaltungen mit CI-konformen Lego-Steinen bewertet. Jeder Gast bekommt 5 Lego-Steine zum Abstimmen und der Sieger-Beitrag einen Amazon-Gutschein. Inhaltlich können wir auf die Vorträge hier nicht genauer eingehen, da die Themen sehr comspace-spezifisch aufbereitet wurden und daher viele interne Informationen enthielten.

c42-LEGO-steine

Zu erwähnen sei noch der Einsatz unserer Kollegen Ferit, Tilmann, Michael und Tim die ca. 80 Stunden Eigeninitiative in das Projekt investiert haben und wir uns bereits auf die 3. Ausgabe von c42 freuen, die heute am 30.10. stattfindet!

Übrigens:

14 Minuten x 3 Vorträge = 42 Minuten 😉

Und hier schließt sich der Kreis zum Zitat-Geber vom Anfang dieses Beitrags: 42 war die Antwort auf die Frage nach “dem Leben, dem Universum und dem ganzen Rest”, die der britische Autor Douglas Adams in seinem Roman Per Anhalter durch die Galaxis geben ließ.

 

Automatische Personalisierung von Webseiten oder: BENUTZ HAMSTER MIT MIKROWELLE

Maniac Mansion Screenshot (tentakelvilla.de)

Eine Frau kam eines Tages zu Gandhi und sagte: „Gandhi, bitte sage meinem Sohn, er soll keinen Zucker mehr essen!“ – Gandhi sah die Frau und ihren kleinen Sohn kurz an und meinte dann: „Komm in 2 Wochen wieder“. Die Frau war enttäuscht, denn die Reise war lang und sehr hart gewesen. Diese in 2 Wochen noch einmal anzutreten würde sie sehr viel Kraft und Geld kosten. Aber sie tat es.

Nachdem zwei Wochen vergangen waren stand sie wieder vor Gandhi. Der beugte sich zum kleinen Sohn herunter und sagte: „Junge, iss keinen Zucker mehr.“

Die Frau wurde böse: „DAFÜR sollte ich nun die gleiche Reise nach zwei Wochen noch einmal machen? Warum konntest Du das nicht schon beim letzten Mal sagen?“ Und Gandhi sagte: „Erst musste ich doch selber aufhören Zucker zu essen.“

Was hat Gandhi mit automatisch personalisierten Webseiten zu tun?

Ein ganz, ganz wichtiger Punkt um das Potenzial von personalisierten Webseiten voll auszuschöpfen ist es, dass Sie sich in Ihre Besucher hineinversetzen und mit deren Augen sehen. So wie Gandhi sich zunächst selber das Zuckeressen abgewöhnen musste, um darüber mit dem kleinen Jungen zu sprechen.

Was sie in diesem recht langen Artikel, der die schriftliche Version eines Vortrags auf der dmexco 2014 ist, noch erfahren werden, habe ich Ihnen hier einmal zusammen gefasst:

  • Gleichen Sie Ihr Angebot mit dem Bedarf des Kunden ab
  • Sehen Sie das Verhalten des Nutzers vorher
  • Planen Sie Klickverläufe

tl;dr: Durchlaufen Sie verschiedene Wege, die Ihre verschiedenen Benutzer durch Ihre Webseiten führen. Testen Sie verschiedene Klickpfade und Konversionsziele. Wird der Bedarf der Besucher gedeckt und die Erwartungen erfüllt? In diesem Artikel finden Sie einige einfache Beispiele und Werkzeuge, wie Sie das Potenzial für Personalisierung in Ihren Webseiten evaluieren und Nutzerverhalten vorhersehen können.

Was hat ein Hamster in der Mikrowelle damit zu tun?

Dazu kommen wir gleich. Lassen Sie mich vorher kurz aufdröseln, was wir mit personalisierten Webseiten, die sich automatisch und nach vorher festgelegten Regeln auf das Nutzerverhalten anpassen,  überhaupt erreichen können:

Komplexität verringern 

Sagt Ihnen der Begriff Decision Fatigue – bzw. Paradox of Choice etwas? Wissenschaftler gehen davon aus, dass wir mit einem festen Level an „Entscheidungsenergie“ in den Tag starten. Diese Energie nimmt mit jeder Entscheidung, die wir im Laufe des Tages treffen müssen ab. Es fällt uns immer schwerer neue Entscheidungen zu fällen und irgendwann wehren wir uns sogar vollständig dagegen noch weitere Entscheidungen zu machen.

Marmeladen-Paradox-of-Choice
(cc) Flickr-User Hellebardius

Dazu gab es im Jahr 2000 ein interessantes Experiment – das Marmeladen ExperimentIn einem Supermarkt wurden den Kunden an einem Tag 24 Sorten Marmelade angeboten und am nächsten Tag nur 6 Sorten. Das Ergebnis war verblüffend:

  • 24 Marmeladen zogen 60% der Kunden zum Stand. Aber: Nur 2% kauften. Die Auswahl war zu komplex.
  • 6 Marmeladen zogen nur 40% der Kunden an. Doch 12% der Kunden kauften aufgrund der einfacheren Entscheidungsfindung.

Personalisierte Webseiten können überflüssiges für den Kunden ausblenden, damit Entscheidungen leichter gefällt werden können.

Besucherverhalten steuern

Wenn wir eine Webseite mit einem speziellen Konversionsziel bauen, dann möchten wir dieses Ziel so oft wie möglich erreichen. Nehmen wir das Beispiel aus der u.s. Grafik: Der Benutzer soll sich zu einer kostenlosen 30-Tage-Demo anmelden. Der Nutzer wird zwischen verschiedenen Infoquellen immer wieder hin und her springen. Dabei auch unsere Kanäle verlassen und wieder zurückkehren.

Sitecore Customer Journey

 

Wir haben nun die Möglichkeit, unsere kostenlose Demo an unterschiedlichen Stellen und Arten immer wieder in den Fokus des Kunden zu bringen. Mit Anmeldekästen, Head-Bannern, kurzen Testimonials usw. bis der Besucher sich anmeldet

Ebenso können wir festlegen ab wann wir den Besucher nicht mehr oder nur noch weniger „nerven“ um eine Übersättigung zu vermeiden.

Bildschirmfoto 2014-09-04 um 12.46.23
Upgrad-Angebot im blauen Kasten kann nach Abschluss bsw. ausgeblendet werden

Wenn der Kunde schlussendlich unser Konversions-Ziel erfüllt hat, stellen wir die Erinnerungen daran ganz ab.

Wir erreichen so weniger komplexe Webseiten, die unsere Kunden einfacher Entscheidungen treffen lassen.

Wechselnde Geräte und Kanäle sind ein weiterer Anwendungsfall. Je nach erkanntem Gerät können andere Produkte, Inhalte oder Daten angezeigt werden. Nutzt jemand die Webseite der Deutschen Bahn bsw. mit dem Smartphone sind Unternehmensbeschreibungen vermutlich irrelevant – umso wichtiger dafür die aktuellen Fahrpläne. Ebenso können Textbausteine für große Bildschirme länger und umfangreicher sein, wobei dem Nutzer auf dem Smartphone-Display Übersicht und Muße zum Lesen fehlen.

Individuelles Storytelling

Diesen Punkt sehen wir uns gleich noch genauer an. Durch die vorab fest gelegten Klickpfade in einer automatisch personalisierbaren Webseite, lassen sich ganze Geschichten erzählen, drehbuchartig orchestriert. Mehr noch: Wir können unsere Nutzer quasi wie in einem Adventure-Computerspiel verschiedene Wege nehmen lassen, bei denen sich die Webseite an die individuellen Entscheidungen des Besuchers anpasst.

Das neue SEO?

Vermutlich ist es nicht zu weit aus dem Fenster gelehnt, wenn ich sage: Automatische Personalisierung könnte das neue SEO werden. Die Komplexität in den Einflussfaktoren ist vergleichbar hoch, die Auswirkungen vergleichbar gut und messbar.

Mit zwei wesentlichen Unterschieden:

  1. Im Bereich der SEO sind wir von den Vermutungen und Erkenntnissen abhängig, die wir über die Black-Box Suchmaschine erhalten
  2. Bei der Personalisierung spielt sich der Großteil unserer Anpassungsmöglichkeiten auf unseren eigenen Seiten ohne Einflüsse von außen ab

Wonach lässt sich personalisieren?

Die Faktoren sind schon heute irrsinnig komplex. Bereits in der Einzelbetrachtung. Hinzu kommen natürlich noch unendlich viele Möglichkeiten Einzelbedingungen miteinander zu kombinieren.

  • Handelt es sich bei einem Besucher um einen neuen Besucher oder um einen Wiederkehrenden? Ist der Benutzer angemeldet oder anonym? Habe ich CRM-Daten verknüpft?
  • Kommt der Klick aus meinem Newsletter? Dann zeige ich die dort geteaserten Angebote an und blende das Anmeldefenster für den Newsletter aus
  • IP-Adresse / Geo-Position können Maßgabe sein um landestypische Inhalte anzuzeigen oder auszublenden
  • Wetter am Ort des Besuchers: Verkaufe ich Skier und Surfbretter und am Standort meines Nutzers schneit es seit einem Tag sind eventuell Skier interessanter
  • Facebook-Fan JA/NEIN? Im Falle von NEIN zeigen wir unser „Werde Fan“-Banner an
  • Endgerät entscheidet darüber ob umfangreichere Texte angezeigt werden. Hochpreisige oder preiswerte Endgeräte können über das angezeigte Angebot entscheiden

Zwei Beispiele für automatische Personalisierung

Seitenbereiche nach Klickverhalten anpassen

In diesem Sitecore Beispiel wird dem Benutzer zunächst eine Webseite mit typischen Badeurlaub-Szenarien angezeigt:

Sitecore Webseiten Automatisierung Beispiel 1

Unser Beispielnutzer klickt nun aber nicht auf den Strand oder die Palmen, sondern interessiert sich für San Francisco. Wir haben vorher festgelegt, dass in diesem Fall ein anderer Klickpfad zur Verfügung gestellt wird und sich die 3 Themen-Angebote oben entsprechend darauf einstellen.

Die drei Kurzteaser wechseln vom Thema Strandurlaub zum Thema Städtereisen und stellen sich damit auf das vermeintliche Interessengebiet des Nutzers ein. (Auch um dieses Verhalten wieder rückgängig zu machen lassen sich Regeln erstellen):

Sitecore Webseiten Automatisierung Beispiel 2
Sitecore Webseiten Automatisierung Beispiel 2

Inhalte automatisch nach Benutzer-Standort anpassen

Dieses Beispiel stammt aus einem unserer eigenen Sitecore-Projekte für unseren Kunden Dornbracht. Dornbracht ist Premium-Hersteller u.a. für luxuriöse Badausstattungen und hat in diesem Zusammenhang eine Liegedusche im Portfolio, die Horizontal Shower. Dieses Produkt wird mit einer sehr stimmungsvollen Photographie auf der Webseite vorgestellt.

Inklusive einer unbekleideten Person, die gerade die Liege-Dusche verwendet:

Bildschirmfoto 2014-08-28 um 17.17.38

Nun ist es so, dass in manchen Teilen der Welt solche Abbildungen – auch im seriösesten Zusammenhang – als anstößig empfunden werden. Zum Beispiel im arabischen Raum, in dem sich auch ein relevanter Zielgruppenanteil für die Horizontal-Shower befindet. Wir haben also eine Lösung entwickelt, die nach 2 Kriterien entscheidet, wann eine Alternative angezeigt werden soll: Zum einen über die eingestellte Sprache (Englisch im arabischen Sprachraum) und die IP-Adresse.

Im Falle einer positiven Identifizierung wird die Webseite also mit folgender Abbildung ausgeliefert:

Bildschirmfoto 2014-08-28 um 17.17.11

Vorhersehen des Nutzerverhaltens

Eben habe ich schon einmal den Vergleich zum Thema SEO heran gezogen. Es gibt noch nicht viele Best Practices für umfangreich automatisierte Webseiten. Wir sprechen hier immer noch von einer Zukunftstechnologie – auch wenn die technischen Voraussetzungen bereits realisierbar sind.

Darum möchte ich zwei Beispiele aus dem Umfeld der Suchmaschinenwerbung heranziehen um zu demonstrieren, wie das Leben des Benutzers erleichtert werden kann und was es heißt, Nutzerverhalten vorhersehen zu können.

SEO = maschinenfokussiert – SEA = menschenfokussiert

Natürlich entwickelt sich SEO ständig weiter. Es wird zum einen komplexer und spezieller, zum anderen kommt man um SEO-Maßnahmen heutzutage nicht mehr herum. Mit Ausnahme vielleicht, wenn man keinen Wettbewerb hat.

Aber: SEO bezieht sich in den allermeisten Fällen auf den Umgang mit Rechnern, Suchmaschinen, Algorithmen. Deswegen wird das Thema Content Marketing immer wichtiger: Beim Content Marketing steht der Mensch, der Nutzer und Adressat des Contents im Mittelpunkt.

Beim SEA (also dem Suchmaschinen-Advertising) war – wie bei allen Werbeformen – der Mensch schon schon immer der zentrale Punkt. „Der Köder muss dem Fisch schmecken.“

Suchmaschinenwerbung über den Ort

Eine Möglichkeit der Personalisierung ist bsw. der Zielort einer Suche. Im folgenden Beispiel wurde nach Ferrari fahren Hamburg“ gesucht. In den darauf folgenden Suchergebnissen war eine auf Ferrari und Hamburg optimierte Landingpage angezeigt sowie eine auf die Suchbegriffe abgestimmte Google-Ads-Anzeige geschaltet.

Beide (rudimentär) personalisierten Wege führen den Besucher nun auf die entsprechende Webseite beim Anbieter, auf der nur Ferraris (statt Porsche) angezeigt werden, die in Hamburg verfügbar sind (statt auch in München bsw.). Im Dropdown-Menu ist Hamburg als Ort auch bereits vorausgewählt.

 

Dem Benutzer wird in diesem Fall vor allem zusätzliche Arbeit des Klickens abgenommen.

Königsklasse der Vorhersehung von Nutzerverhalten

Zugegeben, dieses Beispiel war sehr einfach. Ein meisterhaftes Stück in Sachen Nutzerverhalten antizipieren hat Alec Brownstein 2010 mit seinem Google Job Experiment gezeigt:

Alec sagte für sein „Projekt“ das Nutzerverhalten des Ego-Surfing voraus. Seine Zielgruppe bestand dabei nur aus 5 Personen: Er legte Google-Ad-Anzeigen auf die Namen der CEOs der 5 Top-Werbegenturen an. Wenn diese 5 Werbeagenturchefs nun sich selber googleten, wurde die Anzeige angezeigt (und wer klickt denn bitte schön nicht auf eine Anzeige, die den eigenen Namen enthält?) und führte auf Alex Brownsteins Bewerbung um einen Job in einer der Agenturen.

Bei 4 der 5 CEOs bekam Alex ein Vorstellungsgespräch. Daraus entstanden 2 Jobangebote. Eines davon nahm Alec an. Keine schlechte Konversion oder? 😉

Der Kostenaufwand betrug 6 Dollar.

Der Hamster ist ein historisches Meisterstück des Vorhersehens von Nutzerverhalten

Hervor gebracht hat dieses Meisterstück Ron Gilbert im Jahr 1987. Ron ist der Erfinder des Computerspiels Maniac Mansion. Und damit auch (Mit)-Erfinder des Genres Point-And-Click-Adventure. Die älteren unter uns erinnern sich hoffentlich noch an den guten, alten Commodore C-64 😉

(c) Lucas Arts - Poster Maniac Mansion, Zac McKracken, Monkey Island
(c) Lucas Arts – Poster Maniac Mansion, Zak McKracken, Monkey Island

Im Spiel Maniac Mansion musste man sich seinen Weg mit verschiedenen Spielfiguren durch ein verrücktes Spukhaus bahnen, das zudem von verrückten Aliens bewohnt wurde.  Ziel des Spiels war es die Freundin der Hauptfigur aus den Händen eines verrückten Wissenschaftlers zu befreien (haben wir ja alle schonmal erlebt, oder?).

Ron Gilbert hat letztens seinen alten Lagerraum aufgeräumt und dabei mit den Maniac Mansion Design Notes historische Relikte der Computerspielgeschichte wieder entdeckt, die uns heute durchaus als Vorlage und Best-Practices für die automatische Personalisierung dienen können.

So hat er bsw. die Original-Zeichnungen und Designdokumente veröffentlicht. So schön diese anzusehen sind, ist für uns aber wichtiger, wie vor über 25 Jahren die Planung des Spielablaufs von statten ging. Eines der Dokumente zeigt zum Beispiel wie die einzelnen Räume des Hause (heute auch Webseiten) miteinander verbunden sind und welche Figuren dort auf den Spieler (heute Inhalte) warten:

mm_design_3

Je nach Sympathie und Handlungen des Spielers reagierten die Persönlichkeiten in den Räumen unterschiedlich. Zu den reinen Räumen, Inhalten und Interaktionsmöglichkeiten kamen noch Emotions-Bedingungen hinzu:

mm_design_4

Schließlich wurden im Puzzle Dependency Charts die Bedingungen festgelegt, wann in welchen Räumen was passieren muss um die nächsten Schritte zu ermöglichen. In diesem Fall hier musste in einem Raum ein Schlüssel gefunden werden und in einem weiteren eine Kanne mit Öl. Der Schlüssel schloss die Kellertür auf, das Öl aus der Kanne machte die Tür wieder beweglich. So können auch verschiedene Bedingungen auf Webseiten zusammen „geschaltet“ werden, um eine weitere Aktion zu ermöglichen oder Interaktions-Möglichkeit anzuzeigen.

Bildschirmfoto 2014-09-10 um 13.28.08

Maniac Mansion ließ den Spieler eine Menge verrückter Dinge tun, die sich nicht unbedingt alle auf den eigentlichen Spielerfolg auswirkten. Dabei hat Ron Gilbert die skurrilsten Handlungen vorhergesehen.

Der arme Hamster

Kommen wir endlich zu unserem Beispiel-Nagetier:

Maniac Mansion Screenshot (tentakelvilla.de)
Maniac Mansion  (c) Lucas Arts Screenshot – Tentakelvilla.de

Man beachte das Poster an der Wand: Auf dem Poster neben der Tür des virtuellen Zimmer ist eine sehr vereinfachte Variante des Entscheidungsbaums der im Spiel zum Einsatz kommt abgebildet!

Zwischen diesem Poster und der Tür befindet sich der besagte Hamster in seinem Käfig. Diesen konnte man als Spieler mit dem Klick auf NIMM und dann das Objekt Hamster mitnehmen.

In der Küche des Maniac Mansion angelangt war es dem Spieler möglich, den Hamster in die Mikrowelle zu legen und das Küchengerät einzuschalten. Sehr morbider Humor. Zugegeben. Vermutlich würde sich das heute auch kein Spielehersteller mehr trauen.

Maniac Mansion gekochter Hamster (tentakelvilla.de)
Maniac Mansion gekochter Hamster (c) Lucas Arts – Screenshot Tentakelvilla.de

Es zeigt aber, wie gut Ron Gilbert damals bereits das Nutzer- bzw. Spielerverhalten vorhersehen konnte. Schließlich hatte die ganze Koch-Aktion des Hamsters überhaupt keinen weiteren Sinn im Spiel.

Was zeigt uns der Hamster für unsere Webseiten?

Mit einem gut und detailliert ausgearbeiteten Entscheidungsbaum lässt sich nicht nur Nutzerverhalten antizipieren, sondern eine Geschichte erzählen, die den Besucher ins Geschehen einbezieht, Bindung aufbaut und Begeisterung erzeugt. Wir können Fälle entdecken, die uns sonst nicht auffallen würden und das Verhalten der Webseite daran anpassen:

Was soll der Besucher im Fall X anderes sehen, als im Fall Y und welches Verhalten führt zu Fall Z?

„Das ist doch alles furchtbar viel Arbeit!“ höre ich Sie jetzt sagen. Und ja, Sie haben Recht. Webseiten zu personalisieren ist zu Anfang ein großer Brocken Arbeit und im folgenden ein stetiger Prozess. Der meiste Teil dieser Arbeit findet dabei im Kopf des Marketings-Teams statt.

Die gute Nachricht ist:

Es gibt einfache Werkzeuge um die geleistete Denkarbeit in die Webseite zu übertragen. Den Sitecore Engagement Plan zum Beispiel:

Sitecore Engagement Plan
Sitecore Engagement Plan

Das kommt Ihnen nun sicher bekannt vor? Unterscheidet sich vom Prinzip her nicht sonderlich von den Maniac Mansion Design-Dokumenten aus 1987.

Mit Sitecores Rule Editor werden Bedingungen für das Nutzerverhalten auf der Seite erstellt. Das Tool ist genauso leicht zu bedienen, wie der Filter-Assistent von Microsoft Outlook.

Sitecore Rule Editor
Sitecore Rule Editor

Zukunftsausblick

Es ist sicher nicht allzu vermessen davon auszugehen, dass Content Management Systeme in Zukunft in der Lage sein werden nach vorher festgelegten Algorithmen zu lernen und sich automatisch selbst an das Verhalten der Nutzer anzupassen. Amazon ist hier ja bsw. ein sehr bekannter Vorreiter („Kunden die diesen Artikel gekauft haben, kauften auch…“) Allerdings ist ein Algorithmus im weitesten Sinne und auf seine Grundbestandteile reduziert auch nichts anderes als ein Entscheidungsbaum, den man sich vorher im Kopf überlegt hat.

Unser praktischer Tip zum personalisieren von Webseiten daher:

Machen Sie es wie Gandhi. Versetzen Sie sich gedanklich in Ihre verschiedenen Benutzer und spielen Sie Ihre Webseite durch.

Dokumentieren Sie das Verhalten der Webseite mit einfachsten Mitteln: Zettel & Stift

Werkzeug zur Planung automatisierter Webseiten
Werkzeug zur Planung automatisierter Webseiten

Erstellen Sie so Entscheidungsbäume und Klickpfade, anhand derer Sie erkennen, wo Ihnen eine automatisch personalisierte Webseite einen Wettbewerbsvorteil in Form von mehr Umsatz, Einsparungen von Arbeit und Zeit sowie zufriedeneren Kunden bringen kann.

Ach und noch eine Sache:

Bei der Entwicklung solcher Klickdiagramme entdecken Sie möglicherweise auch unterhaltsame und skurrile Interaktionen wie den Hamster in der Mikrowelle. Solche Easter Eggs haben durchaus  das virale Zeug dazu, Ihre Besucher so zu begeistern, dass sie über 25 Jahre später noch an das Erlebnis auf Ihrer Webseite denken 😉 Das einfachste Beispiel ist hier wohl die Google-Sucheingabe „do a barrel roll“ oder falls Sie iPhone-Nutzer sind, stellen Sie Siri einmal die Frage: „Siri, was sagt der Fuchs?“ und danach fragen Sie einfach noch einmal 🙂 

 

Wenn Sie mehr über die Möglichkeiten von automatisch personalisierten Webseiten erfahren möchten, vereinbaren Sie hier ein unverbindliches Beratungsgespräch mit unseren Experten.

 

Was wurde eigentlich aus dem Hamsterkiller?

Die Auflösung bin ich Ihnen ja noch schuldig. Natürlich war der kleine Handlungsstrang mit dem gekochten Hamster in der Küche noch nicht beendet.

Geht man mit dem gekochten Hamster zurück in das Zimmer, aus dem man das Tierchen entwendete, steht dort Ed, der außerirdische Hamsterbesitzer neben dem leeren Käfig.

hamstergrill_11
(c) Lucas Arts – Screenshot von Tentakelvilla.de

 

Gibt man Ed nun den gekochten Hamster zurück, nimmt das Spiel ein jähes und berechtigtes Ende. Soll niemand sagen, dass Hamstermord nicht bestraft wird!

hamstergrill_12
(c) Lucas Arts – Screenshot von Tentakelvilla.de

Übrigens: Ron Gilbert ist einer der wenigen Menschen, der sich einmal (trotz vorheriger und eingehender Warnung dies nicht zu tun) mit Steve Jobs gestritten hat. Diese wunderbare Geschichte gibt es wie viele weitere Einblicke in die wunderbare Welt der Computerspiele drüben auf seinem Blog grumpygamer.com.

Den vollständigen Spielverlauf von Maniac Mansion in einzelnen Screenshots können Sie sich hier anschauen.

 

Sitecore CMS in der Cloud mit Microsoft Azure – Ein Fallbeispiel

Microsoft Azure Infografik

Ein Enterprise CMS-System wie Sitecore in der Cloud zu betreiben macht in vielen Fällen Sinn. Insbesondere bei regelmäßigen Lastspitzen oder bei weltweit verteilt betriebenen Webseiten. Azure ist Microsofts Cloud-Lösung, bringt automatisches Deployment von Webservern mit und unterstützt natürlich auch Microsoft SQL Datenbanken. Da Sitecore auf Windows-Server-Plattformen läuft, bietet sich hier eine genauere Prüfung einer kombinierten Lösung an.

Microsoft Azure Infografik
Microsoft Azure Infografik

Ein solches Vorhaben bringt einiges an Fragen, Anforderungen und Herausforderungen mit sich. Deswegen führten wir ein Testprojekt durch, bei dem unsere Kollegin Friederike die Kopie eines Kundenprojekts in die Azure Cloud umzog, um valide Erfahrungen mit dieser speziellen Lösungs-Kombination zu sammeln. Diese Erfahrungen haben wir in einem Test-Tagebuch festgehalten, aus dem wir Ihnen hier die wichtigsten Erkenntnisse vorstellen möchten.

Alles ist ein Service

Mittlerweile gibt es tatsächlich die Abkürzung XaaS bzw. EaaS – „Everything as a Service“ als Überbegriff für all die Leistungen wie Software, Plattformen, Infrastrukturen, Laufzeitumgebungen, Hardware und viele mehr, die sich als Services buchen und on demand beschaffen lassen.

Die generellen Hauptvorteile für Kunden beim Einsatz einer Cloud-Strategie sind:

  • Keine Bindung an physische Güter
  • Aktualität und Leistung von Hardware immer ausreichend
  • flexible Abrechnung nach Nutzungsintensität, -Dauer, Nutzeranzahl
  • keine Kapital-Bindung
  • geringe bis keine Wartungskosten

Die eingangs gezeigte Infographik von Microsoft (hier zum Download als PDF) illustriert sehr gut, welche Gesamtmöglichkeiten die Microsoft Azure Cloud-Services bieten. Wir konzentrieren uns hier auf einen kleinen Teilbereich.

Sitecore CMS in der Cloud – IaaS

Eine Telko mit dem Azure Vertrieb brachte zunächst Überraschendes hervor: Das Aufsetzen einer Sitecore Instanz dauert nur 7 Minuten. Weltweit! Das ist erstmal schwer zu glauben, stellte sich aber als Tatsache heraus.

Microsoft-Azure-Uebersicht

Aber: Das bedeutet im einzelnen das hinzu schalten / hochfahren einer weiteren Sitecore CD Instanz dauert 7 Minuten. Das basiert allerdings auf einer vollständig konfigurierten Publizierungsinstanz / Deployment Center. Dieses vorzubereiten und aufzusetzen (Sitecore Installation) und dann zu konfigurieren dauert natürlich länger. Diese Arbeit hätte man aber auch bei einer Installation im eigenen Rechenzentrum.

In einem unserer Testläufe haben wir Azure als IaaS (Infrastructure as a Service) getestet. Zum einen kann ein virtueller Server als „Quick Create“ aufgesetzt werden. Diesen kann man sich wie einen frisch installierten Rechner vorstellen.

Interessanter sind für uns in diesem Fall die vorkonfigurierten Server-Images aus einer Gallery. Wir entscheiden uns für Option A3 mit 4 CPU-Kernen und 7 Gigabyte Arbeitsspeicher. Übrigens ist als Serverstandort in Westeuropa nur Amsterdam oder Dublin möglich. Eine Standort-Option in Deutschland gibt es (zumindest noch) nicht.

Die Installation von Sitecore lief für unsere Experten an sich problemlos. Einzig an einigen Stellen musste die Dokumentation konsultiert werden:

  • diverse Module für den IIS Webserver nachinstallieren
  • Datenbankuser korrekt anlegen
  • korrekte Portangabe setzen

Kosten für den Installationsvorgang auf der virtuellen Maschine: 0,21 €

Zitat aus unserer Technik: „Hier habe ich genau die gleichen Malessen mit Lizenzen, Updates, Wartung, Administrierung wie im eigenen Rechenzentrum. Nur das Blech habe ich in diesem Fall nicht.“

Mehr können Sie dazu hier in der Dokumentation bei Microsoft erfahren.

Azure SQL wird in die Cloud ausgelagert – SaaS

Hier liegt nur die Datenbanksoftware in der Cloud. Dadurch wird das zu Grunde liegende Betriebssystem irrelevant. Dabei unterliegt Azure SQL einigen Unterschieden zur Microsoft SQL, wodurch sich die Datenbanken nicht so einfach migrieren ließen wie gewohnt.
In diesem SaaS-Fallbeispiel wird also nur ein Softwarebestandteil in der Cloud genutzt.
Wenn die Windows-Server sowieso zur Verfügung stehen, haben wir für dieses Modell keine direkte Anwendungsmöglichkeit in unserem Umfeld gefunden.

Sitecore CMS in der Cloud – PaaS

Sicherlich das spannendste Szenario. Hierzu haben wir zunächst die virtuelle IaaS Maschine kopiert und als Deployment Center benutzt. Natürlich hätten wir hierfür auch einen bereits lokal und physisch vorhandenen Server hernehmen können.

Sitecore Azure Traffic Manager

Dann wurde eine Kopie der Daten des Kundenprojekts, die wir freundlicherweise für unseren Test nutzen durften, in das Projekt migriert. Nach ca. einem Tag war die Migration der Daten (Languages, Templates, CoreDB, Files Package, Database Package und Configs) erfolgreich durch.
Sitecore wurde auf die aktuellste Version upgegradet.
Das Azure Modul wird schlussendlich installiert und konfiguriert.
Danach kann innerhalb von 7 Minuten per Klick ein Server hochgefahren werden. Ob in Hongkong, Dublin oder Australien ist dabei quasi unerheblich.
In diesem Fall liegt alles was wir benötigen bereits vorinstalliert als „Plattform“ in der Cloud:
  • Betriebssystem
  • IIS Webserver
  • lauffähiges Sitecore
  • und Datenbank als SaaS oder Datenbank-Server oder im eigenen Rechenzentrum“

Wenn der DNS-Eintrag auf den Azure Traffic-Manager und die Routings entsprechend angepasst sind, werden bspw. Anfragen aus Südostasien deutlich schneller bedient, als wenn diese Besucher auf einen Webserver in Deutschland geroutet würden, da der Traffic Manager als Geo-DNS fungiert und den Traffic intelligent je nach Standort der Benutzer umleitet.

Bei besonderen Lastspitzen geht das ganze Procedere übrigens auch automatisch.
Sprich:
Server werden nach Bedarf gestartet, wenn plötzlich der Traffic irgendwo auf der Welt hoch geht. (Wenn zum Beispiel ein Fernsehbeitrag in Australien gezeigt wird.) Genauso können stärkere Maschinen per Termin im Voraus gebucht werden. An Weihnachten, bei einer geschalteten Kampagne oder zum Produkt-Launch. Zum angegebenen Zeitpunkt werden demnach die Serverkapazitäten erhöht und nach Ablauf wieder gesenkt um auf smarte Weise Kosten zu sparen.

Aus welchen Gründen kann eine CMS-Instanz in der Cloud Sinn machen?

  • Admins sparen Hardware, Zeit, Geld, Lizenzen, Wartung. Backups aus der Cloud auf lokale Rechner sollte man sich natürlich trotzdem noch ziehen.
  • Entwickler können schnell mal ein volles Testsystem hochziehen für 1-3 Tage nutzen und dann wieder abschalten. Gezahlt wird zeitgenau abgerechnet anstatt für fünfstellige Summen neue Server zu kaufen.
  • Global verteilte Standorte sind on demand möglich und damit auch eine schnellere Auslieferung an Endnutzer.
  • Plötzlich ansteigender Traffic kann automatisiert und nach fein einstellbaren Regeln abgefangen werden.

Gibt es eine Kostenersparnis?

In unserem Beispiel könnte die Azure-Lösung einige Prozentpunkte günstiger sein als die vorhandene physische Struktur.
Aber:
Ein Umzug in die Cloud wäre ein umfangreiches Projekt, das momentan noch die Einsparungen auffressen würde.
Für neue Projekte könnte eine Cloudnutzung durchaus von Beginn an günstiger sein.

Qualitätssicherungssysteme und Entwicklungssysteme, die nur bei Bedarf genutzt werden, könnten in einem „Pay-as-you-Go“-Bezahlmodell durchaus zukünftig eine Ersparnis bedeuten.

Fakt ist, dass sich Anbieter von Cloudlösungen wie Google, Microsoft und Amazon – um nur einmal die großen zu nennen – quasi ständig neu unterbieten was die Kosten angeht oder den Funktionsumfang für den Kunden erweitern. Damit werden Cloud-Ansätze zunehmend attraktiver.

Unser Fazit:

Die Komplexität eines Cloud-Umzugs ist nicht zu unterschätzen und setzt eine sehr präzise Planung für einen konkreten Use-Case voraus. Je nach Use-Case kann bereits heute eine Kostenersparnis realisiert werden. Performance-Gewinn und -Optimierung ist auf jeden Fall möglich.

Interessieren Sie Details zu unseren Erfahrungen mit Sitecore in der Cloud? Nehmen Sie gerne Kontakt mit uns auf!

Weiterführende Informationen:

In einer hervorragenden 7-teiligen Blog-Serie beschäftigt sich Microsoft Architect Evangelist Holger Sirtl hier bei MSDN mit der Auswahl der einzelnen Ausführungsmodelle von Microsoft Azure anhand von verschiedenen Szenarien:
Teil 1: Überblick über die Ausführungsoptionen
Teil 2: Virtual Machines
Teil 3: Cloud Services
Teil 4: Websites
Teil 5: Mobile Services
Teil 6: Auswahl des besten Ausführungsmodells
Teil 7: Wechsel des Ausführungsmodells

Für die Kostenkalkulation eines Cloud-Projekts hat Microsoft einen Preisrechner veröffentlicht

Monatliche, kostenlose Webcasts zum Thema Azur bietet Microsoft hier an

Fallstudien zu Microsoft Azure finden Sie hier

Eine zusätzliche Beschreibung der Besonderheiten bei der Installation des Moduls Sitecore Azure finden Sie bei den schweizer Kollegen im namics-Blog

IT-basierte Weiterbildung und selbstorganisiertes Lernen

Weiterbildungszertifikate bei comspace

Der Branchenvergleich ist eindeutig: In der ITK-Branche gab es 2011 die meisten Weiterbildungstage pro Mitarbeiter – nämlich 4,5 (gesamter Durchschnitt 2,5). Die wissensintensive ITK-Branche betreibe laut der Studie “einen deutlich höheren Aufwand, die Beschäftigten den sich rasch wandelnden Marktanforderungen gemäß fortzubilden”.

Weiterbildungszertifikate bei comspace
Weiterbildungszertifikate bei comspace

Auch in den deutschsprachigen Blogs sind Weiterbildung und lebenslanges Lernen ein regelmäßiges Thema. Auf kleinerdrei.org erschien bsw. vor wenigen Tagen der Beitrag “Meine 3. Bildungsanstalt”  in dem die Autorin beschreibt, wie ihre persönliche Wissenserschließung und Meinungsbildung durch das Web beeinflusst wurde. Karrierebibel gibt 25 hervorragende Tips zur beruflichen Weiterbildung und beim Deutschen Bildungsserver finden Sie eine umfangreiche Sammlung zu Blogs, die sich mit den verschiedensten Facetten des lebenslangen Lernens beschäftigen. Und auch zum Thema Weiterbildung gab es 2014 bereits eine Weiterbildungs-Blogparade, bei der 25 qualifizierte Beiträge von deutschsprachigen Bloggern eingereicht wurden.

Auch für comspace ist Weiterbildung ein wichtiger Bestandteil der Unternehmenskultur. Warum das so ist, welche gesellschafts- und branchenspezifische Entwicklungen uns beeinflussen und wie wir individuelle Weiterbildungsinteressen unterstützen, zeigt dieser Artikel.

Lebenslanges, selbstorganisiertes und technikunterstütztes Lernen

Weiterbildung im Unternehmen hat mittlerweile viele Facetten: Vor dem Hintergrund der demografischen Entwicklung, dem Fachkräftemangel und immer dynamischeren Berufsbiografien wird das lebenslange Lernen als kontinuierliche Weiterentwicklung hervorgehoben. Daneben beschreibt der Begriff “selbstorganisiertes Lernen” den Verantwortungswandel im Bereich Weiterbildung. Diese wird nicht mehr “von oben” herab verordnet, sondern immer selbstbestimmter vom Mitarbeiter initiiert. Aus der steigenden Flexibilität ergibt sich damit auch ein Mehr an Verantwortung und Selbstorganisation für jeden Einzelnen. Personaler müssen starre Weiterbildungskataloge und -regeln aufweichen und stattdessen beraten, begleiten und organisatorisch unterstützen. Methodisch verlagert sich Weiterbildung zunehmend in digitale Formate. Schlagworte wie E-Learning, Blended Learning und Open Educational Resources (wie z.B. die MIT OpenCourse Ware) sind in aller Weiterbildungs-Trendforscher Munde.

Besonderheiten in der IT-Branche

Bei comspace stehen wir zudem vor einer weiteren besonderen Situation: Wir arbeiten täglich mit der Software unterschiedlicher CMS- und eCommerce-Hersteller und betreuen komplexe Systemlandschaften. Um die Anforderungen unserer Kunden bestmöglich umzusetzen, brauchen wir ein kompetentes Team aus Web-Entwicklern, Online Marketing-Spezialisten und IT-Fachleuten mit sehr spezifischen Fachkenntnissen. Weiterbildung bedeutet aber auch ständige Aktualisierung dieser Fachkenntnisse, da das Wissen in der IT-Branche eine relativ kurze Halbwertzeit hat. Technische Neuerungen und regelmäßige Updates von Soft- und Hardware erfordern eine kontinuierliche Aktualisierung des eigenen Wissens und Könnens.

Weiterbildung bei comspace

Lebenslange, selbstorganisierte und technologiegestützte Weiterbildung funktioniert im comspace-Alltag so:

Um kompetent in ihrem jeweiligen Tätigkeitsbereich arbeiten zu können, erhalten neue Kollegen_innen kurzfristig eine fachliche Grundqualifikation in “ihrer” Kerntechnologie durch den jeweiligen CMS-Hersteller bzw. Software-Anbieter. Das lebenslange Lernen verläuft anschließend so, wie unser Geschäftsführer Andreas es im Rückblick auf  das Forum Arbeitgeberattraktivität beschrieben hat:

“Bei uns finden Karrieren von unten nach oben, von links nach rechts, in Technologie A und B und in unterschiedlichen Projekten statt.”

Entsprechend werden Kollegen_innen, die in einen anderen Tätigkeitsbereich wechseln, natürlich auch in der neuen Kerntechnologie geschult. So stellen wir sicher, dass alle Entwickler für “ihre” Technologie zertifiziert sind oder z.B. Projekt- und Account-Manager dieselbe “Projektmanagement-Sprache” sprechen.

IT-basiertes Lernen

Neben Inhouse-Workshops und externen Präsenzweiterbildungen nutzen wir wenn möglich zum Lernen auch unser Arbeitsmedium, das Internet. Softwareupdate-Schulungen, CMS- oder Web-Analytics Zertifizierungen absolvieren comspace’ler auch gerne per Webinar. Das spart nicht nur Zeit und Geld, sondern stellt auch den Genuss des comspace-Kaffees während der Weiterbildung sicher.;)

Selbstbestimmt über den Tellerrand schauen

Darüber hinaus lernen wir so, wie wir arbeiten: selbstbestimmt. Weiterführende Seminare, Konferenzen, Kongresse etc. können alle Mitarbeiter selbst auswählen und nach Absprache mit dem Team und Führungskräften besuchen. Bei der individuellen Fortbildung können comspace’ler dazulernen, fachsimpeln, über den Tellerrand schauen, netzwerken und manchmal sogar die ein oder andere “Berühmtheit” treffen, wie unsere Kollegen René auf der SEO Campixx oder Alex bei der re:publica. Ohne TV-Star bzw. -Sternchen, aber trotzdem interessant waren in diesem Jahr die Besuche beim “Forum Arbeitgeberattraktivität”, der Smashing Conference in Oxford sowie beim KrisenPRCamp.

So verschieden die jeweiligen Veranstaltungen sind (vom Benimmtraining für Azubis bis hin zum Feelgood-Management war bislang einiges dabei), so unterschiedlich sind auch die Rahmenbedingungen für die einzelnen Veranstaltungen. Deswegen verzichten wir bei comspace bewusst auf ein festes Weiterbildungsbudget pro Mitarbeiter, um möglichst viele Weiterbildungsformate individuell zu ermöglichen.

Lernen off-the-job: Berufsbegleitende Weiterbildung

Alle, denen ein mehrtägiges Seminar nicht reicht, unterstützen wir gerne bei einer langfristigen nebenberuflichen Weiterbildung:

  • So hatte unsere Kollegin Hanna bereits ein MBA-Studium an der FHM Bielefeld begonnen, bevor sie zu comspace kam. Bei uns kann sie sich nun ihre wöchentliche Arbeitszeit flexibel einteilen, d.h. sie arbeitet am Anfang der Woche “vor” und hat Freitagnachmittags frei für ihr Studium. “Besonders toll ist die Unterstützung von den Kollegen und meinem Projektpartner Markus, der mich an meinem arbeitsfreien Nachmittag zuverlässig vertritt.”
  • Eine andere Lösung hat unser Kollege Daniel gewählt, der berufsbegleitend an der FHDW Bielefeld studiert. comspace übernimmt für ihn die Finanzierung des Hochschulstudiums, im Gegenzug hat er eine Fortbildungsvereinbarung unterschrieben. “Davon profitieren alle. Ich kann ohne finanzielle Belastung studieren, habe einen sicheren Arbeitsplatz und comspace einen fest einplanbaren Mitarbeiter.”
  • Alle comspace’ler können darüber hinaus jährlich ihre wöchentliche Arbeitszeit anpassen. Bei einer nebenberuflichen Weiterbildung (aber auch z.B. zur Pflege kranker Angehöriger oder “einfach nur so”) besteht die Möglichkeit, die Arbeitszeit individuell zu kürzen und bei Bedarf anschließend wieder zu erhöhen.

Fazit:

Alle Weiterbildungsmaßnahmen bei comspace verkörpern einen wichtigen Wert in unserem Unternehmensleitbild: Professionalität. Denn wir sind der Meinung: Wer aufhört, besser zu werden, hat aufgehört, gut zu sein. Deswegen lernen alle comspace’ler schon heute selbstorganisiert und technologiegestützt in unterschiedlichen Formaten während ihres gesamten Erwerbslebens. Damit wir immer besser werden. Jeden Tag ein bisschen.

 

Wie gut das Geschäft funktioniert, darüber entscheidet auch das passende CMS

“release” heißt das neue Magazin unseres Partners e-Spirit, das heute erscheint und Content-Strategen und Marketers Anregungen für digitale Strategien im Hochglanzformat bietet.

Wir freuen uns über diese Premiere und sind gleich in der ersten Ausgabe mit einem Beitrag zu dem anspruchsvollen Thema CMS-Auswahl dabei. Hier lesen Sie das vollständige Interview mit unserem Geschäftsführer Michael Steinfort, das in Teilen in der „release“ erschienen ist. Das Interview führte Temel Kahyaoglu, LNC Group.

release_e-Spirit-sml

Die Wahl des richtigen CMS ist für Unternehmen keine Kleinigkeit

Fachliche und funktionale Anforderungen müssen beachtet werden, technische Vorgaben und betriebswirtschaftliche Rahmenbedingungen spielen eine zentrale Rolle. Zukunftssicherheit, Internationalisierung, Skalierung und die funktionale Erweiterbarkeit sind wichtige Auswahlkriterien. Jeder Relaunch bietet zudem die Möglichkeit, die Online-Strategie und bisherige technologische Entscheidungen zu hinterfragen. Ein Interview mit Michael Steinfort, Geschäftsführer bei der comspace GmbH & Co. KG, zu der Frage „Wo liegen heute die Herausforderungen bei der CMS-Auswahl?“.

Wo liegen heute die Herausforderungen bei der CMS-Auswahl?

MICHAEL STEINFORT: Für Kunden ist das Thema anspruchsvoll. Wir erleben jetzt zum einen, dass sich die Content Management Systeme spezialisiert haben. Zum anderen überschneiden sie sich immer stärker mit anderen Produkten. Die Basis-Funktionalität eines CMS ist immer gleich: Ich erstelle als Redakteur unterschiedliche Inhalte und publiziere diese auf Webseiten und weiteren (mobilen) Kanälen  – eventuell in verschiedenen Sprachen, vielleicht gibt es einen Workflow. Darüber hinaus haben die Hersteller jetzt angefangen, ihre Produkte zu erweitern. Es gibt Systeme, die zusätzlich zum Basis-CMS starke Community-Funktionen haben. Andere spezialisieren sich darauf, den Content aus unterschiedlichsten Quellen anzapfen zu können und dafür möglichst viele vorgefertigte Module zur Verfügung zu stellen, wie zum Beispiel das e-Spirit CMS FirstSpirit. FirstSpirit bietet auch einen Marketplace an. Das heißt, es gibt die Möglichkeit – analog zum Google Android Marketplace – eigene kleine Module durch Dienstleister entwickeln zu lassen und dort einzustellen. Die gleiche Strategie verfolgen andere Anbieter, um das Produkt neben der eigenen begrenzten Produktentwicklung noch attraktiver zu machen. Gleichzeitig nähern sich die Produkte immer mehr an. Ein Shop-System hatte früher beispielsweise nur ein sehr rudimentäres CMS. Heute liegt der Fokus von Shop-Systemen immer noch auf Geschäftsprozessen, der Anbindung an Warenwirtschafts-, ERP- oder CRM-Systeme und Marketing-Werkzeuge. Dennoch gibt es inzwischen Kunden, die ihre normale Webseite mit der E-Commerce-Software Hybris erstellen, statt dafür ein zusätzliches CMS zu nutzen. Der Kunde macht Kompromisse im Punkt CMS-Funktionalität, dafür weiß er aber, dass er später eine sehr vollumfängliche Shop-Funktionalität zur Verfügung hat. Das bedeutet: In den CMS-Basisfunktionen ähneln sich die Systeme immer mehr, in den Erweiterungen und Spezialisierungen erfolgt die Differenzierung.

Wozu raten Sie Ihren Kunden?

MICHAEL STEINFORT: Wir sagen immer: „Schaut die Systeme an, welche Schwerpunkte vor zwei oder drei Jahren adressiert wurden.“ Dort liegen die Kernstärken des jeweiligen Produkts. Was ein CMS langfristig auch zukunftsfähig macht, sind Aspekte wie: Gibt es eine breite Kundenbasis, hat sich der Hersteller mit Partnern wie Microsoft, IBM oder SAP strategisch gut aufgestellt und vernetzt? Heute ist eine Entscheidung für ein Content Management System eine Investition, die sich länger als drei Jahre tragen muss. Die Investitionen unserer Zielgruppe befinden sich durchaus auch im sechsstelligen Bereich. Die Nutzungsdauer liegt häufig bei mehr als fünf Jahren. Ein CMS ist heute geschäftskritisch, auch in konservativen Branchen. Daher kümmern sich inzwischen CIOs um dieses Thema und es gibt Experten, die fokussiert die CMS-Auswahl beraten. Den Kunden ist inzwischen bewusst, dass dieser Prozess keine schnelle Entscheidung sein kann und dass diese über Jahre hinweg Auswirkungen darauf hat, wie gut die Digitalisierung des eigenen Geschäftsmodells funktioniert.

Welche Unterstützung bieten Sie beim Auswahlprozess?

MICHAEL STEINFORT: Unsere Rolle als Implementierer ist unter anderem Mittler zu sein zwischen den Fachabteilungen des Kunden, das heißt vorwiegend zwischen Kommunikation/Marketing und IT. Wir haben ein Verständnis für die Marketingfachleute, genießen aber durch unsere IT-Sprache auch ein hohes Vertrauen bei den CIOs. Richtung IT ist es wichtig, dass wir als CMS-Implementierer verstehen wie die Architektur des Kunden ist und was er für Standards hat. Verwendet er Java-basierte oder Microsoft-Systeme, nutzt er gerne Open Source, gibt es Standards für Datenbanken, wo hostet er seine Rechner – In-house oder in einem externen Rechenzentrum. Diese Analyse- und Beratungsleistung ist häufig schon Teil der Akquise.

Stichwort CMS-Funktionalitäten – welche Themen stehen zurzeit im Vordergrund?

MICHAEL STEINFORT: Die Punkte Integration und Leadgenerierung sind aktuell große Themen. Nur in der Umsetzung hapert es oft. Ein Beispiel: Eine Prothese wird für einen Anwender beschrieben und auch für den behandelnden Arzt. Die zwei Zielgruppen sind Patienten und Ärzte. Das sind zwei völlig verschiedene Nutzer mit unterschiedlichen Begriffswelten. Trotzdem wird die Prothese nur einmal beschrieben. Nicht, weil das CMS nicht personalisieren kann, sondern weil die Ressourcen für die Contenterstellung nicht vorhanden sind. Das ist auch ein Punkt, wo man als CMS-Implementierer aus Erfahrung auf die notwendigen Change Prozesse hinweisen kann.

Wo genau liegen die Herausforderungen bei der Content-Erstellung?

MICHAEL STEINFORT: Für die Unternehmen wird es immer schwieriger Content zu verwalten und diesen für alle Ausgabegeräte aufzubereiten und auszugeben, denn die Ansprüche werden immer größer. Es gibt immer mehr Bewegtbild und immer mehr Endgeräte, die auch in einem ganz anderen Kontext stehen. Die ersten Automobilhersteller schließen Kooperationen mit Apple oder Google. Außerdem wird die Komplexität des Contents immer größer. Es gibt Produktdaten, Assets, Bestellinformationen, Preise, Videos, redaktionellen Content, PDF-Dokumente usw. Diese Inhalte müssen dann vielleicht noch individuell angepasst werden: für verschiedene Länder mit unterschiedlichen technischen Spezifikationen und in verschiedenen Sprachen. Irgendwann ist das nicht mehr zu schaffen, denn die Organisationen wachsen ja nicht in dem Maße, wie solche Content-Gebilde wachsen. Das können Unternehmen nur leisten, indem sie sich ein Modell definieren, mit dem sie erstens diese ganzen Daten auf ihrer Seite in ihrem Haus pflegen. Dafür gibt es PIM-, MAM-, ERP- oder CRM-Systeme. Dann muss zweitens eine “Zauberkiste” existieren. Das ist häufig ein CMS oder ein Shop-System, das die Daten aufnimmt, verarbeitet, in einem bestimmten Kontext durch redaktionelle Inhalte anreichert und dann publiziert. Egal ob die Daten aus Datenbanken, ERP-, MAM-Systemen oder Video-Streaming-Plattformen kommen – alles wird zusammen kanalisiert und dann wieder verteilt. Man redet hier auch von einem Content-Api-Modell. Wachsende Komplexität entsteht, wenn parallel zu diesem Content-Api Modell weitere Plattformen betrieben werden. Das sind z.B. mobile Apps mit proprietärem Pflegefrontend, mehrere parallel betriebene CM-, Shop-, ERP- oder PIM-Systeme.

Wie fängt man solche Situationen am besten auf?

MICHAEL STEINFORT: Eine Konsolidierung der Systeme und eine saubere Content-Stragie hilft da den Kunden. Beispiel: Eine mobile App existiert und der Fachbereich möchte diese erweitern oder erneuern. Dann ist zu prüfen, ob man den Content nicht aus einer Quelle zieht und diese proprietäre Lösung umbaut. So dass z.B. bei Änderung der Produktdaten im PIM, sich diese nicht nur auf Webseiten automatisch ändern, sondern auch in der mobilen App. Das Ziel ist, dass man sich nicht fragen muss – „Haben all meine ganzen Inseln draußen auch den gleichen Content-Stand?“.

Wie einfach ist das umzusetzen?

MICHAEL STEINFORT: Für die IT-ler in den Unternehmen ist der Punkt Komplexität reduzieren ein Muss, denn CIOs müssen die Infrastruktur im Rahmen einer IT-Governance zusammenhalten. Dagegen steht natürlich der Fachbereich, der z.B. sagt “Wir brauchen in zwei Wochen eine App”, also Geschwindigkeit erwartet. Da kommen wir als Berater ins Spiel. Wir verstehen den fachlichen Druck. Richtung Fachbereich müssen wir über die Konsequenzen der proprietären Content-Inseln aufklären. Sich in diesen Situationen durchzusetzen in dem langfristige Auswirkungen aufgezeigt werden, zeichnet einen guten Berater in dem Umfeld aus.

Es sei denn, man kann alles was man da macht, an seine Plattform z.B. ein CMS anbinden und in seine System-Landschaft integrieren?

MICHAEL STEINFORT: Genau. Dann ist es ja gut. Wenn dann ein Produktmanager sagt, mein Produkt ist jetzt nicht mehr fünfeckig sondern sechseckig, dann zieht sich das idealerweise durch alle Kanäle durch. Das bedeutet, all die Kanäle, die nach draußen publizieren, die horchen dann und sagen hier, das ist ein deutscher Benutzer, also liefere ich sechseckig aus. Und die anderen sagen, der ist aus England, der kriegt fünfeckig. Bestes Beispiel sind Netzstecker, also alle Produkte, die irgendwie einen Stecker mit 220 Volt haben. Produktinformationen sind unterschiedlich und das müssen Systeme adressieren.

Und das am besten automatisiert.

MICHAEL STEINFORT: Richtig. Denn dann kommen ja immer noch die ganzen “Hype-Themen” dazu – von Story-Telling über Content-Marketing usw. Die Komplexität kommt von ganz alleine. Aber man kann es ganz zu Anfang schon so komplex machen, dass das, was die Kunden letztendlich vielleicht wollen – so etwas wie Lead-Generierung – gar nicht mehr möglich ist, da sie vorher schon so viel Komplexität im Tagesgeschäft haben, dass sie für diese Themen einfach keine Kraft oder Kapazitäten mehr haben.

Wie sehen die Anforderungen Ihrer Kunden erfahrungsgemäß aus?

MICHAEL STEINFORT: Die Anforderung der meisten Unternehmen, die wir kennen, ist so etwas wie Kontrolle zu behalten und trotzdem loszulassen. Das ist bei vielen Konzernen der Fall, die verschiedene Gesellschaften oder Auslandstöchter haben. Diese Unternehmen haben oft sehr konträre Ziele. Einerseits gibt es so etwas wie Marken-Ziele, also ein durchgängiger Corporate Brand über die ganze Welt. Dann gibt es so etwas wie Content-Ziele. D.h., wenn ein neuer Vorstandsvorsitzender reinkommt, dann sollen das auch die Philippinen auf ihrer Website haben, denn das ist der Vorstandsvorsitzende. Oder wenn es um eine AG geht, dann ist diese berichtspflichtig, d.h. überall müssen die aktuellen Reports auf der Webseite sein. Es gibt also einerseits dieses große Bedürfnis von Kontrolle, auf der anderen Seite sollen die Ländergesellschaften etc. möglichst viel Freiraum bekommen, damit sie ihren Job gut machen können. Dann gibt es natürlich auch völlig unterschiedliche Ländergesellschaften. Eine Auslandsgesellschaft sitzt in Costa Rica und hat fünf Mitarbeiter, weil der Markt nun mal klein ist. Der Vertriebsmitarbeiter betreut das Marketing mit und hat dafür vielleicht eine Stunde Zeit in der Woche. Das ist das eine Extrem. Bis hin zu – ich bin die Tochter eines deutschen Konzerns und ich bin der amerikanische oder chinesische Markt. Meine Unit besteht aus mehr als 1.000 Mitarbeitern mit einer eigenen großen Marketingabteilung. Diese unterschiedlichen Anforderungen sind entscheidend bei der Beratung, welches CMS ist das richtige System und wie erfolgt der Projektbau für den Kunden.

Welches Know-how ist sonst noch wichtig, um die Kunden bei der CMS-Auswahl kompetent zu beraten?

MICHAEL STEINFORT: Als Implementierer müssen wir eine gute Markteinschätzung über die Anbieter haben. Wir analysieren den Markt mindestens ein Mal im Jahr, aber letztendlich prüfen wir unser Portfolioständig. Kriterien bei der Systemauswahl für comspace sind u.a. die Funktionalität des Systems, der fachliche Fit für die Zielgruppe mittelständische Unternehmen ab 1.000 Mitarbeiter bis hin zu Konzernen, ob es eine eigene Organisation in Deutschland gibt, d.h. Ansprechpartner und bei Bedarf schnellen Support vor Ort, und wie das Partnermodell konzipiert ist. Ebenso spielt die Bewertung von Analysten (Gartner, Forrester, CMS Wire) für uns eine Rolle bei der Evaluation.

Wie sieht das ideale Projektteam aus?

MICHAEL STEINFORT: Die Kooperation von Kommunikation/Marketing und IT ist eine wichtige Voraussetzung für die erfolgreiche Umsetzung der Online-Strategie auf Kundenseite. Dazu wird häufig externe Strategie-, Kreation-, User Experience Design- und Implementierungs-Expertise eingekauft. Wichtig ist in dem Zusammenhang: Bereits in der Konzeption muss das Produkt von Konzeptern / User Experience Designern verstanden werden, um dieses später erfolgreich zu implementieren.

Mal abgesehen von der Herausforderung für Unternehmen Content zu  meistern – welche Chancen und neuen Geschäftsmodelle eröffnen sich hier in den nächsten Jahren?

MICHAEL STEINFORT: Anfangs hatten Content Management Systeme einzig die Aufgabe, Redakteure ohne Web-Hintergrund in die Lage zu versetzen, Inhalte auf eine Webseite zu stellen. Heute sind weitere maschinelle Systeme wie ERP, CRM, Suchmaschinen und viele mehr hinzugekommen, die mit dem Content arbeiten müssen. Schauen wir nun auf die zukünftige Entwicklung des “Internet of Things”, zeichnet sich eine weitere Anforderung ab, Inhalte, Daten und Schnittstellen nicht nur für Menschen und betriebswirtschaftliche Systeme zugänglich zu machen, sondern für eine nahezu unüberschaubare Anzahl Geräte, die in Kombination neue Services und Produkte für den Kunden bedeuten. Nehmen wir zum Beispiel die vernetzte Waschmaschine, die neben dem aktuellen Strompreis auch den Wetterbericht aus dem Netz erhält und aus diesen Daten den besten Zeitpunkt errechnet, wann sie mit Netzstrom und wann sie mit dem eigenen Solarstrom wäscht (oder wann sie den Strom aus dem Akku des Elektroautos ziehen kann, wenn dieses vom Einkaufen zurück kommt). Es gibt Prognosen, die davon ausgehen, dass die Zahl der ans Netz angeschlossenen Geräte bis zum Jahr 2020 bei 50 Milliarden liegen wird. Da wäre es doch logisch, wenn wir Inhalte, Daten und Kommunikationskanäle nicht nur für Webseiten, mobile Devices oder Suchmaschinen abstimmen, sondern in Zukunft auch für die besagte Waschmaschine, unsere Autos oder andere Dinge, die uns im Alltag begleiten. Die Industrie arbeitet bereits auf Hochtouren an einheitlichen Schnittstellen und Standards um optimale Voraussetzungen für einen breiten Einsatz der sog. “Connected Devices” zu schaffen. Beim Thema RFID funktioniert das bereits sehr gut, warum nicht auch hier? Beherrschbare Komplexität und das richtige Maß an Kontrolle über den Content sind eine zentrale Herausforderung für die Zukunft.

Michael Steinfort, Geschäftsführer comspaceUnser Geschäftsführer Michael Steinfort verantwortet die Bereiche Vertrieb und Projektabwicklung.
Zudem entwickelt er die Partnerstrukturen weiter.

Verantwortung der Unternehmen oder: Was wir von der re:publica 2014 mitgebracht haben

re:publica im Hof

Die diesjährige re:publica – mittlerweile im achten Jahr – schaffte es sogar bis in die Tagesschau. Kein Wunder bei insgesamt über 6.200 Besuchern , 500 Vortragenden und 350 Vorträgen. Meine Planung der Vorträge für den ersten Tag ist „sogar“ zu 33% aufgegangen. Aber wie sagte schon Albert Einstein: „Planung ersetzt Zufall durch Irrtum“ und aus Irrtümern kann man hervorragend lernen.

re:publica im Hof
re:publica im Hof

Digitale Freiheit, David Hasselhoff und Verantwortung von Unternehmen auf der re:publica

Ich gestehe, dass ich mehr als skeptisch war, als ich von David Hasselhoff als Keynote-Speaker auf der rp14 hörte. Er war als Co-Präsentator des Chefentwicklers von F-Secure – dem Finnen Mikko Hyppönen auf der Bühne. Viele hatten hier zunächst eine eher flache Show im Las Vegas Stil erwartet. Zugegeben, die Keynote war professionell vorgtragen. Eigentlich schon zu professionell und offensichtlich als Dialog einstudiert.

David Hasselhoff im Gespräch mit re:publica Veranstalter Johnny Haeusler
David Hasselhoff im Gespräch mit re:publica Veranstalter Johnny Haeusler

Aber:
Zufällig hatte sich im Vorfeld die Möglichkeit für mich ergeben, Mikko Hyppönnen vorher zu einem Gespräch zu treffen und diese Unterhaltung ließ das Engagement für mich in einem etwas anderen Licht erscheinen:

F-Secure hat sowohl die weltweite Abhörproblematik, wie auch die Frage nach Datenschutz und Monopolstellungen von Google, Facebook usw. nicht als Bedrohung für das eigene Geschäft sondern vielmehr als Chance erkannt. Auf der großen Bühne stellten Hyppönen und Hasselhoff die Digital Freedom Kampagne von FSecure vor, die auf der re:publica gestartet wurde. Dabei handelt es sich im Wesentlichen um ein Wiki, in dem bis Juni ein gemeinschaftliches  Manifest zur digitalen Freiheit nach dem Crowd-Sourcing-Prinzip entstehen soll.

Im Gespräch verriet Mikko was F-Secure auf Produkt-Seite als Antwort anzubieten hat: Die App Freedome ist ein vitruelles VPN und ermöglicht Nutzern von iOS und Android zu einem Preis von monatlich knapp 5 EUR sofort eine anonyme und verschlüsselte Internetverbindung aufzubauen. Der Internet-Traffic wird bereits auf dem Nutzergerät verschlüsselt und dann nicht über US-Server geleitet sondern über die finnischen Server von F-Secure.

Mikko Hyppönen erklärt F-Secures Freedome
Mikko Hyppönen erklärt F-Secures Freedome

Laut der Aussage von Hyppönen haben weder Geheimdienste noch F-Secure selber Zugriff auf die Verbindungen oder übertragenen Daten.

Bemerkenswert finde ich daran, dass ein (im Vergleich zu Google, Apple, Facebook) recht kleines Unternehmen (F-Secure gibt es immerhin seit 26 Jahren mit aktuell knapp 1.000 Mitarbeitern) hier eine echte Marktnische entdeckt hat und sagt:

Wenn Ihr den Internetriesen nicht vertraut: Kommt zu uns nach Finnland. Wir garantieren Sicherheit, Anonymität und Privatsphäre.

Problematisch hierbei ist allerdings, dass die Grundrechte Freiheit und Privatsphäre zu einem Produkt gemacht werden. ich fühlte mich zeitweise an die Diskussion um die Privatisierung von Wasser erinnert. Sicherlich wird es hier zukünftig noch Diskussionsbedarf geben, ob Grundrechte und Gemeingüter ein Preisschild erhalten dürfen.

Möglicherweise wäre ein gangbarer Weg das Beispiel vom „One Laptop per Child“-Projekt, bei dem seinerzeit für jeden Laptop der in Industrienationen gekauft wurde, ein Gerät für ein Kind in einem Entwicklungsland zur Verfügung gestellt wurde.
Für jeden Geschäftskunden also, der seine Firmendaten verschlüsselt (und bezahlt) über F-Secures Freedome schickt, könnte somit ein von Zensur oder Verfolgung bedrohter Aktivist oder Journalist in einer Diktatur kostenlos unterstützt werden.

Wichtigste Erkenntnis war für mich: Anstatt uns machtlos zu fühlen, sondern sollten wir Alternativen und Lösungen in Form von kreativen Produkten und Dienstleistungen schaffen.

Sketchnotes – wie ich in 60 Minuten die Angst vorm Zeichnen verlor

Sketchnoting ist eine Technik mit der man ganz einfache Skizzen und rudimentäre Zeichnungen nutzt um in Vorträgen die wesentlichsten Gedanken festzuhalten. Kritzeln statt Notizen aufschreiben. Eine Bielefelder Sketchnoterin war auch vor Ort und brachte mir die deutsche Ausgabe des Sketchnoting-Handbuchs mit.

 

Das Sketchnote Handbuch
Das Sketchnote Handbuch

Bereits auf der re:publica 2013 fand dazu ein Workshop statt, der sich als SEHR erfolgreich heraus gestellt hatte. Leider hatte ich ihn letztes Jahr verpasst, so stand für 2014 Sketchnoting fest auf meinem Plan.

Zuletzt habe ich als Kind viel gezeichnet. Und das auch nicht besonders gut. Von daher war ich beeindruckt, mit welch einfachen Mitteln die Sketchnote-Experten Anna Lena Schiller, Britta Ullrich und Ralf Appelt  uns als Publikum mal eben die wichtigsten Elemente zum Figuren zeichnen, Strukturelemente wie Kästen, Schilder und Pfeile sowie das aufbauen von Symbolen aus den Grundformen Viereck, Dreieck und Kreis beigebracht haben.

Mein Ergebnis eines kleinen Experiments während des Workshops sah so aus:

 

Meine re:publica Sketchnotes
Meine re:publica Sketchnotes

Zugegeben, man braucht noch etwas Phantasie, die E-Mails auf einem Friedhof zu erkennen, die das „begraben sein von Information“, die Datenautobahn, die Festplatte, die Waage für die Infomrationsdiät und den Burger zu erkennen 😉 Für meine limitierten Fähigkeiten war ich aber doch vom Ergebnis überrascht.

Letzten Endes muss ich Sketchnoting nun aber regelmäßig üben. Um Routine zu bekommen und ein Grund-„Vokabular“ an Symbolen zu schaffen, mit denen ich tatsächlich Notizen in vorträgen und Meetings sinnvoll illustrieren kann. Im Moment würde ich mir das noch nicht zutrauen: Da das Zeichnen und überlegen wie sich eine These darstellen lässt, noch sehr lange dauert, habe ich zuviel Sorge im Vortrag etwas zu verpassen. Schreiben geht eben doch noch deutlich schneller als tippen 🙂

Die Sketchnotes, die während der re:publica entstanden sind, wurden übrigens hier auf der Seite der vortragenden Sketchnoter – vizthinking.de gesammelt.

Legen Sie sich Papier und Stift bereit und probieren Sie das Sketchnoting doch selber einmal beim Schauen des Vortrags-Videos aus:

Ostwestfalen auf der Re:Publica

Doch nicht nur das weltweite Thema Überwachung und Datensicherheit hat uns auf der re:publica beschäftigt. Andreas Kämmer war am zweiten Tag der Konferenz zu Gast im Ostwestfalen-Hangout bei bloggercamp.tv das mit den Moderatoren Hannes Schleeh, Gunnar Sohn und Thorsten Ising (Ab Minute 10:30):

Zeitgleich durfte ich im Live-Podcast und Videostream von Florian „dotdean“ Krakau mit Kathrin „diekadda“ RoenickeDaniel „wasmitmedien“ Fiene, Michael „mspro“ Seemann und Michael „kmto“ Domsalla in Re:Publica Erinnerungen schwelgen. Wobei ich zugegebenermaßen eher zuhörend mitgeschwelgt habe, da für mich als Nichtberliner die gesamten re:publicas der letzten Jahre Highlights waren und ich gar keine einzelnen Punkte herauspicken konnte 🙂

Scrollytelling, Journalismus und Content Präsentation

Inhaltliche Highlights waren für uns die Vorträge, die sich um Content drehten. So zum einen der Schweizer Journalist Constantin Seibt, der eines der lesenswertesten deutschsprachigen Blogs schreibt und an Tag 2 seine Sicht zur Aufgabe und Haltung des Journalismus schilderte. Seine Ausführungen lassen sich dabei sehr gut auf Unternehmen übertragen. Wie ich auch schon vor 2 Jahren hier im Blog über seine Definition des Journalismus als komprimierte Zeit schrieb. Schauen Sie einfach selbst:

Zwei Mitarbeiter des WDR stellten in Ihrem Vortrag „Aus dem Alltag moderner Geschichtenerzähler“ in interessantes Werkzeug zum erzählen von multimedialen Scrollytelling-Geschichten vor: Pageflow. Und legten noch eins drauf: Das auf Ruby on Rails basierende Tool wurde im Rahmen des Vortrags unter open Source Lizenz der Öffentlichkeit zur Verfügung gestellt – schließlich wurde es ja auch mit Gebührengeldern finanziert.

Kopfhörer in einigen Sälen der re:publica für die bessere Akkustik
Kopfhörer in einigen Sälen der re:publica für die bessere Akkustik

Wir konnten im Anschluss des Vortrags mit den beiden WDR-Mitarbeitern und einem Mitarbeiter der technischen Agentur hinter dem Projekt plaudern und evaluieren gerade, ob und wie Pageflow in unser Portfolio bei comspace passt.

Bemerkenswert war auch die Session zu 15 journalistischen Startups die jeder kennen muss. Hier macht der Journalismus vor, was zukünftig auch in Content Marketing, Unternehmens-Kommunikation und mobiler Präsentation genutzt werden wird.

Sascha Lobos Rede zur Lage der Nation.

Dieses Jahr habe ich den Vortrag von Sascha Lobo bewusst nicht besucht, weil ich davon ausging, es würde reichen die Aufzeichnung zu schauen und war statt dessen in Frank Riegers Vortrag „Wer soll uns regulieren?“ und Michael Seemanns Entwurf zu einem „Dezentralen Social Network„.

Tatsächlich war Lobos „Rede zur Lage der Nation“ – so  anmaßend wie der Titel auch klingen mag – eine der besten Reden des Mannes mit dem roten Irokesen bisher:

Lobos These: Das Thema Netz-Überwachung ist zu komplex um Massen zu mobilisieren, die etwas dagegen unternehmen. Daher müsste  eine professionelle Netz-Lobby geschaffen werden, die gezielt für die Freiheit und Sicherheit des Netzes arbeitet. Für diese Arbeit wird Geld benötigt. Erstaunlicherweise ist „die Netzgemeinde“ aber weniger bereit zu spenden und Organisationen wie Netzpolitik.org finanziell zu unterstützen: Der Vergleich der Netzlobby mit dem Bayerischen Landesbund für Naturschutz war erschütternd. Letzterer bringt es auf 70 Vollzeitmitarbeiter. Wobei die Organisationen für Netz-Angelegenheiten dauer-unterfinanziert sind.

Lobo hat schonmal vorgesorgt und sich für die Zukunft die Domains netzgemeinde.de und internetministerium.de gesichert. Mal sehen, wann und ob dort etwas passiert.

Unternehmen, Politik, Gesellschaft, Privatpersonen - jeder sollte sich gedanken über die Freiheit des Netzes machen.
Unternehmen, Politik, Gesellschaft, Privatpersonen – jeder sollte sich gedanken über die Freiheit des Netzes machen und seinen Teil beitragen.

Fazit

Es fällt mir immer schwer ein klares Fazit nach einer so vielfältigen Veranstaltung mit so unglaublich breit gefächerten Einflüssen und Ideen zu ziehen. Ich versuche es dennoch:

Unternehmen haben eine netzgesellschaftliche Verantwortung.
Unternehmen können über Werbung&Marketing hinaus konstruktiv kommunizieren.
Unternehmen können etwas unternehmen. – Auch mit kreativen und profitablen Produkten gegen vermeintlich übermächtige Unternehmen wie Google und Facebook.

Content erstellen, managen, verbreiten fließen immer stärker zusammen.

Selber machen: Programmieren lernen für Nullcheckerbunny mag nach Satire klingen. Dabei war es für jemanden wie mich als Nicht-Entwickler mal wieder eine Erinnerunge daran, dass auch Projekt-Manager ein Gefühl für die Mechaniken des Programmierens bekommen sollten, um besser mit Entwicklern zusammen arbeiten zu können.

Lernen, Entdecken, Machen. Waren die drei hauptthesen mit denen Alexander Mankowsky verdeutlicht hat, wie Daimler als Konzern die digitale Welt mit der echten Welt verbindet.  Dabei warf er einen Blick zurück in die Geschichte, übertrug die Erkenntnisse auf die Gegenwart und leitete Zukunftsaussichten dazu ab, welche Aufgaben Maschinen uns abnehmen können. Spannender Ausblick auf das Internet der Dinge!

re-publica-2014-alexander-mankowsky

Der Vortrag selber wurde leider nicht aufgezeichnet. In diesem Interview gibt es aber einen Einblick in Mankowskys Arbeit als Zukunftsforscher. Beispielsweise gibt er dort den Denkanstoß, dass sich das WWW vom Internet grundlegend unterscheidet:

https://www.youtube.com/watch?v=D5mQcY40ezQ

Übrigens:
Sollten Sie jemals in die Situation geraten, als nicht Techie einen Vortrag auf einer Tech-Konferenz halten zu müssen, hat Lena Reinhard hier einige wunderbare Erfahrungen von Vorbereitung, über die eigentliche Präsentation bis hin zu den Nachwehen parat.

Diese Vorträge der RePublica 2014 sollten Sie sich auf YouTube anschauen:

  1. Die Steinstrategie von Holm Friebe (Manchmal macht Aussitzen doch Sinn)
  2. Zahnbürste oder Longboard vom 12-jährigen Lorenzo Tural Osorio
  3. Allein ist die Wildnis ein öder Ort von Greta Taubert
  4. Wie ich lernte, die Überwachung zu lieben – von Felix Schwenzel
  5. How we will settle on Mars – and why von Rin
  6. Tod und Geburt der Gegenwartsliteratur im Internet von Elisabeth Michelbach
  7. Sie werden nicht glauben, was Sie hier sehen – re:publica Gründer Johnny Haeusler macht Spaß mit Live-Statistik via Twitter
  8. Big Data? Intelligente Maschinen – Yvonne Hofstetter

re:publica Zusammenfassungen anderswo

Versand von automatisierten Trigger-Mailings mit Inxmail

Die E-Mail-Marketing Software Inxmail Professional bietet neben dem Standard-Versand von Mailings noch weitere interessante Möglichkeiten zur Steigerung der Kundenbindung. Dazu gehören bspw. sog. Aktionsmailings als eine von mehreren Formen des Trigger-Mailings, daher auch aktionsbasiertes Trigger-Mailing genannt. Aktionsmailings sind personalisierte, automatisiert vom System versendete Mailings, die beim Eintreten einer bestimmten Aktion (bspw. Anmeldung für einen Newsletter oder Klick auf einen Link) ausgelöst werden.

Ein solches aktionsbasiertes Trigger-Mailing haben wir kürzlich selber verschickt – zum einen, weil es sich für unser aktuelles Newsletter-Thema gerade thematisch anbot, zum anderen, um auf diese Weise eigene Erfahrungen mit einer weiteren der vielfältigen Inxmail-Funktionen zu sammeln.

Aufbau unseres Aktionsmailings

Der Newsletter, der die Aktion auslöste, beinhaltete eine Einladung zu den Multi-Channel Tagen unseres CMS-Partners Sitecore.

Newsletter Sitecore-Multi-Channel-Tage
Newsletter Sitecore Multi-Channel Tage

Die auslösende Aktion für das automatisierte Triggermailing in dem Newsletter war der Anmeldebutton zu der Sitecore-Veranstaltung. Alle Newsletter-Empfänger, die den Button angeklickt hatten, bekamen automatisch einen Nachfolge-Newsletter mit dem Angebot, sich ein kostenloses Whitepaper von Sitecore zum Thema Multi-Channel herunter zu laden.

Newsletter Sitecore Multi-Channel Leitfaden
Newsletter Sitecore Multi-Channel Leitfaden

Und der Nutzen dieser Mailing-Aktion?

Beide Seiten profitierten von der Mailing-Aktion: Wir als Unternehmen haben mit einem überschaubaren Einrichtungsaufwand ein zweistufiges, thematisch aufeinander aufbauendes Mailing versendet. Unsere Newsletter-Empfänger haben relevante Inhalte zu einem Thema erhalten, für das sie im ersten Mailing durch die Aktivierung des Anmelde-Buttons bereits aktiv Interesse gezeigt haben. Damit ist das Aktionsmailing ein besonders zielgerichtetes personalisiertes Mailing.

Fünf Schritte zur Erstellung eines Aktionsmailings

Schritt 1: Erstellen des auslösenden Mailings

Zunächst wird der Newsletter, der die Aktion auslöst, in Inxmail angelegt wie jedes andere Mailing auch. Diesem Mailing wird die dazu gehörige Empfängerliste zugeordnet.

Schritt 2: Erstellen des Aktionsmailings

In der gleichen Liste, in der das 1. Mailing erstellt wurde, wird nun unter dem Reiter “Trigger-Mailing” das automatisierte Folgemailing mit den entsprechenden Inhalten angelegt.

Inxmail Triggermailing anlegen
Inxmail Triggermailing anlegen

Wichtig: Das automatisiert versandte Trigger-Mailing muss erst fertig gestellt und freigegeben sein, bevor die nächsten Schritte durchführbar sind.

Schritt 3: Anlegen einer Aktion

Ist das Trigger-Mailing auf diese Weise fertig erstellt, wird im nächsten Schritt eine Aktion angelegt. Dazu wechselt man in den Cockpit-Reiter “Globale Einstellungen” und klickt auf den Button “Aktionen” in der linken Menüleiste.

Anlegen einer neuen Aktion in Inxmail
Anlegen einer neuen Aktion in Inxmail

Hier kann man über das Icon “Aktionsabfolge neu anlegen” eine neue Aktion hinzufügen. Nach Eingabe eines Aktionsnamens erscheint eine Maske, in der man das auslösende Ereignis auswählen und ggfs. eine Listeneinschränkung festlegen kann.

Schritt 4: Verknüpfen des auslösenden Mailings mit dem Aktionsmailing

Für die Verknüpfung der beiden Mailings geht es zurück zum Ursprungsmailing. Im Redaktionsbereich wird in der oberen Menüleiste der Button “Linkverwaltung” geöffnet.

Linkverwaltung in Inxmail
Linkverwaltung in Inxmail

Der Link, der das Trigger-Mailing auslösen soll, wird mittels Doppelklick aktiviert. Nun kann der Link bearbeitet werden: im Kontrollkästchen “Link mit Aktion verbinden” wird ein Häkchen gesetzt und das zu verbindende Aktionsmailing wird aus der Liste im Drop-down-Menü ausgewählt.

Link mit Aktion verbinden
Link mit Aktion verbinden

Nach dem Schließen der beiden Fenster durch zweimaliges Bestätigen mit ok ist die Verbindung zwischen Aktionselement (dem Link) und Trigger-Mailing hergestellt.

Schritt 5: Mailing-Versand

Im letzten Schritt wird das auslösende Mailing in der üblichen Weise geprüft, freigegeben, getestet und versendet. Klickt ein Empfänger nun auf den auslösenden Link, in diesem Falle den Anmelde-Button zum Webinar, bekommt er automatisiert das Aktionsmailing zugesandt.

Vielseitige Möglichkeiten für Trigger-Mailings

Neben dem hier vorgestellten zweistufigen Aktionsmailing bietet Inxmail Professional noch viele weitere Möglichkeiten für Trigger-Mailings, mit denen Sie Ihre Empfänger zum richtigen Zeitpunkt mit den richtigen Inhalten erreichen können. Dazu gehören bspw. Erinnerungsmailings, die anlässlich eines Termins, u.a. bei Events, Messen oder Veranstaltungen, versendet werden um den Empfänger an diesen Termin zu erinnern. Geburtstags- und Jubiläumsmailings können automatisiert am entsprechenden Stichtag verschickt werden und beim Intervallmailing werden Inhalte in einem definierten Rhythmus an die Empfänger gesendet. Sollten Sie selber einmal ein Aktionsmailing mit Inxmail testen wollen und Fragen bei der Erstellung des Mailings haben, stehen wir Ihnen gerne zur Verfügung.