Automatische Personalisierung von Webseiten oder: BENUTZ HAMSTER MIT MIKROWELLE

Maniac Mansion Screenshot (tentakelvilla.de)

Eine Frau kam eines Tages zu Gandhi und sagte: „Gandhi, bitte sage meinem Sohn, er soll keinen Zucker mehr essen!“ – Gandhi sah die Frau und ihren kleinen Sohn kurz an und meinte dann: „Komm in 2 Wochen wieder“. Die Frau war enttäuscht, denn die Reise war lang und sehr hart gewesen. Diese in 2 Wochen noch einmal anzutreten würde sie sehr viel Kraft und Geld kosten. Aber sie tat es.

Nachdem zwei Wochen vergangen waren stand sie wieder vor Gandhi. Der beugte sich zum kleinen Sohn herunter und sagte: „Junge, iss keinen Zucker mehr.“

Die Frau wurde böse: „DAFÜR sollte ich nun die gleiche Reise nach zwei Wochen noch einmal machen? Warum konntest Du das nicht schon beim letzten Mal sagen?“ Und Gandhi sagte: „Erst musste ich doch selber aufhören Zucker zu essen.“

Was hat Gandhi mit automatisch personalisierten Webseiten zu tun?

Ein ganz, ganz wichtiger Punkt um das Potenzial von personalisierten Webseiten voll auszuschöpfen ist es, dass Sie sich in Ihre Besucher hineinversetzen und mit deren Augen sehen. So wie Gandhi sich zunächst selber das Zuckeressen abgewöhnen musste, um darüber mit dem kleinen Jungen zu sprechen.

Was sie in diesem recht langen Artikel, der die schriftliche Version eines Vortrags auf der dmexco 2014 ist, noch erfahren werden, habe ich Ihnen hier einmal zusammen gefasst:

  • Gleichen Sie Ihr Angebot mit dem Bedarf des Kunden ab
  • Sehen Sie das Verhalten des Nutzers vorher
  • Planen Sie Klickverläufe

tl;dr: Durchlaufen Sie verschiedene Wege, die Ihre verschiedenen Benutzer durch Ihre Webseiten führen. Testen Sie verschiedene Klickpfade und Konversionsziele. Wird der Bedarf der Besucher gedeckt und die Erwartungen erfüllt? In diesem Artikel finden Sie einige einfache Beispiele und Werkzeuge, wie Sie das Potenzial für Personalisierung in Ihren Webseiten evaluieren und Nutzerverhalten vorhersehen können.

Was hat ein Hamster in der Mikrowelle damit zu tun?

Dazu kommen wir gleich. Lassen Sie mich vorher kurz aufdröseln, was wir mit personalisierten Webseiten, die sich automatisch und nach vorher festgelegten Regeln auf das Nutzerverhalten anpassen,  überhaupt erreichen können:

Komplexität verringern 

Sagt Ihnen der Begriff Decision Fatigue – bzw. Paradox of Choice etwas? Wissenschaftler gehen davon aus, dass wir mit einem festen Level an „Entscheidungsenergie“ in den Tag starten. Diese Energie nimmt mit jeder Entscheidung, die wir im Laufe des Tages treffen müssen ab. Es fällt uns immer schwerer neue Entscheidungen zu fällen und irgendwann wehren wir uns sogar vollständig dagegen noch weitere Entscheidungen zu machen.

Marmeladen-Paradox-of-Choice
(cc) Flickr-User Hellebardius

Dazu gab es im Jahr 2000 ein interessantes Experiment – das Marmeladen ExperimentIn einem Supermarkt wurden den Kunden an einem Tag 24 Sorten Marmelade angeboten und am nächsten Tag nur 6 Sorten. Das Ergebnis war verblüffend:

  • 24 Marmeladen zogen 60% der Kunden zum Stand. Aber: Nur 2% kauften. Die Auswahl war zu komplex.
  • 6 Marmeladen zogen nur 40% der Kunden an. Doch 12% der Kunden kauften aufgrund der einfacheren Entscheidungsfindung.

Personalisierte Webseiten können überflüssiges für den Kunden ausblenden, damit Entscheidungen leichter gefällt werden können.

Besucherverhalten steuern

Wenn wir eine Webseite mit einem speziellen Konversionsziel bauen, dann möchten wir dieses Ziel so oft wie möglich erreichen. Nehmen wir das Beispiel aus der u.s. Grafik: Der Benutzer soll sich zu einer kostenlosen 30-Tage-Demo anmelden. Der Nutzer wird zwischen verschiedenen Infoquellen immer wieder hin und her springen. Dabei auch unsere Kanäle verlassen und wieder zurückkehren.

Sitecore Customer Journey

 

Wir haben nun die Möglichkeit, unsere kostenlose Demo an unterschiedlichen Stellen und Arten immer wieder in den Fokus des Kunden zu bringen. Mit Anmeldekästen, Head-Bannern, kurzen Testimonials usw. bis der Besucher sich anmeldet

Ebenso können wir festlegen ab wann wir den Besucher nicht mehr oder nur noch weniger „nerven“ um eine Übersättigung zu vermeiden.

Bildschirmfoto 2014-09-04 um 12.46.23
Upgrad-Angebot im blauen Kasten kann nach Abschluss bsw. ausgeblendet werden

Wenn der Kunde schlussendlich unser Konversions-Ziel erfüllt hat, stellen wir die Erinnerungen daran ganz ab.

Wir erreichen so weniger komplexe Webseiten, die unsere Kunden einfacher Entscheidungen treffen lassen.

Wechselnde Geräte und Kanäle sind ein weiterer Anwendungsfall. Je nach erkanntem Gerät können andere Produkte, Inhalte oder Daten angezeigt werden. Nutzt jemand die Webseite der Deutschen Bahn bsw. mit dem Smartphone sind Unternehmensbeschreibungen vermutlich irrelevant – umso wichtiger dafür die aktuellen Fahrpläne. Ebenso können Textbausteine für große Bildschirme länger und umfangreicher sein, wobei dem Nutzer auf dem Smartphone-Display Übersicht und Muße zum Lesen fehlen.

Individuelles Storytelling

Diesen Punkt sehen wir uns gleich noch genauer an. Durch die vorab fest gelegten Klickpfade in einer automatisch personalisierbaren Webseite, lassen sich ganze Geschichten erzählen, drehbuchartig orchestriert. Mehr noch: Wir können unsere Nutzer quasi wie in einem Adventure-Computerspiel verschiedene Wege nehmen lassen, bei denen sich die Webseite an die individuellen Entscheidungen des Besuchers anpasst.

Das neue SEO?

Vermutlich ist es nicht zu weit aus dem Fenster gelehnt, wenn ich sage: Automatische Personalisierung könnte das neue SEO werden. Die Komplexität in den Einflussfaktoren ist vergleichbar hoch, die Auswirkungen vergleichbar gut und messbar.

Mit zwei wesentlichen Unterschieden:

  1. Im Bereich der SEO sind wir von den Vermutungen und Erkenntnissen abhängig, die wir über die Black-Box Suchmaschine erhalten
  2. Bei der Personalisierung spielt sich der Großteil unserer Anpassungsmöglichkeiten auf unseren eigenen Seiten ohne Einflüsse von außen ab

Wonach lässt sich personalisieren?

Die Faktoren sind schon heute irrsinnig komplex. Bereits in der Einzelbetrachtung. Hinzu kommen natürlich noch unendlich viele Möglichkeiten Einzelbedingungen miteinander zu kombinieren.

  • Handelt es sich bei einem Besucher um einen neuen Besucher oder um einen Wiederkehrenden? Ist der Benutzer angemeldet oder anonym? Habe ich CRM-Daten verknüpft?
  • Kommt der Klick aus meinem Newsletter? Dann zeige ich die dort geteaserten Angebote an und blende das Anmeldefenster für den Newsletter aus
  • IP-Adresse / Geo-Position können Maßgabe sein um landestypische Inhalte anzuzeigen oder auszublenden
  • Wetter am Ort des Besuchers: Verkaufe ich Skier und Surfbretter und am Standort meines Nutzers schneit es seit einem Tag sind eventuell Skier interessanter
  • Facebook-Fan JA/NEIN? Im Falle von NEIN zeigen wir unser „Werde Fan“-Banner an
  • Endgerät entscheidet darüber ob umfangreichere Texte angezeigt werden. Hochpreisige oder preiswerte Endgeräte können über das angezeigte Angebot entscheiden

Zwei Beispiele für automatische Personalisierung

Seitenbereiche nach Klickverhalten anpassen

In diesem Sitecore Beispiel wird dem Benutzer zunächst eine Webseite mit typischen Badeurlaub-Szenarien angezeigt:

Sitecore Webseiten Automatisierung Beispiel 1

Unser Beispielnutzer klickt nun aber nicht auf den Strand oder die Palmen, sondern interessiert sich für San Francisco. Wir haben vorher festgelegt, dass in diesem Fall ein anderer Klickpfad zur Verfügung gestellt wird und sich die 3 Themen-Angebote oben entsprechend darauf einstellen.

Die drei Kurzteaser wechseln vom Thema Strandurlaub zum Thema Städtereisen und stellen sich damit auf das vermeintliche Interessengebiet des Nutzers ein. (Auch um dieses Verhalten wieder rückgängig zu machen lassen sich Regeln erstellen):

Sitecore Webseiten Automatisierung Beispiel 2
Sitecore Webseiten Automatisierung Beispiel 2

Inhalte automatisch nach Benutzer-Standort anpassen

Dieses Beispiel stammt aus einem unserer eigenen Sitecore-Projekte für unseren Kunden Dornbracht. Dornbracht ist Premium-Hersteller u.a. für luxuriöse Badausstattungen und hat in diesem Zusammenhang eine Liegedusche im Portfolio, die Horizontal Shower. Dieses Produkt wird mit einer sehr stimmungsvollen Photographie auf der Webseite vorgestellt.

Inklusive einer unbekleideten Person, die gerade die Liege-Dusche verwendet:

Bildschirmfoto 2014-08-28 um 17.17.38

Nun ist es so, dass in manchen Teilen der Welt solche Abbildungen – auch im seriösesten Zusammenhang – als anstößig empfunden werden. Zum Beispiel im arabischen Raum, in dem sich auch ein relevanter Zielgruppenanteil für die Horizontal-Shower befindet. Wir haben also eine Lösung entwickelt, die nach 2 Kriterien entscheidet, wann eine Alternative angezeigt werden soll: Zum einen über die eingestellte Sprache (Englisch im arabischen Sprachraum) und die IP-Adresse.

Im Falle einer positiven Identifizierung wird die Webseite also mit folgender Abbildung ausgeliefert:

Bildschirmfoto 2014-08-28 um 17.17.11

Vorhersehen des Nutzerverhaltens

Eben habe ich schon einmal den Vergleich zum Thema SEO heran gezogen. Es gibt noch nicht viele Best Practices für umfangreich automatisierte Webseiten. Wir sprechen hier immer noch von einer Zukunftstechnologie – auch wenn die technischen Voraussetzungen bereits realisierbar sind.

Darum möchte ich zwei Beispiele aus dem Umfeld der Suchmaschinenwerbung heranziehen um zu demonstrieren, wie das Leben des Benutzers erleichtert werden kann und was es heißt, Nutzerverhalten vorhersehen zu können.

SEO = maschinenfokussiert – SEA = menschenfokussiert

Natürlich entwickelt sich SEO ständig weiter. Es wird zum einen komplexer und spezieller, zum anderen kommt man um SEO-Maßnahmen heutzutage nicht mehr herum. Mit Ausnahme vielleicht, wenn man keinen Wettbewerb hat.

Aber: SEO bezieht sich in den allermeisten Fällen auf den Umgang mit Rechnern, Suchmaschinen, Algorithmen. Deswegen wird das Thema Content Marketing immer wichtiger: Beim Content Marketing steht der Mensch, der Nutzer und Adressat des Contents im Mittelpunkt.

Beim SEA (also dem Suchmaschinen-Advertising) war – wie bei allen Werbeformen – der Mensch schon schon immer der zentrale Punkt. „Der Köder muss dem Fisch schmecken.“

Suchmaschinenwerbung über den Ort

Eine Möglichkeit der Personalisierung ist bsw. der Zielort einer Suche. Im folgenden Beispiel wurde nach Ferrari fahren Hamburg“ gesucht. In den darauf folgenden Suchergebnissen war eine auf Ferrari und Hamburg optimierte Landingpage angezeigt sowie eine auf die Suchbegriffe abgestimmte Google-Ads-Anzeige geschaltet.

Beide (rudimentär) personalisierten Wege führen den Besucher nun auf die entsprechende Webseite beim Anbieter, auf der nur Ferraris (statt Porsche) angezeigt werden, die in Hamburg verfügbar sind (statt auch in München bsw.). Im Dropdown-Menu ist Hamburg als Ort auch bereits vorausgewählt.

 

Dem Benutzer wird in diesem Fall vor allem zusätzliche Arbeit des Klickens abgenommen.

Königsklasse der Vorhersehung von Nutzerverhalten

Zugegeben, dieses Beispiel war sehr einfach. Ein meisterhaftes Stück in Sachen Nutzerverhalten antizipieren hat Alec Brownstein 2010 mit seinem Google Job Experiment gezeigt:

Alec sagte für sein „Projekt“ das Nutzerverhalten des Ego-Surfing voraus. Seine Zielgruppe bestand dabei nur aus 5 Personen: Er legte Google-Ad-Anzeigen auf die Namen der CEOs der 5 Top-Werbegenturen an. Wenn diese 5 Werbeagenturchefs nun sich selber googleten, wurde die Anzeige angezeigt (und wer klickt denn bitte schön nicht auf eine Anzeige, die den eigenen Namen enthält?) und führte auf Alex Brownsteins Bewerbung um einen Job in einer der Agenturen.

Bei 4 der 5 CEOs bekam Alex ein Vorstellungsgespräch. Daraus entstanden 2 Jobangebote. Eines davon nahm Alec an. Keine schlechte Konversion oder? 😉

Der Kostenaufwand betrug 6 Dollar.

Der Hamster ist ein historisches Meisterstück des Vorhersehens von Nutzerverhalten

Hervor gebracht hat dieses Meisterstück Ron Gilbert im Jahr 1987. Ron ist der Erfinder des Computerspiels Maniac Mansion. Und damit auch (Mit)-Erfinder des Genres Point-And-Click-Adventure. Die älteren unter uns erinnern sich hoffentlich noch an den guten, alten Commodore C-64 😉

(c) Lucas Arts - Poster Maniac Mansion, Zac McKracken, Monkey Island
(c) Lucas Arts – Poster Maniac Mansion, Zak McKracken, Monkey Island

Im Spiel Maniac Mansion musste man sich seinen Weg mit verschiedenen Spielfiguren durch ein verrücktes Spukhaus bahnen, das zudem von verrückten Aliens bewohnt wurde.  Ziel des Spiels war es die Freundin der Hauptfigur aus den Händen eines verrückten Wissenschaftlers zu befreien (haben wir ja alle schonmal erlebt, oder?).

Ron Gilbert hat letztens seinen alten Lagerraum aufgeräumt und dabei mit den Maniac Mansion Design Notes historische Relikte der Computerspielgeschichte wieder entdeckt, die uns heute durchaus als Vorlage und Best-Practices für die automatische Personalisierung dienen können.

So hat er bsw. die Original-Zeichnungen und Designdokumente veröffentlicht. So schön diese anzusehen sind, ist für uns aber wichtiger, wie vor über 25 Jahren die Planung des Spielablaufs von statten ging. Eines der Dokumente zeigt zum Beispiel wie die einzelnen Räume des Hause (heute auch Webseiten) miteinander verbunden sind und welche Figuren dort auf den Spieler (heute Inhalte) warten:

mm_design_3

Je nach Sympathie und Handlungen des Spielers reagierten die Persönlichkeiten in den Räumen unterschiedlich. Zu den reinen Räumen, Inhalten und Interaktionsmöglichkeiten kamen noch Emotions-Bedingungen hinzu:

mm_design_4

Schließlich wurden im Puzzle Dependency Charts die Bedingungen festgelegt, wann in welchen Räumen was passieren muss um die nächsten Schritte zu ermöglichen. In diesem Fall hier musste in einem Raum ein Schlüssel gefunden werden und in einem weiteren eine Kanne mit Öl. Der Schlüssel schloss die Kellertür auf, das Öl aus der Kanne machte die Tür wieder beweglich. So können auch verschiedene Bedingungen auf Webseiten zusammen „geschaltet“ werden, um eine weitere Aktion zu ermöglichen oder Interaktions-Möglichkeit anzuzeigen.

Bildschirmfoto 2014-09-10 um 13.28.08

Maniac Mansion ließ den Spieler eine Menge verrückter Dinge tun, die sich nicht unbedingt alle auf den eigentlichen Spielerfolg auswirkten. Dabei hat Ron Gilbert die skurrilsten Handlungen vorhergesehen.

Der arme Hamster

Kommen wir endlich zu unserem Beispiel-Nagetier:

Maniac Mansion Screenshot (tentakelvilla.de)
Maniac Mansion  (c) Lucas Arts Screenshot – Tentakelvilla.de

Man beachte das Poster an der Wand: Auf dem Poster neben der Tür des virtuellen Zimmer ist eine sehr vereinfachte Variante des Entscheidungsbaums der im Spiel zum Einsatz kommt abgebildet!

Zwischen diesem Poster und der Tür befindet sich der besagte Hamster in seinem Käfig. Diesen konnte man als Spieler mit dem Klick auf NIMM und dann das Objekt Hamster mitnehmen.

In der Küche des Maniac Mansion angelangt war es dem Spieler möglich, den Hamster in die Mikrowelle zu legen und das Küchengerät einzuschalten. Sehr morbider Humor. Zugegeben. Vermutlich würde sich das heute auch kein Spielehersteller mehr trauen.

Maniac Mansion gekochter Hamster (tentakelvilla.de)
Maniac Mansion gekochter Hamster (c) Lucas Arts – Screenshot Tentakelvilla.de

Es zeigt aber, wie gut Ron Gilbert damals bereits das Nutzer- bzw. Spielerverhalten vorhersehen konnte. Schließlich hatte die ganze Koch-Aktion des Hamsters überhaupt keinen weiteren Sinn im Spiel.

Was zeigt uns der Hamster für unsere Webseiten?

Mit einem gut und detailliert ausgearbeiteten Entscheidungsbaum lässt sich nicht nur Nutzerverhalten antizipieren, sondern eine Geschichte erzählen, die den Besucher ins Geschehen einbezieht, Bindung aufbaut und Begeisterung erzeugt. Wir können Fälle entdecken, die uns sonst nicht auffallen würden und das Verhalten der Webseite daran anpassen:

Was soll der Besucher im Fall X anderes sehen, als im Fall Y und welches Verhalten führt zu Fall Z?

„Das ist doch alles furchtbar viel Arbeit!“ höre ich Sie jetzt sagen. Und ja, Sie haben Recht. Webseiten zu personalisieren ist zu Anfang ein großer Brocken Arbeit und im folgenden ein stetiger Prozess. Der meiste Teil dieser Arbeit findet dabei im Kopf des Marketings-Teams statt.

Die gute Nachricht ist:

Es gibt einfache Werkzeuge um die geleistete Denkarbeit in die Webseite zu übertragen. Den Sitecore Engagement Plan zum Beispiel:

Sitecore Engagement Plan
Sitecore Engagement Plan

Das kommt Ihnen nun sicher bekannt vor? Unterscheidet sich vom Prinzip her nicht sonderlich von den Maniac Mansion Design-Dokumenten aus 1987.

Mit Sitecores Rule Editor werden Bedingungen für das Nutzerverhalten auf der Seite erstellt. Das Tool ist genauso leicht zu bedienen, wie der Filter-Assistent von Microsoft Outlook.

Sitecore Rule Editor
Sitecore Rule Editor

Zukunftsausblick

Es ist sicher nicht allzu vermessen davon auszugehen, dass Content Management Systeme in Zukunft in der Lage sein werden nach vorher festgelegten Algorithmen zu lernen und sich automatisch selbst an das Verhalten der Nutzer anzupassen. Amazon ist hier ja bsw. ein sehr bekannter Vorreiter („Kunden die diesen Artikel gekauft haben, kauften auch…“) Allerdings ist ein Algorithmus im weitesten Sinne und auf seine Grundbestandteile reduziert auch nichts anderes als ein Entscheidungsbaum, den man sich vorher im Kopf überlegt hat.

Unser praktischer Tip zum personalisieren von Webseiten daher:

Machen Sie es wie Gandhi. Versetzen Sie sich gedanklich in Ihre verschiedenen Benutzer und spielen Sie Ihre Webseite durch.

Dokumentieren Sie das Verhalten der Webseite mit einfachsten Mitteln: Zettel & Stift

Werkzeug zur Planung automatisierter Webseiten
Werkzeug zur Planung automatisierter Webseiten

Erstellen Sie so Entscheidungsbäume und Klickpfade, anhand derer Sie erkennen, wo Ihnen eine automatisch personalisierte Webseite einen Wettbewerbsvorteil in Form von mehr Umsatz, Einsparungen von Arbeit und Zeit sowie zufriedeneren Kunden bringen kann.

Ach und noch eine Sache:

Bei der Entwicklung solcher Klickdiagramme entdecken Sie möglicherweise auch unterhaltsame und skurrile Interaktionen wie den Hamster in der Mikrowelle. Solche Easter Eggs haben durchaus  das virale Zeug dazu, Ihre Besucher so zu begeistern, dass sie über 25 Jahre später noch an das Erlebnis auf Ihrer Webseite denken 😉 Das einfachste Beispiel ist hier wohl die Google-Sucheingabe „do a barrel roll“ oder falls Sie iPhone-Nutzer sind, stellen Sie Siri einmal die Frage: „Siri, was sagt der Fuchs?“ und danach fragen Sie einfach noch einmal 🙂 

 

Wenn Sie mehr über die Möglichkeiten von automatisch personalisierten Webseiten erfahren möchten, vereinbaren Sie hier ein unverbindliches Beratungsgespräch mit unseren Experten.

 

Was wurde eigentlich aus dem Hamsterkiller?

Die Auflösung bin ich Ihnen ja noch schuldig. Natürlich war der kleine Handlungsstrang mit dem gekochten Hamster in der Küche noch nicht beendet.

Geht man mit dem gekochten Hamster zurück in das Zimmer, aus dem man das Tierchen entwendete, steht dort Ed, der außerirdische Hamsterbesitzer neben dem leeren Käfig.

hamstergrill_11
(c) Lucas Arts – Screenshot von Tentakelvilla.de

 

Gibt man Ed nun den gekochten Hamster zurück, nimmt das Spiel ein jähes und berechtigtes Ende. Soll niemand sagen, dass Hamstermord nicht bestraft wird!

hamstergrill_12
(c) Lucas Arts – Screenshot von Tentakelvilla.de

Übrigens: Ron Gilbert ist einer der wenigen Menschen, der sich einmal (trotz vorheriger und eingehender Warnung dies nicht zu tun) mit Steve Jobs gestritten hat. Diese wunderbare Geschichte gibt es wie viele weitere Einblicke in die wunderbare Welt der Computerspiele drüben auf seinem Blog grumpygamer.com.

Den vollständigen Spielverlauf von Maniac Mansion in einzelnen Screenshots können Sie sich hier anschauen.

 

Sitecore CMS in der Cloud mit Microsoft Azure – Ein Fallbeispiel

Microsoft Azure Infografik

Ein Enterprise CMS-System wie Sitecore in der Cloud zu betreiben macht in vielen Fällen Sinn. Insbesondere bei regelmäßigen Lastspitzen oder bei weltweit verteilt betriebenen Webseiten. Azure ist Microsofts Cloud-Lösung, bringt automatisches Deployment von Webservern mit und unterstützt natürlich auch Microsoft SQL Datenbanken. Da Sitecore auf Windows-Server-Plattformen läuft, bietet sich hier eine genauere Prüfung einer kombinierten Lösung an.

Microsoft Azure Infografik
Microsoft Azure Infografik

Ein solches Vorhaben bringt einiges an Fragen, Anforderungen und Herausforderungen mit sich. Deswegen führten wir ein Testprojekt durch, bei dem unsere Kollegin Friederike die Kopie eines Kundenprojekts in die Azure Cloud umzog, um valide Erfahrungen mit dieser speziellen Lösungs-Kombination zu sammeln. Diese Erfahrungen haben wir in einem Test-Tagebuch festgehalten, aus dem wir Ihnen hier die wichtigsten Erkenntnisse vorstellen möchten.

Alles ist ein Service

Mittlerweile gibt es tatsächlich die Abkürzung XaaS bzw. EaaS – „Everything as a Service“ als Überbegriff für all die Leistungen wie Software, Plattformen, Infrastrukturen, Laufzeitumgebungen, Hardware und viele mehr, die sich als Services buchen und on demand beschaffen lassen.

Die generellen Hauptvorteile für Kunden beim Einsatz einer Cloud-Strategie sind:

  • Keine Bindung an physische Güter
  • Aktualität und Leistung von Hardware immer ausreichend
  • flexible Abrechnung nach Nutzungsintensität, -Dauer, Nutzeranzahl
  • keine Kapital-Bindung
  • geringe bis keine Wartungskosten

Die eingangs gezeigte Infographik von Microsoft (hier zum Download als PDF) illustriert sehr gut, welche Gesamtmöglichkeiten die Microsoft Azure Cloud-Services bieten. Wir konzentrieren uns hier auf einen kleinen Teilbereich.

Sitecore CMS in der Cloud – IaaS

Eine Telko mit dem Azure Vertrieb brachte zunächst Überraschendes hervor: Das Aufsetzen einer Sitecore Instanz dauert nur 7 Minuten. Weltweit! Das ist erstmal schwer zu glauben, stellte sich aber als Tatsache heraus.

Microsoft-Azure-Uebersicht

Aber: Das bedeutet im einzelnen das hinzu schalten / hochfahren einer weiteren Sitecore CD Instanz dauert 7 Minuten. Das basiert allerdings auf einer vollständig konfigurierten Publizierungsinstanz / Deployment Center. Dieses vorzubereiten und aufzusetzen (Sitecore Installation) und dann zu konfigurieren dauert natürlich länger. Diese Arbeit hätte man aber auch bei einer Installation im eigenen Rechenzentrum.

In einem unserer Testläufe haben wir Azure als IaaS (Infrastructure as a Service) getestet. Zum einen kann ein virtueller Server als „Quick Create“ aufgesetzt werden. Diesen kann man sich wie einen frisch installierten Rechner vorstellen.

Interessanter sind für uns in diesem Fall die vorkonfigurierten Server-Images aus einer Gallery. Wir entscheiden uns für Option A3 mit 4 CPU-Kernen und 7 Gigabyte Arbeitsspeicher. Übrigens ist als Serverstandort in Westeuropa nur Amsterdam oder Dublin möglich. Eine Standort-Option in Deutschland gibt es (zumindest noch) nicht.

Die Installation von Sitecore lief für unsere Experten an sich problemlos. Einzig an einigen Stellen musste die Dokumentation konsultiert werden:

  • diverse Module für den IIS Webserver nachinstallieren
  • Datenbankuser korrekt anlegen
  • korrekte Portangabe setzen

Kosten für den Installationsvorgang auf der virtuellen Maschine: 0,21 €

Zitat aus unserer Technik: „Hier habe ich genau die gleichen Malessen mit Lizenzen, Updates, Wartung, Administrierung wie im eigenen Rechenzentrum. Nur das Blech habe ich in diesem Fall nicht.“

Mehr können Sie dazu hier in der Dokumentation bei Microsoft erfahren.

Azure SQL wird in die Cloud ausgelagert – SaaS

Hier liegt nur die Datenbanksoftware in der Cloud. Dadurch wird das zu Grunde liegende Betriebssystem irrelevant. Dabei unterliegt Azure SQL einigen Unterschieden zur Microsoft SQL, wodurch sich die Datenbanken nicht so einfach migrieren ließen wie gewohnt.
In diesem SaaS-Fallbeispiel wird also nur ein Softwarebestandteil in der Cloud genutzt.
Wenn die Windows-Server sowieso zur Verfügung stehen, haben wir für dieses Modell keine direkte Anwendungsmöglichkeit in unserem Umfeld gefunden.

Sitecore CMS in der Cloud – PaaS

Sicherlich das spannendste Szenario. Hierzu haben wir zunächst die virtuelle IaaS Maschine kopiert und als Deployment Center benutzt. Natürlich hätten wir hierfür auch einen bereits lokal und physisch vorhandenen Server hernehmen können.

Sitecore Azure Traffic Manager

Dann wurde eine Kopie der Daten des Kundenprojekts, die wir freundlicherweise für unseren Test nutzen durften, in das Projekt migriert. Nach ca. einem Tag war die Migration der Daten (Languages, Templates, CoreDB, Files Package, Database Package und Configs) erfolgreich durch.
Sitecore wurde auf die aktuellste Version upgegradet.
Das Azure Modul wird schlussendlich installiert und konfiguriert.
Danach kann innerhalb von 7 Minuten per Klick ein Server hochgefahren werden. Ob in Hongkong, Dublin oder Australien ist dabei quasi unerheblich.
In diesem Fall liegt alles was wir benötigen bereits vorinstalliert als „Plattform“ in der Cloud:
  • Betriebssystem
  • IIS Webserver
  • lauffähiges Sitecore
  • und Datenbank als SaaS oder Datenbank-Server oder im eigenen Rechenzentrum“

Wenn der DNS-Eintrag auf den Azure Traffic-Manager und die Routings entsprechend angepasst sind, werden bspw. Anfragen aus Südostasien deutlich schneller bedient, als wenn diese Besucher auf einen Webserver in Deutschland geroutet würden, da der Traffic Manager als Geo-DNS fungiert und den Traffic intelligent je nach Standort der Benutzer umleitet.

Bei besonderen Lastspitzen geht das ganze Procedere übrigens auch automatisch.
Sprich:
Server werden nach Bedarf gestartet, wenn plötzlich der Traffic irgendwo auf der Welt hoch geht. (Wenn zum Beispiel ein Fernsehbeitrag in Australien gezeigt wird.) Genauso können stärkere Maschinen per Termin im Voraus gebucht werden. An Weihnachten, bei einer geschalteten Kampagne oder zum Produkt-Launch. Zum angegebenen Zeitpunkt werden demnach die Serverkapazitäten erhöht und nach Ablauf wieder gesenkt um auf smarte Weise Kosten zu sparen.

Aus welchen Gründen kann eine CMS-Instanz in der Cloud Sinn machen?

  • Admins sparen Hardware, Zeit, Geld, Lizenzen, Wartung. Backups aus der Cloud auf lokale Rechner sollte man sich natürlich trotzdem noch ziehen.
  • Entwickler können schnell mal ein volles Testsystem hochziehen für 1-3 Tage nutzen und dann wieder abschalten. Gezahlt wird zeitgenau abgerechnet anstatt für fünfstellige Summen neue Server zu kaufen.
  • Global verteilte Standorte sind on demand möglich und damit auch eine schnellere Auslieferung an Endnutzer.
  • Plötzlich ansteigender Traffic kann automatisiert und nach fein einstellbaren Regeln abgefangen werden.

Gibt es eine Kostenersparnis?

In unserem Beispiel könnte die Azure-Lösung einige Prozentpunkte günstiger sein als die vorhandene physische Struktur.
Aber:
Ein Umzug in die Cloud wäre ein umfangreiches Projekt, das momentan noch die Einsparungen auffressen würde.
Für neue Projekte könnte eine Cloudnutzung durchaus von Beginn an günstiger sein.

Qualitätssicherungssysteme und Entwicklungssysteme, die nur bei Bedarf genutzt werden, könnten in einem „Pay-as-you-Go“-Bezahlmodell durchaus zukünftig eine Ersparnis bedeuten.

Fakt ist, dass sich Anbieter von Cloudlösungen wie Google, Microsoft und Amazon – um nur einmal die großen zu nennen – quasi ständig neu unterbieten was die Kosten angeht oder den Funktionsumfang für den Kunden erweitern. Damit werden Cloud-Ansätze zunehmend attraktiver.

Unser Fazit:

Die Komplexität eines Cloud-Umzugs ist nicht zu unterschätzen und setzt eine sehr präzise Planung für einen konkreten Use-Case voraus. Je nach Use-Case kann bereits heute eine Kostenersparnis realisiert werden. Performance-Gewinn und -Optimierung ist auf jeden Fall möglich.

Interessieren Sie Details zu unseren Erfahrungen mit Sitecore in der Cloud? Nehmen Sie gerne Kontakt mit uns auf!

Weiterführende Informationen:

In einer hervorragenden 7-teiligen Blog-Serie beschäftigt sich Microsoft Architect Evangelist Holger Sirtl hier bei MSDN mit der Auswahl der einzelnen Ausführungsmodelle von Microsoft Azure anhand von verschiedenen Szenarien:
Teil 1: Überblick über die Ausführungsoptionen
Teil 2: Virtual Machines
Teil 3: Cloud Services
Teil 4: Websites
Teil 5: Mobile Services
Teil 6: Auswahl des besten Ausführungsmodells
Teil 7: Wechsel des Ausführungsmodells

Für die Kostenkalkulation eines Cloud-Projekts hat Microsoft einen Preisrechner veröffentlicht

Monatliche, kostenlose Webcasts zum Thema Azur bietet Microsoft hier an

Fallstudien zu Microsoft Azure finden Sie hier

Eine zusätzliche Beschreibung der Besonderheiten bei der Installation des Moduls Sitecore Azure finden Sie bei den schweizer Kollegen im namics-Blog

Was macht uns zu einem attraktiven Arbeitgeber? Rückblick zur HR-Sommerakademie, Teil 1

Im Juli 2014 fand die dritte Sommerakademie der Quadriga Hochschule Berlin statt. An drei Tagen präsentierten und diskutierten insgesamt 26 Referenten mit rund 50 Teilnehmern im Herzen der Bundeshaupstadt über Themen und Instrumente moderner Personalführung. Jeder Akademietag orientierte sich an einem HR-Thema: Employer Branding, Recruiting und Personalentwicklung. Neben Best practice-Beispielen, Workshops und Diskussionen gab es außerdem eine Exkursion, die für mich ganz besonders spannend war: Eine Führung beim Spieleentwickler Wooga.

Meine Lieblingsthemen, HR-Trends und für comspace besondere Very Important Points (VIPs) gibt es im 3-teiligen Blogartikel. Los geht’s mit Tag 1 zum Thema “Employer Branding”.

Rednerpult bei der HR-Sommerakademie in Berlin
HR-Sommerakademie der Quadriga Hochschule Berlin

Der Mensch macht den Unterschied

Der erste Akademietag startete dynamisch mit einem Keynote-Vortrag von Matthias Malessa, (bis Ende Juli 2014) Chief Human Resources Officer der adidas Group. Seine Grundannahme lautete: Produkte werden durch neue Management- und kontinuierliche Verbesserungsprozesse wie KAIZEN qualitativ immer hochwertiger aber auch vergleichbarer. Den wirklichen Unterschied machen der Mensch und die Emotionen, die man mit einem Produkt verkaufe.

In Bezug auf das Employer Branding bedeutet das für adidas, alle Bewerber auch als potenzielle Kunden und Referenzen für das Unternehmensimage zu betrachten; eine Sichtweise, die erst kürzlich Henner Knabenreich in seinem personalmarketing2null-Blog unter dem wunderbar treffenden Stichwort “Candy Date„-Experience beschrieben hat. Auch unsere Standortnachbarn von embrace aus Gütersloh haben eine erfrischend dienstleistungsorientierte Perspektive auf das Thema Employer Branding durch Candidate Experience Management.

Wie man potenzielle und bestehende Mitarbeiter optimalerweise erreicht und bindet, beschrieb Herr Malessa mit dem Begriff “One-Branding”: Die Employer Brand muss das Produktversprechen des Unternehmens erfüllen, für beide müssen dieselben Botschaften und Werte gelten.

Der Kern einer Arbeitgebermarke, die Employer Value Proposition (EVP), sei bereits in jedem Unternehmen implizit vorhanden, man müsse sie nur enthüllen, z.B. durch Mitarbeiterbefragungen. Diese EVP sollte dann intern und extern möglichst authentisch kommuniziert werden, das geschieht bei adidas durch:

  • Videos von Mitarbeitern und Führungskräften
  • Informationen im Internet und Intranet
  • einem Referral program (Mitarbeiter werben Mitarbeiter)
  • gutes Bewerberverfahren
  • eine repräsentative Arbeitsumgebung
  • Employer branding guidelines
  • Teilnahme an Arbeitgeber-Rankings
HR Sommerakademie 2014
„Make greatness happen“ – Keynote-Vortrag von Matthias Malessa (adidas)

Erzählen, wer wir sind

Das Stichwort “authentisch” war auch im Workshop mit Dominik Thesing, Chief Operating Officer der KKLD* GmbH, allgegenwärtig. Seine “12 Gebote einer guten Arbeitgebermarke” mündeten in der Erkenntnis, dass die Kommunikation der Arbeitgebermarke glaubwürdig, transparent und einfach sein sollte. Klassisches “post & pray”-Recruiting stelle ein Auslaufmodell dar und es gehe nicht mehr darum, Mitarbeiter zu suchen, sondern als Arbeitgeber eine bestmögliche Auffindbarkeit in sozialen Netzwerken zu schaffen. Laut Herrn Thesing werden in Zukunft “Data Mining” (im Laufe der nächsten Tage auch oft unter dem Stichwort “Active Sourcing” besprochen), Netzwerken und Social Media Monitoring wichtige Faktoren der modernen Personalarbeit sein. Herrn Thesings Fazit am Ende des Workshops: Die Technik hinter den sozialen Netzwerken sei beherrschbar. Wichtig sei es, vorab zu klären: Wer bin ich und was habe ich zu erzählen?

Mitarbeiter als full-time-marketer

Ein durchweg gelungenes Best practice-Beispiel stellte Isabel Ihm von der juwi AG vor. Unter dem Thema “Wie Mitarbeiter zu Markenbotschaftern werden” konzipierte die juwi AG eine eigene Markenakademie für alle Mitarbeiter. Konzeptionell wurde hierbei unterschieden zwischen dem intellektuellen Markenverständnis (Wofür stehen wir? Was zeichnet unsere Marke aus?) und der emotionalen Markenverpflichtung (Wie stark identifizieren sich die Mitarbeiter mit der Arbeitgebermarke?). Den praktischen Selbsttest in beiden Dimensionen konnten gleich alle Workshopteilnehmer an sich selbst vornehmen;) Neben der Schulung nahezu aller juwi-Mitarbeiter und -Führungskräfte in der Markenakademie werden die Markenwerte kontinuierlich kommuniziert:

  • beim Onboarding neuer Mitarbeiter
  • über einen eigenen Markenbereich im Intranet
  • Corporate Clothing
  • Markenbroschüren.

Zwei VIPs für comspace und einer für alle

1. Die Arbeitgebermarke wird von den Arbeitnehmern gemacht.

Unsere Arbeitgebermarke ist schon da. Sie geistert in unseren Büros, Stellenausschreibungen, Events und vor allem in den Köpfen aller Mitarbeiter umher. Um sie konkret zu fassen, werden wir noch mehr Fragen stellen müssen:

  • Wieso bist du zu comspace gekommen?
  • Warum arbeitest du gerne hier?
  • Was unterscheidet uns von unseren Wettbewerbern?
  • Was macht uns besonders?

2. Von der Funktion zum Sinn

Den für mich wichtigsten Punkt aus dem Workshop mit Dominik Thesing habe ich mir bis zum Schluss aufgespart: Vergesst die reine Funktionsbeschreibung in Stellenanzeigen. Gebt jeder Tätigkeit einen Sinn! Gut nachzulesen auch in Daniel Pinks Buch “Drive – Was Sie wirklich motiviert.

3. Ein VIP für uns alle:

In Zeiten von kreativer Kopfarbeit, neuen Formen unternehmerischen Arbeitens und immer lockerer werdenden Arbeitsverhältnissen sollten wir anfangen, altmodische Begrifflichkeiten wie “Arbeitnehmer” und “Arbeitgeber” hinterfragen. Erfreulicherweise hat z.B. die Wollmilchsau bereits einen Anfang gewagt: „Bye Bye Arbeitnehmer„.

 

IT-basierte Weiterbildung und selbstorganisiertes Lernen

Weiterbildungszertifikate bei comspace

Der Branchenvergleich ist eindeutig: In der ITK-Branche gab es 2011 die meisten Weiterbildungstage pro Mitarbeiter – nämlich 4,5 (gesamter Durchschnitt 2,5). Die wissensintensive ITK-Branche betreibe laut der Studie “einen deutlich höheren Aufwand, die Beschäftigten den sich rasch wandelnden Marktanforderungen gemäß fortzubilden”.

Weiterbildungszertifikate bei comspace
Weiterbildungszertifikate bei comspace

Auch in den deutschsprachigen Blogs sind Weiterbildung und lebenslanges Lernen ein regelmäßiges Thema. Auf kleinerdrei.org erschien bsw. vor wenigen Tagen der Beitrag “Meine 3. Bildungsanstalt”  in dem die Autorin beschreibt, wie ihre persönliche Wissenserschließung und Meinungsbildung durch das Web beeinflusst wurde. Karrierebibel gibt 25 hervorragende Tips zur beruflichen Weiterbildung und beim Deutschen Bildungsserver finden Sie eine umfangreiche Sammlung zu Blogs, die sich mit den verschiedensten Facetten des lebenslangen Lernens beschäftigen. Und auch zum Thema Weiterbildung gab es 2014 bereits eine Weiterbildungs-Blogparade, bei der 25 qualifizierte Beiträge von deutschsprachigen Bloggern eingereicht wurden.

Auch für comspace ist Weiterbildung ein wichtiger Bestandteil der Unternehmenskultur. Warum das so ist, welche gesellschafts- und branchenspezifische Entwicklungen uns beeinflussen und wie wir individuelle Weiterbildungsinteressen unterstützen, zeigt dieser Artikel.

Lebenslanges, selbstorganisiertes und technikunterstütztes Lernen

Weiterbildung im Unternehmen hat mittlerweile viele Facetten: Vor dem Hintergrund der demografischen Entwicklung, dem Fachkräftemangel und immer dynamischeren Berufsbiografien wird das lebenslange Lernen als kontinuierliche Weiterentwicklung hervorgehoben. Daneben beschreibt der Begriff “selbstorganisiertes Lernen” den Verantwortungswandel im Bereich Weiterbildung. Diese wird nicht mehr “von oben” herab verordnet, sondern immer selbstbestimmter vom Mitarbeiter initiiert. Aus der steigenden Flexibilität ergibt sich damit auch ein Mehr an Verantwortung und Selbstorganisation für jeden Einzelnen. Personaler müssen starre Weiterbildungskataloge und -regeln aufweichen und stattdessen beraten, begleiten und organisatorisch unterstützen. Methodisch verlagert sich Weiterbildung zunehmend in digitale Formate. Schlagworte wie E-Learning, Blended Learning und Open Educational Resources (wie z.B. die MIT OpenCourse Ware) sind in aller Weiterbildungs-Trendforscher Munde.

Besonderheiten in der IT-Branche

Bei comspace stehen wir zudem vor einer weiteren besonderen Situation: Wir arbeiten täglich mit der Software unterschiedlicher CMS- und eCommerce-Hersteller und betreuen komplexe Systemlandschaften. Um die Anforderungen unserer Kunden bestmöglich umzusetzen, brauchen wir ein kompetentes Team aus Web-Entwicklern, Online Marketing-Spezialisten und IT-Fachleuten mit sehr spezifischen Fachkenntnissen. Weiterbildung bedeutet aber auch ständige Aktualisierung dieser Fachkenntnisse, da das Wissen in der IT-Branche eine relativ kurze Halbwertzeit hat. Technische Neuerungen und regelmäßige Updates von Soft- und Hardware erfordern eine kontinuierliche Aktualisierung des eigenen Wissens und Könnens.

Weiterbildung bei comspace

Lebenslange, selbstorganisierte und technologiegestützte Weiterbildung funktioniert im comspace-Alltag so:

Um kompetent in ihrem jeweiligen Tätigkeitsbereich arbeiten zu können, erhalten neue Kollegen_innen kurzfristig eine fachliche Grundqualifikation in “ihrer” Kerntechnologie durch den jeweiligen CMS-Hersteller bzw. Software-Anbieter. Das lebenslange Lernen verläuft anschließend so, wie unser Geschäftsführer Andreas es im Rückblick auf  das Forum Arbeitgeberattraktivität beschrieben hat:

“Bei uns finden Karrieren von unten nach oben, von links nach rechts, in Technologie A und B und in unterschiedlichen Projekten statt.”

Entsprechend werden Kollegen_innen, die in einen anderen Tätigkeitsbereich wechseln, natürlich auch in der neuen Kerntechnologie geschult. So stellen wir sicher, dass alle Entwickler für “ihre” Technologie zertifiziert sind oder z.B. Projekt- und Account-Manager dieselbe “Projektmanagement-Sprache” sprechen.

IT-basiertes Lernen

Neben Inhouse-Workshops und externen Präsenzweiterbildungen nutzen wir wenn möglich zum Lernen auch unser Arbeitsmedium, das Internet. Softwareupdate-Schulungen, CMS- oder Web-Analytics Zertifizierungen absolvieren comspace’ler auch gerne per Webinar. Das spart nicht nur Zeit und Geld, sondern stellt auch den Genuss des comspace-Kaffees während der Weiterbildung sicher.;)

Selbstbestimmt über den Tellerrand schauen

Darüber hinaus lernen wir so, wie wir arbeiten: selbstbestimmt. Weiterführende Seminare, Konferenzen, Kongresse etc. können alle Mitarbeiter selbst auswählen und nach Absprache mit dem Team und Führungskräften besuchen. Bei der individuellen Fortbildung können comspace’ler dazulernen, fachsimpeln, über den Tellerrand schauen, netzwerken und manchmal sogar die ein oder andere “Berühmtheit” treffen, wie unsere Kollegen René auf der SEO Campixx oder Alex bei der re:publica. Ohne TV-Star bzw. -Sternchen, aber trotzdem interessant waren in diesem Jahr die Besuche beim “Forum Arbeitgeberattraktivität”, der Smashing Conference in Oxford sowie beim KrisenPRCamp.

So verschieden die jeweiligen Veranstaltungen sind (vom Benimmtraining für Azubis bis hin zum Feelgood-Management war bislang einiges dabei), so unterschiedlich sind auch die Rahmenbedingungen für die einzelnen Veranstaltungen. Deswegen verzichten wir bei comspace bewusst auf ein festes Weiterbildungsbudget pro Mitarbeiter, um möglichst viele Weiterbildungsformate individuell zu ermöglichen.

Lernen off-the-job: Berufsbegleitende Weiterbildung

Alle, denen ein mehrtägiges Seminar nicht reicht, unterstützen wir gerne bei einer langfristigen nebenberuflichen Weiterbildung:

  • So hatte unsere Kollegin Hanna bereits ein MBA-Studium an der FHM Bielefeld begonnen, bevor sie zu comspace kam. Bei uns kann sie sich nun ihre wöchentliche Arbeitszeit flexibel einteilen, d.h. sie arbeitet am Anfang der Woche “vor” und hat Freitagnachmittags frei für ihr Studium. “Besonders toll ist die Unterstützung von den Kollegen und meinem Projektpartner Markus, der mich an meinem arbeitsfreien Nachmittag zuverlässig vertritt.”
  • Eine andere Lösung hat unser Kollege Daniel gewählt, der berufsbegleitend an der FHDW Bielefeld studiert. comspace übernimmt für ihn die Finanzierung des Hochschulstudiums, im Gegenzug hat er eine Fortbildungsvereinbarung unterschrieben. “Davon profitieren alle. Ich kann ohne finanzielle Belastung studieren, habe einen sicheren Arbeitsplatz und comspace einen fest einplanbaren Mitarbeiter.”
  • Alle comspace’ler können darüber hinaus jährlich ihre wöchentliche Arbeitszeit anpassen. Bei einer nebenberuflichen Weiterbildung (aber auch z.B. zur Pflege kranker Angehöriger oder “einfach nur so”) besteht die Möglichkeit, die Arbeitszeit individuell zu kürzen und bei Bedarf anschließend wieder zu erhöhen.

Fazit:

Alle Weiterbildungsmaßnahmen bei comspace verkörpern einen wichtigen Wert in unserem Unternehmensleitbild: Professionalität. Denn wir sind der Meinung: Wer aufhört, besser zu werden, hat aufgehört, gut zu sein. Deswegen lernen alle comspace’ler schon heute selbstorganisiert und technologiegestützt in unterschiedlichen Formaten während ihres gesamten Erwerbslebens. Damit wir immer besser werden. Jeden Tag ein bisschen.

 

“Intelligenz ist der beste Baustoff” – comspace Exkursion zu Xella

5.Ytong-Wirtschaftlichkeit-1000Px
(c) Xella

Die Produkte, mit denen wir arbeiten und die wir herstellen sind anspruchsvoll, umfangreich und komplex, aber leider nie “zum Anfassen”. Deswegen freuen wir uns immer wieder, wenn wir einen unserer Kunden besuchen können und vor Ort sehen und verstehen, wie dort Industrie-Produkte entstehen. Einerseits können wir uns so besser in die Bedürfnisse unserer Kunden hinein versetzen – andererseits ist es für uns immer eine willkommene Abwechslung, von der Tastatur weg zu kommen und dort reinzuschnuppern, wo in diesem Fall aus natürlichen Rohstoffen, gigantischen Maschinen und Industrie-Know-how innovative Baumaterialien geschaffen werden.

“Intelligenz ist der beste Baustoff” lautet einer der Werbeclaims unseres Open-Text Kunden Xella, der aber auch durchaus zu uns passen würde 🙂

Ytong-Steine

Umso spannender war für uns letztens der Besuch in zwei Xella-Werken. Wer schon einmal an einem größeren Bau-Projekt beteiligt war, dem sind sicherlich die Marken Ytong Porenbeton, Silka Kalksandstein und Multipor Dämmplatten ein Begriff, mit denen Xella Marktführer in Deutschland für hochwärmedämmende und massive Wandbaustoffe ist.
Xella ist mit 7.227 Mitarbeitern rund um den Erdball vertreten und hat 2012 einen Umsatz von 1,3 Milliarden Euro erwirtschaftet. Die Unternehmensgruppe betreibt insgesamt 98 Werke in 20 Ländern und ist in rund 30 Ländern mit Vertriebsorganisationen präsent.

Im Ytong-Werk Köln-Porz startete auch unsere Betriebsbesichtigung mit vollzähligem Projektteam und der WAGA GmbH, unserem Kooperationspartner für User Experience und Visual Design.

Xella-comspace

Dort zeigte uns der Werksleiter zwischen Riesen-Silos und gigantischen Brennöfen auf einer 90-minütigen Führung, wie aus den umweltfreundlich abgebauten Rohstoffen Sand, Kalk, Zement, Wasser und Luft die Porenbeton-Steine hergestellt werden. Der Porenbeton wurde 1923 vom schwedischen Architekten und Forscher Axel Eriksson in Yxhults erfunden (daher der Name Ytong – von „Yxhults Anghärdade Gasbetong“).

Xella: Vom Sand zum Stein
Xella: Vom Sand zum Stein

Bei der Porenbeton-Produktion wird den o.g. natürlichen Grund-Bestandteilen noch Aluminium als Treibmittel hinzugefügt. Dadurch entsteht in der Betonmasse Wasserstoffgas, das die feinen Poren bildet, in denen nach dem Härten und Austrocknen Luft übrig bleibt. Diese feinen mit Luft gefüllten Poren sorgen zum einen dafür, dass die Steine im Verhältnis zu massivem Beton deutlich leichter sind und andererseits erhalten sie hervorragende Dämm-Eigenschaften. Durch das formgebende Planblock-System konnten Bauzeiten deutlich verkürzt und durch die günstige Herstellung Baukosten deutlich gesenkt werden.

Silka-Silo

“Ytong herstellen ist ein bisschen wie backen mit Backpulver” nannte es mein Kollege Markus Plauschinn. – Klar, in der Dr. Oetker-Stadt Bielefeld kennen wir uns mit Backpulver aus 🙂

Nach den leichten und hochdämmenden Ytong-Steinen schauten wir uns die Silka Produktion an. Diese Kalksandsteine kommen seit Jahrzehnten als Baumaterialien zum Einsatz und erste Anwendungen gehen auf das Jahr 1898 zurück. Sie werden aus den natürlichen und regionalen Rohstoffen Kalk, Sand und Wasser hergestellt und enthalten keine giftigen Stoffe. Außerdem ist der Baustoff hoch belastbar, sodass auch tragende Wände mit hohen Lasten daraus gebaut werden können. Diese sorgen dann zusätzlich für ein gutes Raumklima, da Kalksandstein Temperaturschwankungen ausgleichen kann und dabei hoch schalldämmend wirkt.

Silka-anfassen

Besonders beeindruckend war die schiere Größe der einzelnen Maschinen und Öfen:

Xella-Ofen-Arbeiter-2

Wie auch die Lagerfläche – Steine für bis zu 1000 Häuser lagern hier:

Xella-Lager

Der größte Stein der Ytong-Produktfamilie wiegt 22 Kilogramm – bei Silka sind es für den größten Vertreter dann schon 364 Kilo.

Xella-Rechner

Xellas Anspruch ist es, in seinen Online-Kanälen die höchsten Anforderungen an umfassende Produktinformationen und Verarbeitungsempfehlungen zu erfüllen und seine Leistungen als Taktgeber und Innovator zu kommunizieren. Nachdem wir bei unserem beeindruckenden “Firmen-Ausflug” nun die Produktion und Ausführungsqualität live erleben durften, sind wir noch ein gutes Stück mehr in der Lage, unseren Kunden hierbei zu unterstützen.

Silka-Kran

Vielleicht führt uns unsere nächste Exkursion zum Xella Forschungszentrum in der Nähe von Berlin. Gemeinsam mit der Fraunhofer-Gesellschaft forscht Xella an der Stadt der Zukunft. Das könnten wir dann prima mit einem Besuch eines anderen Kunden im Otto Bock Science Center verbinden.

Silka-Lager-2

Danke an Xella für die interessante Führung und an unsere Kollegen Martin Freisen und Johannes Tappmeier für die ausführliche Foto-Dokumentation.

Wie gut das Geschäft funktioniert, darüber entscheidet auch das passende CMS

“release” heißt das neue Magazin unseres Partners e-Spirit, das heute erscheint und Content-Strategen und Marketers Anregungen für digitale Strategien im Hochglanzformat bietet.

Wir freuen uns über diese Premiere und sind gleich in der ersten Ausgabe mit einem Beitrag zu dem anspruchsvollen Thema CMS-Auswahl dabei. Hier lesen Sie das vollständige Interview mit unserem Geschäftsführer Michael Steinfort, das in Teilen in der „release“ erschienen ist. Das Interview führte Temel Kahyaoglu, LNC Group.

release_e-Spirit-sml

Die Wahl des richtigen CMS ist für Unternehmen keine Kleinigkeit

Fachliche und funktionale Anforderungen müssen beachtet werden, technische Vorgaben und betriebswirtschaftliche Rahmenbedingungen spielen eine zentrale Rolle. Zukunftssicherheit, Internationalisierung, Skalierung und die funktionale Erweiterbarkeit sind wichtige Auswahlkriterien. Jeder Relaunch bietet zudem die Möglichkeit, die Online-Strategie und bisherige technologische Entscheidungen zu hinterfragen. Ein Interview mit Michael Steinfort, Geschäftsführer bei der comspace GmbH & Co. KG, zu der Frage „Wo liegen heute die Herausforderungen bei der CMS-Auswahl?“.

Wo liegen heute die Herausforderungen bei der CMS-Auswahl?

MICHAEL STEINFORT: Für Kunden ist das Thema anspruchsvoll. Wir erleben jetzt zum einen, dass sich die Content Management Systeme spezialisiert haben. Zum anderen überschneiden sie sich immer stärker mit anderen Produkten. Die Basis-Funktionalität eines CMS ist immer gleich: Ich erstelle als Redakteur unterschiedliche Inhalte und publiziere diese auf Webseiten und weiteren (mobilen) Kanälen  – eventuell in verschiedenen Sprachen, vielleicht gibt es einen Workflow. Darüber hinaus haben die Hersteller jetzt angefangen, ihre Produkte zu erweitern. Es gibt Systeme, die zusätzlich zum Basis-CMS starke Community-Funktionen haben. Andere spezialisieren sich darauf, den Content aus unterschiedlichsten Quellen anzapfen zu können und dafür möglichst viele vorgefertigte Module zur Verfügung zu stellen, wie zum Beispiel das e-Spirit CMS FirstSpirit. FirstSpirit bietet auch einen Marketplace an. Das heißt, es gibt die Möglichkeit – analog zum Google Android Marketplace – eigene kleine Module durch Dienstleister entwickeln zu lassen und dort einzustellen. Die gleiche Strategie verfolgen andere Anbieter, um das Produkt neben der eigenen begrenzten Produktentwicklung noch attraktiver zu machen. Gleichzeitig nähern sich die Produkte immer mehr an. Ein Shop-System hatte früher beispielsweise nur ein sehr rudimentäres CMS. Heute liegt der Fokus von Shop-Systemen immer noch auf Geschäftsprozessen, der Anbindung an Warenwirtschafts-, ERP- oder CRM-Systeme und Marketing-Werkzeuge. Dennoch gibt es inzwischen Kunden, die ihre normale Webseite mit der E-Commerce-Software Hybris erstellen, statt dafür ein zusätzliches CMS zu nutzen. Der Kunde macht Kompromisse im Punkt CMS-Funktionalität, dafür weiß er aber, dass er später eine sehr vollumfängliche Shop-Funktionalität zur Verfügung hat. Das bedeutet: In den CMS-Basisfunktionen ähneln sich die Systeme immer mehr, in den Erweiterungen und Spezialisierungen erfolgt die Differenzierung.

Wozu raten Sie Ihren Kunden?

MICHAEL STEINFORT: Wir sagen immer: „Schaut die Systeme an, welche Schwerpunkte vor zwei oder drei Jahren adressiert wurden.“ Dort liegen die Kernstärken des jeweiligen Produkts. Was ein CMS langfristig auch zukunftsfähig macht, sind Aspekte wie: Gibt es eine breite Kundenbasis, hat sich der Hersteller mit Partnern wie Microsoft, IBM oder SAP strategisch gut aufgestellt und vernetzt? Heute ist eine Entscheidung für ein Content Management System eine Investition, die sich länger als drei Jahre tragen muss. Die Investitionen unserer Zielgruppe befinden sich durchaus auch im sechsstelligen Bereich. Die Nutzungsdauer liegt häufig bei mehr als fünf Jahren. Ein CMS ist heute geschäftskritisch, auch in konservativen Branchen. Daher kümmern sich inzwischen CIOs um dieses Thema und es gibt Experten, die fokussiert die CMS-Auswahl beraten. Den Kunden ist inzwischen bewusst, dass dieser Prozess keine schnelle Entscheidung sein kann und dass diese über Jahre hinweg Auswirkungen darauf hat, wie gut die Digitalisierung des eigenen Geschäftsmodells funktioniert.

Welche Unterstützung bieten Sie beim Auswahlprozess?

MICHAEL STEINFORT: Unsere Rolle als Implementierer ist unter anderem Mittler zu sein zwischen den Fachabteilungen des Kunden, das heißt vorwiegend zwischen Kommunikation/Marketing und IT. Wir haben ein Verständnis für die Marketingfachleute, genießen aber durch unsere IT-Sprache auch ein hohes Vertrauen bei den CIOs. Richtung IT ist es wichtig, dass wir als CMS-Implementierer verstehen wie die Architektur des Kunden ist und was er für Standards hat. Verwendet er Java-basierte oder Microsoft-Systeme, nutzt er gerne Open Source, gibt es Standards für Datenbanken, wo hostet er seine Rechner – In-house oder in einem externen Rechenzentrum. Diese Analyse- und Beratungsleistung ist häufig schon Teil der Akquise.

Stichwort CMS-Funktionalitäten – welche Themen stehen zurzeit im Vordergrund?

MICHAEL STEINFORT: Die Punkte Integration und Leadgenerierung sind aktuell große Themen. Nur in der Umsetzung hapert es oft. Ein Beispiel: Eine Prothese wird für einen Anwender beschrieben und auch für den behandelnden Arzt. Die zwei Zielgruppen sind Patienten und Ärzte. Das sind zwei völlig verschiedene Nutzer mit unterschiedlichen Begriffswelten. Trotzdem wird die Prothese nur einmal beschrieben. Nicht, weil das CMS nicht personalisieren kann, sondern weil die Ressourcen für die Contenterstellung nicht vorhanden sind. Das ist auch ein Punkt, wo man als CMS-Implementierer aus Erfahrung auf die notwendigen Change Prozesse hinweisen kann.

Wo genau liegen die Herausforderungen bei der Content-Erstellung?

MICHAEL STEINFORT: Für die Unternehmen wird es immer schwieriger Content zu verwalten und diesen für alle Ausgabegeräte aufzubereiten und auszugeben, denn die Ansprüche werden immer größer. Es gibt immer mehr Bewegtbild und immer mehr Endgeräte, die auch in einem ganz anderen Kontext stehen. Die ersten Automobilhersteller schließen Kooperationen mit Apple oder Google. Außerdem wird die Komplexität des Contents immer größer. Es gibt Produktdaten, Assets, Bestellinformationen, Preise, Videos, redaktionellen Content, PDF-Dokumente usw. Diese Inhalte müssen dann vielleicht noch individuell angepasst werden: für verschiedene Länder mit unterschiedlichen technischen Spezifikationen und in verschiedenen Sprachen. Irgendwann ist das nicht mehr zu schaffen, denn die Organisationen wachsen ja nicht in dem Maße, wie solche Content-Gebilde wachsen. Das können Unternehmen nur leisten, indem sie sich ein Modell definieren, mit dem sie erstens diese ganzen Daten auf ihrer Seite in ihrem Haus pflegen. Dafür gibt es PIM-, MAM-, ERP- oder CRM-Systeme. Dann muss zweitens eine “Zauberkiste” existieren. Das ist häufig ein CMS oder ein Shop-System, das die Daten aufnimmt, verarbeitet, in einem bestimmten Kontext durch redaktionelle Inhalte anreichert und dann publiziert. Egal ob die Daten aus Datenbanken, ERP-, MAM-Systemen oder Video-Streaming-Plattformen kommen – alles wird zusammen kanalisiert und dann wieder verteilt. Man redet hier auch von einem Content-Api-Modell. Wachsende Komplexität entsteht, wenn parallel zu diesem Content-Api Modell weitere Plattformen betrieben werden. Das sind z.B. mobile Apps mit proprietärem Pflegefrontend, mehrere parallel betriebene CM-, Shop-, ERP- oder PIM-Systeme.

Wie fängt man solche Situationen am besten auf?

MICHAEL STEINFORT: Eine Konsolidierung der Systeme und eine saubere Content-Stragie hilft da den Kunden. Beispiel: Eine mobile App existiert und der Fachbereich möchte diese erweitern oder erneuern. Dann ist zu prüfen, ob man den Content nicht aus einer Quelle zieht und diese proprietäre Lösung umbaut. So dass z.B. bei Änderung der Produktdaten im PIM, sich diese nicht nur auf Webseiten automatisch ändern, sondern auch in der mobilen App. Das Ziel ist, dass man sich nicht fragen muss – „Haben all meine ganzen Inseln draußen auch den gleichen Content-Stand?“.

Wie einfach ist das umzusetzen?

MICHAEL STEINFORT: Für die IT-ler in den Unternehmen ist der Punkt Komplexität reduzieren ein Muss, denn CIOs müssen die Infrastruktur im Rahmen einer IT-Governance zusammenhalten. Dagegen steht natürlich der Fachbereich, der z.B. sagt “Wir brauchen in zwei Wochen eine App”, also Geschwindigkeit erwartet. Da kommen wir als Berater ins Spiel. Wir verstehen den fachlichen Druck. Richtung Fachbereich müssen wir über die Konsequenzen der proprietären Content-Inseln aufklären. Sich in diesen Situationen durchzusetzen in dem langfristige Auswirkungen aufgezeigt werden, zeichnet einen guten Berater in dem Umfeld aus.

Es sei denn, man kann alles was man da macht, an seine Plattform z.B. ein CMS anbinden und in seine System-Landschaft integrieren?

MICHAEL STEINFORT: Genau. Dann ist es ja gut. Wenn dann ein Produktmanager sagt, mein Produkt ist jetzt nicht mehr fünfeckig sondern sechseckig, dann zieht sich das idealerweise durch alle Kanäle durch. Das bedeutet, all die Kanäle, die nach draußen publizieren, die horchen dann und sagen hier, das ist ein deutscher Benutzer, also liefere ich sechseckig aus. Und die anderen sagen, der ist aus England, der kriegt fünfeckig. Bestes Beispiel sind Netzstecker, also alle Produkte, die irgendwie einen Stecker mit 220 Volt haben. Produktinformationen sind unterschiedlich und das müssen Systeme adressieren.

Und das am besten automatisiert.

MICHAEL STEINFORT: Richtig. Denn dann kommen ja immer noch die ganzen “Hype-Themen” dazu – von Story-Telling über Content-Marketing usw. Die Komplexität kommt von ganz alleine. Aber man kann es ganz zu Anfang schon so komplex machen, dass das, was die Kunden letztendlich vielleicht wollen – so etwas wie Lead-Generierung – gar nicht mehr möglich ist, da sie vorher schon so viel Komplexität im Tagesgeschäft haben, dass sie für diese Themen einfach keine Kraft oder Kapazitäten mehr haben.

Wie sehen die Anforderungen Ihrer Kunden erfahrungsgemäß aus?

MICHAEL STEINFORT: Die Anforderung der meisten Unternehmen, die wir kennen, ist so etwas wie Kontrolle zu behalten und trotzdem loszulassen. Das ist bei vielen Konzernen der Fall, die verschiedene Gesellschaften oder Auslandstöchter haben. Diese Unternehmen haben oft sehr konträre Ziele. Einerseits gibt es so etwas wie Marken-Ziele, also ein durchgängiger Corporate Brand über die ganze Welt. Dann gibt es so etwas wie Content-Ziele. D.h., wenn ein neuer Vorstandsvorsitzender reinkommt, dann sollen das auch die Philippinen auf ihrer Website haben, denn das ist der Vorstandsvorsitzende. Oder wenn es um eine AG geht, dann ist diese berichtspflichtig, d.h. überall müssen die aktuellen Reports auf der Webseite sein. Es gibt also einerseits dieses große Bedürfnis von Kontrolle, auf der anderen Seite sollen die Ländergesellschaften etc. möglichst viel Freiraum bekommen, damit sie ihren Job gut machen können. Dann gibt es natürlich auch völlig unterschiedliche Ländergesellschaften. Eine Auslandsgesellschaft sitzt in Costa Rica und hat fünf Mitarbeiter, weil der Markt nun mal klein ist. Der Vertriebsmitarbeiter betreut das Marketing mit und hat dafür vielleicht eine Stunde Zeit in der Woche. Das ist das eine Extrem. Bis hin zu – ich bin die Tochter eines deutschen Konzerns und ich bin der amerikanische oder chinesische Markt. Meine Unit besteht aus mehr als 1.000 Mitarbeitern mit einer eigenen großen Marketingabteilung. Diese unterschiedlichen Anforderungen sind entscheidend bei der Beratung, welches CMS ist das richtige System und wie erfolgt der Projektbau für den Kunden.

Welches Know-how ist sonst noch wichtig, um die Kunden bei der CMS-Auswahl kompetent zu beraten?

MICHAEL STEINFORT: Als Implementierer müssen wir eine gute Markteinschätzung über die Anbieter haben. Wir analysieren den Markt mindestens ein Mal im Jahr, aber letztendlich prüfen wir unser Portfolioständig. Kriterien bei der Systemauswahl für comspace sind u.a. die Funktionalität des Systems, der fachliche Fit für die Zielgruppe mittelständische Unternehmen ab 1.000 Mitarbeiter bis hin zu Konzernen, ob es eine eigene Organisation in Deutschland gibt, d.h. Ansprechpartner und bei Bedarf schnellen Support vor Ort, und wie das Partnermodell konzipiert ist. Ebenso spielt die Bewertung von Analysten (Gartner, Forrester, CMS Wire) für uns eine Rolle bei der Evaluation.

Wie sieht das ideale Projektteam aus?

MICHAEL STEINFORT: Die Kooperation von Kommunikation/Marketing und IT ist eine wichtige Voraussetzung für die erfolgreiche Umsetzung der Online-Strategie auf Kundenseite. Dazu wird häufig externe Strategie-, Kreation-, User Experience Design- und Implementierungs-Expertise eingekauft. Wichtig ist in dem Zusammenhang: Bereits in der Konzeption muss das Produkt von Konzeptern / User Experience Designern verstanden werden, um dieses später erfolgreich zu implementieren.

Mal abgesehen von der Herausforderung für Unternehmen Content zu  meistern – welche Chancen und neuen Geschäftsmodelle eröffnen sich hier in den nächsten Jahren?

MICHAEL STEINFORT: Anfangs hatten Content Management Systeme einzig die Aufgabe, Redakteure ohne Web-Hintergrund in die Lage zu versetzen, Inhalte auf eine Webseite zu stellen. Heute sind weitere maschinelle Systeme wie ERP, CRM, Suchmaschinen und viele mehr hinzugekommen, die mit dem Content arbeiten müssen. Schauen wir nun auf die zukünftige Entwicklung des “Internet of Things”, zeichnet sich eine weitere Anforderung ab, Inhalte, Daten und Schnittstellen nicht nur für Menschen und betriebswirtschaftliche Systeme zugänglich zu machen, sondern für eine nahezu unüberschaubare Anzahl Geräte, die in Kombination neue Services und Produkte für den Kunden bedeuten. Nehmen wir zum Beispiel die vernetzte Waschmaschine, die neben dem aktuellen Strompreis auch den Wetterbericht aus dem Netz erhält und aus diesen Daten den besten Zeitpunkt errechnet, wann sie mit Netzstrom und wann sie mit dem eigenen Solarstrom wäscht (oder wann sie den Strom aus dem Akku des Elektroautos ziehen kann, wenn dieses vom Einkaufen zurück kommt). Es gibt Prognosen, die davon ausgehen, dass die Zahl der ans Netz angeschlossenen Geräte bis zum Jahr 2020 bei 50 Milliarden liegen wird. Da wäre es doch logisch, wenn wir Inhalte, Daten und Kommunikationskanäle nicht nur für Webseiten, mobile Devices oder Suchmaschinen abstimmen, sondern in Zukunft auch für die besagte Waschmaschine, unsere Autos oder andere Dinge, die uns im Alltag begleiten. Die Industrie arbeitet bereits auf Hochtouren an einheitlichen Schnittstellen und Standards um optimale Voraussetzungen für einen breiten Einsatz der sog. “Connected Devices” zu schaffen. Beim Thema RFID funktioniert das bereits sehr gut, warum nicht auch hier? Beherrschbare Komplexität und das richtige Maß an Kontrolle über den Content sind eine zentrale Herausforderung für die Zukunft.

Michael Steinfort, Geschäftsführer comspaceUnser Geschäftsführer Michael Steinfort verantwortet die Bereiche Vertrieb und Projektabwicklung.
Zudem entwickelt er die Partnerstrukturen weiter.

Test: Bose Noise-Cancelling Kopfhörer bei der Arbeit im Großraumbüro

Seit 2 Monaten sammeln wir nun Erfahrungen mit drei BOSE QC20 und QC15 Kopfhörern und der integrierten aktiven Geräuschunterdrückung.

Allerdings nicht aus purer Audiophilität, sondern weil wir uns von der Noise-Cancelling Funktion versprechen, deutlich konzentrierter im Großraum-Büro arbeiten zu können. Denn obwohl wir einen Akkustiker bei der Planung einbezogen haben, Schall-Absorber an den Wänden angebracht wurden und Raumtrenner lärmdämpfend wirken sollen, erzeugt auch das stimmungsvollste Großraumbüro eben einen diffusen Grund-Geräuschpegel, der sich zuweilen durch die nötige ad hoc Kommunikation mehr und mehr steigern kann.

Der BOSE QC 15 blendet das Großraumbüro einfach aus
Der BOSE QC 15 blendet das Großraumbüro einfach aus

Genau hier kommen die BOSE Kopfhörer zum Einsatz

Die Techologie der BOSE Geräuschunterdrückung nicht wie man vielleicht meinen mag aus dem high-end HiFi-Genuss, sondern aus dem Bedürfnis heraus einen ganz bestimmten Arbeitsplatz ergonomischer und sicherer zu machen:
Den von Piloten.

Wer schon einmal geflogen ist kennt das Rauschen der Außenluft, Triebwerksdröhnen und die Lüftungsgeräusche im Innern eines Fliegers nur zu gut. Hier hat BOSE bereits vor Jahrzehnten angefangen eine Technik zu entwickeln, um dieses störende und Stress verursachende Grundrauschen zu eliminieren. Weniger, damit Piloten einen schön ruhigen Arbeitsplatz haben, sondern damit sie sicher und verständlich untereinander kommunizieren können (in vielen Cockpits wird trotz der nur 1m Abstand zwischen den Piloten über die Funk-Headsets kommuniziert), wie auch über den Funk mit anderen Luftverkehrsteilnehmern und dem Tower.

Dieses Video dokumentiert bei Minute 2:25 den Unterschied in einem Flugzeug

Die Funktionsweise der BOSE Headsets

Um den Außengeräuschpegel für den Träger zu unterdrücken nehmen die BOSE Kopfhörer die Frequenz der Außenwelt mit kleinen Mikrophonen in den beiden Kopfhörer-Muscheln (bzw. den InEar Ohreinsätzen) auf und erzeugen dann elektronisch eine Gegenfrequenz, die das Umgebungsgeräusch im Ohr des Trägers ausblendet.

Was bringen nun BOSE Quiet Comfort Kopfhörer im (Großraum)-Büro?

Wer sich mal zur „produktiv Rush-Hour“ in unser neues Büro stellt wird ein deutliches „Grund-Gemurmel“ wahr nehmen. Mit der Zeit gewöhnt man sich zwar daran, unbewusst bleibt aber eine konzentrationsstörende und Stress erzeugende Wirkung. Auch wenn wir hier nicht gerade auf dem Bau arbeiten und mit Presslufthammer- und Schlagbohrer-Lärm zu kämpfen haben: Auch Bürolärm kann gesundheitlich bedenlichen Stress verursachen. Für nächstes Jahr haben wir uns den „Tag gegen Lärm“ schon fest in den Kalender eingetragen. Interessant in diesem Zusammenhang ist hier ein Artikel beim Ärzteblatt, nachdem weniger Lärm im OP die Komplikationsrate senkt.

Daher arbeiten viele unserer Mitarbeiter -besonders Entwickler, die sich gezielt auf die Lösung eines bestimmten Problems konzentrieren müssen bereits unter Kopfhörern.

Was liegt da näher, als zu testen, wie sich eine aktive Geräuschunterdrückung auf die Arbeitsatmosphäre auswirkt?

Der erste Test

Ein echtes AHA-Erlebnis hatte ich, als ich den BOSE QC15 OnEar Kopfhörer in der Mitte des Raums aufsetzte: Zunächst mal „mechanische“ Schalldämpfung durch die Ohrmuscheln.

die BOSE Headsets machen sich auch als Schmuck auf unserem Empfangsthresen hervorragend
die BOSE Headsets machen sich auch als Schmuck auf unserem Empfangsthresen hervorragend

Dann schaltete ich den Quiet Comfort Modus an der Hörmuschel des Kopfhörers an und der Vorhang ging auf! Beziehungsweise: Der akkustische Vorhang ging  zu und ich stand inmitten von tippenden und sprechenden Kollegen, hatte aber auf meinen Ohren diese Außenwelt nahezu ausgeblendet.

Klar: Ein ganz leichtes Murmeln war noch zu hören. Aber der Vorher-Nachher-Vergleich ist bemerkenswert.

Einzig plötzliche und aus dem Grundrauschen herausstechende Geräusche wie Rufe oder Türenklappen waren zu hören. Was ja grundsätzlich auch gewünscht sein kann, um gezielte Ansprachen nicht zu verpassen.

Wenn ich die akkustische Welt um mich herum vollständig ausblenden möchte, kann ich leise Musik einschalteten und auch der letzte Restlärm wird angenehm übertönt.

Was sagen die Kollegen?

Unser Kollege Tilmann hat zunächst mal eine kleine Umfrage aufgesetzt und damit evaluiert, wie die Kopfhörer ankommen – ¾ der Kollegen, die im Großraumbüro arbeiten haben sich daran beteiligt:

Bose-Headsets-Kollegen-Erfahrungen
Umfrage unter comspace Kollegen zu ihren BOSE Headset Erfahrungen

Interessant sind aber auch einige der Originalstimmen zum Einsatz von lärmreduzierenden Kopfhörern im Büro, die teilweise die Euphorie des ersten Aufsetzens dokumentieren, wie auch die Erfahrungen nach längerer Testphase:

„So der Stephan hat die jetzt – und es ist jetzt mit offenen Ohren erstaunlich was für ein Lärm hier herrscht!“

„Die Headphones würden definitiv dafür sorgen, dass man sehr viel konzentrierter an seiner Aufgabe arbeiten kann. Man hat einfach mehr seine Ruhe. Gesünder für die Ohren ist es auch, da man seine Musik nicht mehr allzu laut hören muss damit man seine Ruhe hat. Bei normalen Kopfhörer würde ein Aufdrehen der Musik auch eher dazu führen, dass man dann von seiner eigenen Musik genervt ist.“

“Für mich selber sind die Dinger uninteressant, weil ich direkt Druck auf den Ohren habe, als hätte ich gerade mit einem Aufzug 200m Höhendifferenz gemacht. Und wirklich störend finde ich die Umgebungsgeräusche hier eh nicht. (Bin damit aber wohl in der Unterzahl)”

„Hab sie auch eben mal kurz testen dürfen, die sind echt spitze, wenn auch am Anfang etwas gewöhnungsbedürftig durch den fehlenden Bass der Umgebungsgeräusche.“

„Ich denke schon das es in unserer aktuellen Lärmsituation schon Sinn ergibt, aber dadurch wird ja das Problem nicht behoben. Das wäre ja fast so, als würde man den Leuten hier in der Firma ‘nen Regenschirm an den Platz stellen, wenn es einen Rohrbruch an der Decke gibt anstatt den Rohrbruch selbst zu reparieren.“

„Stimmen, die auch sonst hervorstechen, sind weiterhin zu hören, aber auch nicht mehr gut verständlich. Man wird also auch so nicht unbedingt von aufgeschnappten Gesprächsfetzen abgelenkt.“

„Ich glaube (sic!), dass diese Kopfhörer sowohl denen nutzen, die sie tragen, als auch denen die keine wollen, denn gefühlt sind automatisch alle still, die einen Kopfhörer tragen. Manchmal kann man aber keinen normalen Kopfhörer tragen, weil Musik dann doch wieder ablenkt oder genauso nervt wie die Umgebungsgeräusche. Da sind die QC-Teile echt ne Hilfe.“

„Am besten geeignet finde ich sie bisher, um leise Musik zu hören. Da fällt das initial ungewohnte „Unterdruckgefühl“ auf den Ohren nicht so auf und auch die lauteren Stimmen der Außenwelt gehen recht schnell unter.“

„…besonders in Stresssituationen, den berühmten „Seid mal ruh… Mist, zu spät, Faden verloren“-Momenten, könnten sich die wahren Stärken zeigen.“

„Ob mir das Ganze persönlich die 250-300€ wert wäre, kann ich noch nicht beurteilen. Aber alleine diese Aussage heißt schon, dass ich Potential sehe, die Dinger nach einer längeren Testphase nicht wieder aus den Händen geben zu wollen. Ich gebe sie also am besten mal schnell weiter.“

„Wenn man viel telefonieren muss (Projektleiter oder Accountmanager), wäre die Integration mit dem Telefon ein Träumchen“

Und mit dieser letzten Aussage wären wir dann auch bei der nächsten Testdisziplin für die wir in Teilen noch auf die Reaktion des Herstellers unserer Festnetz-Telefone warten:

Testfeld 2: Telefonieren mit den BOSE Quiet Comfort

Die Headsets sind mit Stereo-Klinkensteckern plus Mikrophon-Kontakt ausgestattet. Es gibt sowohl Android / Windows-Phone Modelle wie auch für iPhone und iPad. Den Unterschied machen dabei die Funktionen der Bedien-Elemente für “Gespräch annehmen”, “lauter und leiser” usw.

Das BOSE QC20 gibt es für iOS und als Androird / Windows / Blackberry Variante
Das BOSE QC20 gibt es für iOS und als Androird / Windows / Blackberry Variante

Das Bedienteil des Kabels verfügt zudem über eine EIN/AUS-Funktion für die Geräuschunterdrückung, wenn man im Straßenverkehr unterwegs ist. Aus eigener Erfahrung kann ich sagen, dass es dort doch gesünder ist zu hören, was um einen herum passiert 🙂

Telefonieren mit den Headsets geht wunderbar. Interessanterweise reduzieren die Kopfhörer sogar das Geräusch der eigenen Stimme leicht und nehmen damit den gefühlten Druck aus den Ohren.

Besonders für die Telefon-Gesprächspartner und die umsitzenden Kollegen ist meiner Meinung nach die Anwendung beim Telefonieren ein echter Gewinn!

Erstere werden durch die leisere Sprechweise des Kollegen am Telefon geschont, der nicht das Gefühl hat, gegen den Umgebungslärm ansprechen zu müssen. Psychologisch kann das meiner Meinung nach durchaus auch zu stressfreieren und produktiveren Telefonaten führen.

Die umsitzenden Kollegen gewinnen durch leiser und ruhiger sprechende Telefonierer.

Momentan können wir die Telefonie-Funktion nur am Mobiltelefon einsetzen. Sobald wir von unserem Telefon-Hersteller Aastra die passenden Adapter erhalten haben, gehen wir zur Stufe 2 über und finden heraus, wie sich die BOSE Headsets im professionellen Telefonie-Einsatz bei Account- und Projekt-Managern schlagen.

Dabei kommt mir gerade ganz vom Thema ab die Idee, ob wir unsere Telefonanlage auch über iOS-App vom iPhone aus nutzen können. App starten, übers WLAN an der Telefonanlage anmelden, VOIP-Telefonie vom iPhone ins Festznetz und ZACK wäre auch das Adapterproblem gelöst 😉 *wink_in_Richtung_IT-Service*

Fazit des ersten Tests

Fast die Hälfte unserer Mitarbeiter denkt darüber nach, sich für den Eigengebrauch ein lärmreduzierendes BOSE Headset anzuschaffen. Ich denke, das spricht absolut für die Qualität und Alltagstauglichkeit der Geräte.

Ach und eine Sache noch: Ja, unseren Entwicklern fällt sogar zu Kopfhörern was ein:

„Speziell interessiert mich ob man die Kompatibilität der Fernbedienung zu Android mit ner App erhöhen kann. Wenn’s da nix gibt, könnten wir ja eine bauen. :)“

KrisenPRCamp 2014 in Köln: unsere erste und bestimmt nicht letzte Barcamp-Teilnahme

Bei unserem Besuch des KrisenPRCamps 2014 in Köln haben meine Kollegin Ann-Kathrin und ich als Newbies zum ersten Mal Barcamp-Luft geschnuppert – und sind vollauf begeistert von dieser Veranstaltungsform nach Hause zurück gekehrt. Die lockere, offene Atmosphäre, die auf aktivem Meinungs- und Erfahrungsaustausch beruhenden Sessions und die hohe Qualität der Teilnehmerbeiträge machte aus der Veranstaltung ein beeindruckendes Ereignis.

Aber fangen wir vorne an: Organisiert wurde das erstmals zum Thema Krisenkommunikation stattfindende Barcamp von den beiden Kölner Kommunikationsberatern und Social Media Experten Stefan Evertz und Mike Schnoor. Die Location im “Startplatz” im Mediapark Köln, einem Hotspot für Start-ups und Freelancer, war gut gewählt und bot das passend kreative Umfeld für die Veranstaltung.

KrisenPRCamp 2014 - Begrüßung durch Stefan Evertz und Mike Schnoor
KrisenPRCamp 2014 – Begrüßung durch Stefan Evertz und Mike Schnoor

Ablauf des KrisenPRCamps

Nach einer launigen Begrüßung der rund 120 Teilnehmer aus DACH am Freitag morgen durch die Organisatoren gab es eine kurzweilige Vorstellungsrunde, in der sich jeder Teilnehmer mit drei prägnanten Hashtags bekannt machte. Dann ging es an die Session-Planung. Dazu bedurfte es keiner mehrmaligen Aufrufe: in wenigen Minuten füllte sich das Flipchart mit ca. 20 interessanten Themen rund um die Krisenkommunikation. Da sich die Sessions auf vier Räume verteilten, hatte man zu jeder vollen Stunde die Qual der Wahl, welche der Parallel-Sessions man besuchen sollte.

KrisenPRCamp 2014 - Sessionsplanung
KrisenPRCamp 2014 – Sessionsplanung

Die Sessions reichten von lehrreichen Theorie-Themen (bspw. Twitter für Einsteiger, Social Media Monitoring für Einsteiger) über spannende Praxisberichte (Krisenkommunikation bei DHL, Umgang mit den letzten vier Shitstorms beim ZDF) bis zu Planspielen. Zu jedem vorgestellten Thema entspannen sich lebhafte Diskussionen. Erfahrungen wurden ausgetauscht, Tipps gegeben und im Einzelfall gemeinsame Lösungen erarbeitet. Da rauchte dem einen oder anderen nach ein paar Stunden auch schon mal der Kopf.

34 Sessions mit vielseitigen Themen und lebhaften Diskussionen

In den Sessions tauchten immer wieder Fragen auf wie diese:

Wie definiert sich eigentlich eine Krise? Wo hört eine “normale” Kundenkritik auf und wo fängt eine Krise an? Und ist eine Krise gleich ein Shitstorm, nur weil Hunderte Follower auf Facebook, Twitter & Co. einen Kommentar hinterlassen? Werden nicht oft Situationen, die im Ansatz (noch) gar keine Krisensituationen sind, durch Verbraucherreaktionen im Social Web erst zu einer Krise “hochstilisiert”? Frei nach dem Ausspruch von Arne Klempert in einem Interview:

„Die allermeisten „Shitstorms“ sind doch eher Folklore für ein gelangweiltes Publikum als ernsthafte Kommunikationskrise. Sie sind Strohfeuer ohne spürbare Auswirkungen auf die Reputation.“

Eine klare Abgrenzung zwischen Verbraucherenttäuschung, Empörungswelle und ausgewachsener Krise konnte (und kann) nicht gezogen werden. Letztendlich geht es um die Beurteilung der Relevanz einer Krisensituation und die entsprechende Reaktion darauf. In Zeiten, in denen Verbraucher durch ihre Online-Äußerungen den Erfolg oder Misserfolg eines Produktes,  einer Dienstleistung und damit eines ganzen Unternehmens massiv beeinflussen können, werden die Kommunikationsexperten der Unternehmen vor ganz neue Herausforderungen gestellt.

Unsere Learnings aus den Sessions

Was macht nun eine gute Krisen-PR aus und wie kann man sich als Unternehmen auf eine solche Situation – möge sie möglichst selten eintreten! – vorbereiten?

Folgende Tipps und Erfahrungen haben wir aus den Sessions mitgenommen:

  • schnelles Handeln im Krisenfall
  • persönliche Ansprache der Zielgruppe
  • Ehrlichkeit, Authentizität und Empathie in allen Kommunikationskanälen
  • mit nur einer Stimme aus dem Unternehmen nach außen kommunizieren
  • als vorbereitende Maßnahme auf den Ernstfall unternehmensinterne Prozesse und Abstimmungswege festlegen: Welche Abteilung / Team / Mitarbeiter ist für was verantwortlich? Wer darf in welchen Kanälen kommunizieren? Gibt es bestimmte Freigabeprozesse oder haben Kommunikations-/ Social Media-Teams eigenständige Entscheidungs- und Handlungsbefugnisse?
  • die interne Kommunikation ist im Krisenfall mindestens genauso wichtig wie die externe Kommunikation!
  • wer vorher eine gute und persönliche Zusammenarbeit mit Journalisten gepflegt und damit eine Vertrauensbasis geschaffen hat, stößt auch im Krisenfall bei der Presse auf mehr Vertrauen und Glaubwürdigkeit
  • Der beschleunigende Faktor “Kommunikation in Echtzeit” bei Twitter hat in Krisensituationen auch Vorteile, bspw. auf Pressekonferenzen: Anfragen, die über Twitter rein kommen, können direkt vorgelesen und beantwortet werden
  • Humorvolle Antworten / Videos können (bei vorhandenem Budget…) gegensteuern
  • Screenshots vom Statement twittern zur Platzgewinnung bei nur 140 Zeichen

Unser Fazit:

Das Barcamp war rundum eine gelungene Veranstaltung und eine bereichernde Erfahrung für uns. Allein die aktive Teilnahme an den Sessions und das gleichzeitige Verbreiten unserer Eindrücke im Social Web via Smartphone statt vom Büro-PC aus war eine bislang ungewohnte Herausforderung;). Zwischen den Sessions und bei leckeren Cocktails am Freitagabend (danke dafür an Jo Reinhardt) gab es reichlich Gelegenheit zu anregenden Gesprächen mit den Teilnehmern aus Kommunikations- und PR-Agenturen, Unternehmen und Behörden.

Vielen Dank an die Organisatoren und Sponsoren dieses Barcamps. Wir freuen uns jetzt schon auf eine Neuauflage im nächsten Jahr!

 

Hier können Sie weitere Berichte und Präsentationen zum KrisenPRCamp nachlesen:

Christine Dingler: KrisenPRCamp 2014: Echte Krisen, digitale Empörungswellen & überschätzte Relevanz

Kai Heddergott: kommunikative Prokura KrisenPRCamp 2014

Gesine Märten: Kreativität in der Krisenkommunikation

Christian Bartels: Shitstorm Management

Tim Ebner: Was ist ein Shitstorm? Eine klare Checkliste und Definition auch auf Slideshare

 

 

Verantwortung der Unternehmen oder: Was wir von der re:publica 2014 mitgebracht haben

re:publica im Hof

Die diesjährige re:publica – mittlerweile im achten Jahr – schaffte es sogar bis in die Tagesschau. Kein Wunder bei insgesamt über 6.200 Besuchern , 500 Vortragenden und 350 Vorträgen. Meine Planung der Vorträge für den ersten Tag ist „sogar“ zu 33% aufgegangen. Aber wie sagte schon Albert Einstein: „Planung ersetzt Zufall durch Irrtum“ und aus Irrtümern kann man hervorragend lernen.

re:publica im Hof
re:publica im Hof

Digitale Freiheit, David Hasselhoff und Verantwortung von Unternehmen auf der re:publica

Ich gestehe, dass ich mehr als skeptisch war, als ich von David Hasselhoff als Keynote-Speaker auf der rp14 hörte. Er war als Co-Präsentator des Chefentwicklers von F-Secure – dem Finnen Mikko Hyppönen auf der Bühne. Viele hatten hier zunächst eine eher flache Show im Las Vegas Stil erwartet. Zugegeben, die Keynote war professionell vorgtragen. Eigentlich schon zu professionell und offensichtlich als Dialog einstudiert.

David Hasselhoff im Gespräch mit re:publica Veranstalter Johnny Haeusler
David Hasselhoff im Gespräch mit re:publica Veranstalter Johnny Haeusler

Aber:
Zufällig hatte sich im Vorfeld die Möglichkeit für mich ergeben, Mikko Hyppönnen vorher zu einem Gespräch zu treffen und diese Unterhaltung ließ das Engagement für mich in einem etwas anderen Licht erscheinen:

F-Secure hat sowohl die weltweite Abhörproblematik, wie auch die Frage nach Datenschutz und Monopolstellungen von Google, Facebook usw. nicht als Bedrohung für das eigene Geschäft sondern vielmehr als Chance erkannt. Auf der großen Bühne stellten Hyppönen und Hasselhoff die Digital Freedom Kampagne von FSecure vor, die auf der re:publica gestartet wurde. Dabei handelt es sich im Wesentlichen um ein Wiki, in dem bis Juni ein gemeinschaftliches  Manifest zur digitalen Freiheit nach dem Crowd-Sourcing-Prinzip entstehen soll.

Im Gespräch verriet Mikko was F-Secure auf Produkt-Seite als Antwort anzubieten hat: Die App Freedome ist ein vitruelles VPN und ermöglicht Nutzern von iOS und Android zu einem Preis von monatlich knapp 5 EUR sofort eine anonyme und verschlüsselte Internetverbindung aufzubauen. Der Internet-Traffic wird bereits auf dem Nutzergerät verschlüsselt und dann nicht über US-Server geleitet sondern über die finnischen Server von F-Secure.

Mikko Hyppönen erklärt F-Secures Freedome
Mikko Hyppönen erklärt F-Secures Freedome

Laut der Aussage von Hyppönen haben weder Geheimdienste noch F-Secure selber Zugriff auf die Verbindungen oder übertragenen Daten.

Bemerkenswert finde ich daran, dass ein (im Vergleich zu Google, Apple, Facebook) recht kleines Unternehmen (F-Secure gibt es immerhin seit 26 Jahren mit aktuell knapp 1.000 Mitarbeitern) hier eine echte Marktnische entdeckt hat und sagt:

Wenn Ihr den Internetriesen nicht vertraut: Kommt zu uns nach Finnland. Wir garantieren Sicherheit, Anonymität und Privatsphäre.

Problematisch hierbei ist allerdings, dass die Grundrechte Freiheit und Privatsphäre zu einem Produkt gemacht werden. ich fühlte mich zeitweise an die Diskussion um die Privatisierung von Wasser erinnert. Sicherlich wird es hier zukünftig noch Diskussionsbedarf geben, ob Grundrechte und Gemeingüter ein Preisschild erhalten dürfen.

Möglicherweise wäre ein gangbarer Weg das Beispiel vom „One Laptop per Child“-Projekt, bei dem seinerzeit für jeden Laptop der in Industrienationen gekauft wurde, ein Gerät für ein Kind in einem Entwicklungsland zur Verfügung gestellt wurde.
Für jeden Geschäftskunden also, der seine Firmendaten verschlüsselt (und bezahlt) über F-Secures Freedome schickt, könnte somit ein von Zensur oder Verfolgung bedrohter Aktivist oder Journalist in einer Diktatur kostenlos unterstützt werden.

Wichtigste Erkenntnis war für mich: Anstatt uns machtlos zu fühlen, sondern sollten wir Alternativen und Lösungen in Form von kreativen Produkten und Dienstleistungen schaffen.

Sketchnotes – wie ich in 60 Minuten die Angst vorm Zeichnen verlor

Sketchnoting ist eine Technik mit der man ganz einfache Skizzen und rudimentäre Zeichnungen nutzt um in Vorträgen die wesentlichsten Gedanken festzuhalten. Kritzeln statt Notizen aufschreiben. Eine Bielefelder Sketchnoterin war auch vor Ort und brachte mir die deutsche Ausgabe des Sketchnoting-Handbuchs mit.

 

Das Sketchnote Handbuch
Das Sketchnote Handbuch

Bereits auf der re:publica 2013 fand dazu ein Workshop statt, der sich als SEHR erfolgreich heraus gestellt hatte. Leider hatte ich ihn letztes Jahr verpasst, so stand für 2014 Sketchnoting fest auf meinem Plan.

Zuletzt habe ich als Kind viel gezeichnet. Und das auch nicht besonders gut. Von daher war ich beeindruckt, mit welch einfachen Mitteln die Sketchnote-Experten Anna Lena Schiller, Britta Ullrich und Ralf Appelt  uns als Publikum mal eben die wichtigsten Elemente zum Figuren zeichnen, Strukturelemente wie Kästen, Schilder und Pfeile sowie das aufbauen von Symbolen aus den Grundformen Viereck, Dreieck und Kreis beigebracht haben.

Mein Ergebnis eines kleinen Experiments während des Workshops sah so aus:

 

Meine re:publica Sketchnotes
Meine re:publica Sketchnotes

Zugegeben, man braucht noch etwas Phantasie, die E-Mails auf einem Friedhof zu erkennen, die das „begraben sein von Information“, die Datenautobahn, die Festplatte, die Waage für die Infomrationsdiät und den Burger zu erkennen 😉 Für meine limitierten Fähigkeiten war ich aber doch vom Ergebnis überrascht.

Letzten Endes muss ich Sketchnoting nun aber regelmäßig üben. Um Routine zu bekommen und ein Grund-„Vokabular“ an Symbolen zu schaffen, mit denen ich tatsächlich Notizen in vorträgen und Meetings sinnvoll illustrieren kann. Im Moment würde ich mir das noch nicht zutrauen: Da das Zeichnen und überlegen wie sich eine These darstellen lässt, noch sehr lange dauert, habe ich zuviel Sorge im Vortrag etwas zu verpassen. Schreiben geht eben doch noch deutlich schneller als tippen 🙂

Die Sketchnotes, die während der re:publica entstanden sind, wurden übrigens hier auf der Seite der vortragenden Sketchnoter – vizthinking.de gesammelt.

Legen Sie sich Papier und Stift bereit und probieren Sie das Sketchnoting doch selber einmal beim Schauen des Vortrags-Videos aus:

Ostwestfalen auf der Re:Publica

Doch nicht nur das weltweite Thema Überwachung und Datensicherheit hat uns auf der re:publica beschäftigt. Andreas Kämmer war am zweiten Tag der Konferenz zu Gast im Ostwestfalen-Hangout bei bloggercamp.tv das mit den Moderatoren Hannes Schleeh, Gunnar Sohn und Thorsten Ising (Ab Minute 10:30):

Zeitgleich durfte ich im Live-Podcast und Videostream von Florian „dotdean“ Krakau mit Kathrin „diekadda“ RoenickeDaniel „wasmitmedien“ Fiene, Michael „mspro“ Seemann und Michael „kmto“ Domsalla in Re:Publica Erinnerungen schwelgen. Wobei ich zugegebenermaßen eher zuhörend mitgeschwelgt habe, da für mich als Nichtberliner die gesamten re:publicas der letzten Jahre Highlights waren und ich gar keine einzelnen Punkte herauspicken konnte 🙂

Scrollytelling, Journalismus und Content Präsentation

Inhaltliche Highlights waren für uns die Vorträge, die sich um Content drehten. So zum einen der Schweizer Journalist Constantin Seibt, der eines der lesenswertesten deutschsprachigen Blogs schreibt und an Tag 2 seine Sicht zur Aufgabe und Haltung des Journalismus schilderte. Seine Ausführungen lassen sich dabei sehr gut auf Unternehmen übertragen. Wie ich auch schon vor 2 Jahren hier im Blog über seine Definition des Journalismus als komprimierte Zeit schrieb. Schauen Sie einfach selbst:

Zwei Mitarbeiter des WDR stellten in Ihrem Vortrag „Aus dem Alltag moderner Geschichtenerzähler“ in interessantes Werkzeug zum erzählen von multimedialen Scrollytelling-Geschichten vor: Pageflow. Und legten noch eins drauf: Das auf Ruby on Rails basierende Tool wurde im Rahmen des Vortrags unter open Source Lizenz der Öffentlichkeit zur Verfügung gestellt – schließlich wurde es ja auch mit Gebührengeldern finanziert.

Kopfhörer in einigen Sälen der re:publica für die bessere Akkustik
Kopfhörer in einigen Sälen der re:publica für die bessere Akkustik

Wir konnten im Anschluss des Vortrags mit den beiden WDR-Mitarbeitern und einem Mitarbeiter der technischen Agentur hinter dem Projekt plaudern und evaluieren gerade, ob und wie Pageflow in unser Portfolio bei comspace passt.

Bemerkenswert war auch die Session zu 15 journalistischen Startups die jeder kennen muss. Hier macht der Journalismus vor, was zukünftig auch in Content Marketing, Unternehmens-Kommunikation und mobiler Präsentation genutzt werden wird.

Sascha Lobos Rede zur Lage der Nation.

Dieses Jahr habe ich den Vortrag von Sascha Lobo bewusst nicht besucht, weil ich davon ausging, es würde reichen die Aufzeichnung zu schauen und war statt dessen in Frank Riegers Vortrag „Wer soll uns regulieren?“ und Michael Seemanns Entwurf zu einem „Dezentralen Social Network„.

Tatsächlich war Lobos „Rede zur Lage der Nation“ – so  anmaßend wie der Titel auch klingen mag – eine der besten Reden des Mannes mit dem roten Irokesen bisher:

Lobos These: Das Thema Netz-Überwachung ist zu komplex um Massen zu mobilisieren, die etwas dagegen unternehmen. Daher müsste  eine professionelle Netz-Lobby geschaffen werden, die gezielt für die Freiheit und Sicherheit des Netzes arbeitet. Für diese Arbeit wird Geld benötigt. Erstaunlicherweise ist „die Netzgemeinde“ aber weniger bereit zu spenden und Organisationen wie Netzpolitik.org finanziell zu unterstützen: Der Vergleich der Netzlobby mit dem Bayerischen Landesbund für Naturschutz war erschütternd. Letzterer bringt es auf 70 Vollzeitmitarbeiter. Wobei die Organisationen für Netz-Angelegenheiten dauer-unterfinanziert sind.

Lobo hat schonmal vorgesorgt und sich für die Zukunft die Domains netzgemeinde.de und internetministerium.de gesichert. Mal sehen, wann und ob dort etwas passiert.

Unternehmen, Politik, Gesellschaft, Privatpersonen - jeder sollte sich gedanken über die Freiheit des Netzes machen.
Unternehmen, Politik, Gesellschaft, Privatpersonen – jeder sollte sich gedanken über die Freiheit des Netzes machen und seinen Teil beitragen.

Fazit

Es fällt mir immer schwer ein klares Fazit nach einer so vielfältigen Veranstaltung mit so unglaublich breit gefächerten Einflüssen und Ideen zu ziehen. Ich versuche es dennoch:

Unternehmen haben eine netzgesellschaftliche Verantwortung.
Unternehmen können über Werbung&Marketing hinaus konstruktiv kommunizieren.
Unternehmen können etwas unternehmen. – Auch mit kreativen und profitablen Produkten gegen vermeintlich übermächtige Unternehmen wie Google und Facebook.

Content erstellen, managen, verbreiten fließen immer stärker zusammen.

Selber machen: Programmieren lernen für Nullcheckerbunny mag nach Satire klingen. Dabei war es für jemanden wie mich als Nicht-Entwickler mal wieder eine Erinnerunge daran, dass auch Projekt-Manager ein Gefühl für die Mechaniken des Programmierens bekommen sollten, um besser mit Entwicklern zusammen arbeiten zu können.

Lernen, Entdecken, Machen. Waren die drei hauptthesen mit denen Alexander Mankowsky verdeutlicht hat, wie Daimler als Konzern die digitale Welt mit der echten Welt verbindet.  Dabei warf er einen Blick zurück in die Geschichte, übertrug die Erkenntnisse auf die Gegenwart und leitete Zukunftsaussichten dazu ab, welche Aufgaben Maschinen uns abnehmen können. Spannender Ausblick auf das Internet der Dinge!

re-publica-2014-alexander-mankowsky

Der Vortrag selber wurde leider nicht aufgezeichnet. In diesem Interview gibt es aber einen Einblick in Mankowskys Arbeit als Zukunftsforscher. Beispielsweise gibt er dort den Denkanstoß, dass sich das WWW vom Internet grundlegend unterscheidet:

https://www.youtube.com/watch?v=D5mQcY40ezQ

Übrigens:
Sollten Sie jemals in die Situation geraten, als nicht Techie einen Vortrag auf einer Tech-Konferenz halten zu müssen, hat Lena Reinhard hier einige wunderbare Erfahrungen von Vorbereitung, über die eigentliche Präsentation bis hin zu den Nachwehen parat.

Diese Vorträge der RePublica 2014 sollten Sie sich auf YouTube anschauen:

  1. Die Steinstrategie von Holm Friebe (Manchmal macht Aussitzen doch Sinn)
  2. Zahnbürste oder Longboard vom 12-jährigen Lorenzo Tural Osorio
  3. Allein ist die Wildnis ein öder Ort von Greta Taubert
  4. Wie ich lernte, die Überwachung zu lieben – von Felix Schwenzel
  5. How we will settle on Mars – and why von Rin
  6. Tod und Geburt der Gegenwartsliteratur im Internet von Elisabeth Michelbach
  7. Sie werden nicht glauben, was Sie hier sehen – re:publica Gründer Johnny Haeusler macht Spaß mit Live-Statistik via Twitter
  8. Big Data? Intelligente Maschinen – Yvonne Hofstetter

re:publica Zusammenfassungen anderswo

Versand von automatisierten Trigger-Mailings mit Inxmail

Die E-Mail-Marketing Software Inxmail Professional bietet neben dem Standard-Versand von Mailings noch weitere interessante Möglichkeiten zur Steigerung der Kundenbindung. Dazu gehören bspw. sog. Aktionsmailings als eine von mehreren Formen des Trigger-Mailings, daher auch aktionsbasiertes Trigger-Mailing genannt. Aktionsmailings sind personalisierte, automatisiert vom System versendete Mailings, die beim Eintreten einer bestimmten Aktion (bspw. Anmeldung für einen Newsletter oder Klick auf einen Link) ausgelöst werden.

Ein solches aktionsbasiertes Trigger-Mailing haben wir kürzlich selber verschickt – zum einen, weil es sich für unser aktuelles Newsletter-Thema gerade thematisch anbot, zum anderen, um auf diese Weise eigene Erfahrungen mit einer weiteren der vielfältigen Inxmail-Funktionen zu sammeln.

Aufbau unseres Aktionsmailings

Der Newsletter, der die Aktion auslöste, beinhaltete eine Einladung zu den Multi-Channel Tagen unseres CMS-Partners Sitecore.

Newsletter Sitecore-Multi-Channel-Tage
Newsletter Sitecore Multi-Channel Tage

Die auslösende Aktion für das automatisierte Triggermailing in dem Newsletter war der Anmeldebutton zu der Sitecore-Veranstaltung. Alle Newsletter-Empfänger, die den Button angeklickt hatten, bekamen automatisch einen Nachfolge-Newsletter mit dem Angebot, sich ein kostenloses Whitepaper von Sitecore zum Thema Multi-Channel herunter zu laden.

Newsletter Sitecore Multi-Channel Leitfaden
Newsletter Sitecore Multi-Channel Leitfaden

Und der Nutzen dieser Mailing-Aktion?

Beide Seiten profitierten von der Mailing-Aktion: Wir als Unternehmen haben mit einem überschaubaren Einrichtungsaufwand ein zweistufiges, thematisch aufeinander aufbauendes Mailing versendet. Unsere Newsletter-Empfänger haben relevante Inhalte zu einem Thema erhalten, für das sie im ersten Mailing durch die Aktivierung des Anmelde-Buttons bereits aktiv Interesse gezeigt haben. Damit ist das Aktionsmailing ein besonders zielgerichtetes personalisiertes Mailing.

Fünf Schritte zur Erstellung eines Aktionsmailings

Schritt 1: Erstellen des auslösenden Mailings

Zunächst wird der Newsletter, der die Aktion auslöst, in Inxmail angelegt wie jedes andere Mailing auch. Diesem Mailing wird die dazu gehörige Empfängerliste zugeordnet.

Schritt 2: Erstellen des Aktionsmailings

In der gleichen Liste, in der das 1. Mailing erstellt wurde, wird nun unter dem Reiter “Trigger-Mailing” das automatisierte Folgemailing mit den entsprechenden Inhalten angelegt.

Inxmail Triggermailing anlegen
Inxmail Triggermailing anlegen

Wichtig: Das automatisiert versandte Trigger-Mailing muss erst fertig gestellt und freigegeben sein, bevor die nächsten Schritte durchführbar sind.

Schritt 3: Anlegen einer Aktion

Ist das Trigger-Mailing auf diese Weise fertig erstellt, wird im nächsten Schritt eine Aktion angelegt. Dazu wechselt man in den Cockpit-Reiter “Globale Einstellungen” und klickt auf den Button “Aktionen” in der linken Menüleiste.

Anlegen einer neuen Aktion in Inxmail
Anlegen einer neuen Aktion in Inxmail

Hier kann man über das Icon “Aktionsabfolge neu anlegen” eine neue Aktion hinzufügen. Nach Eingabe eines Aktionsnamens erscheint eine Maske, in der man das auslösende Ereignis auswählen und ggfs. eine Listeneinschränkung festlegen kann.

Schritt 4: Verknüpfen des auslösenden Mailings mit dem Aktionsmailing

Für die Verknüpfung der beiden Mailings geht es zurück zum Ursprungsmailing. Im Redaktionsbereich wird in der oberen Menüleiste der Button “Linkverwaltung” geöffnet.

Linkverwaltung in Inxmail
Linkverwaltung in Inxmail

Der Link, der das Trigger-Mailing auslösen soll, wird mittels Doppelklick aktiviert. Nun kann der Link bearbeitet werden: im Kontrollkästchen “Link mit Aktion verbinden” wird ein Häkchen gesetzt und das zu verbindende Aktionsmailing wird aus der Liste im Drop-down-Menü ausgewählt.

Link mit Aktion verbinden
Link mit Aktion verbinden

Nach dem Schließen der beiden Fenster durch zweimaliges Bestätigen mit ok ist die Verbindung zwischen Aktionselement (dem Link) und Trigger-Mailing hergestellt.

Schritt 5: Mailing-Versand

Im letzten Schritt wird das auslösende Mailing in der üblichen Weise geprüft, freigegeben, getestet und versendet. Klickt ein Empfänger nun auf den auslösenden Link, in diesem Falle den Anmelde-Button zum Webinar, bekommt er automatisiert das Aktionsmailing zugesandt.

Vielseitige Möglichkeiten für Trigger-Mailings

Neben dem hier vorgestellten zweistufigen Aktionsmailing bietet Inxmail Professional noch viele weitere Möglichkeiten für Trigger-Mailings, mit denen Sie Ihre Empfänger zum richtigen Zeitpunkt mit den richtigen Inhalten erreichen können. Dazu gehören bspw. Erinnerungsmailings, die anlässlich eines Termins, u.a. bei Events, Messen oder Veranstaltungen, versendet werden um den Empfänger an diesen Termin zu erinnern. Geburtstags- und Jubiläumsmailings können automatisiert am entsprechenden Stichtag verschickt werden und beim Intervallmailing werden Inhalte in einem definierten Rhythmus an die Empfänger gesendet. Sollten Sie selber einmal ein Aktionsmailing mit Inxmail testen wollen und Fragen bei der Erstellung des Mailings haben, stehen wir Ihnen gerne zur Verfügung.