Die re:publia #rp15 ist für uns Internetleute wie ein großes Klassentreffen. Auf kaum einem anderen Event trifft man so viele alte Bekannte, neue Kontakte und Menschen, die man bisher nur von ihren Blogs, Tweets, Photos oder YouTube-Channels kannte.
Aber:
Neben all dem großartigen networking und Austauschen gibt es auch auf keiner anderen Konferenz eine so spannende und interessante Zusammenstellung an Vorträgen.
Dieses Jahr habe ich mir vorgenommen, den Großteil der Sessions, die ich besuchen möchte nach einem Überbegriff auszuwählen. Und was wäre da auf DER Digitalkonferenz passender als das omnipräsente Schlagwort Digitale Transformation?
Deswegen habe ich aus dem Sessionplan folgende Vorträge heraus gesucht, die mir als Wegweiser entlang des Pfades Digitale Transformation durch 3 Tage re:publica dienen werden. Und die Ihnen für die eigene Planung ein paar Anregungen geben können, oder – falls Sie es nicht nach Berlin schaffen – den einen oder anderen Blick in die Videos werfen lassen. Live oder in der Nachberichterstattung.
FASHIONTECH I: APPAREL – Digitale Transformation in der Mode-Branche. Wie sieht mobil digitalisierte Bekleidung aus? Wann werden wir unsere Klamottenmarke nach dem Social Network aussuchen mit dem es sich verbinden lässt?“ – Spannende Fragen, die Thomas Gnahm vom Wear It Festival und Markus Strecker von teiimo da aufwerfen.
STORYTELLING IM MOBILEN ZEITALTER – INHALTE ERFOLGREICH VERMITTELN – wie bekommen wir Content in die veränderten Medienkonsumgewohnheiten und immer kürzeren Aufmerksamkeitsspannen der Menschen unter? Und welche Rolle spielt ein CMS bei der Aufgabe Geschichten zu erzählen? mit Hans Evert vom EPOS Magazin
TALK WITH NETFLIX CEO REED HASTINGS – Man muss kein House of Cards Fan sein, um zuzustimmen, dass Hastings einer der großen Vordenker der Digitalen Transformation in der Unterhaltungsbranche ist.
BIG DATA AND PRE-CRIME: SCIENCE NON-FICTION – Wer erinnert sich noch an Minority Report? Die spacigen Wisch-Hologram Bedienelemente von Tom Cruise gibt es noch nicht. Verbrechensvorhersage aus dem Digital-Orakel aber schon.
DIY DEATH AND FUNERAL – Kurz vor Abschluss des Tages wird es etwas morbide: Wissenschaftler, Hacker und Bestatter präsentieren in diesem Workshop Ansätze zum modernen Begräbnis. Das klingt SO abgefahren, dass ich mir das anschauen muss.
TRINKEN GEHEN – nein, nicht was Sie denken. Dieser Vortrag um 20 Uhr abends beleuchtet die Kulturtechnik des gemeinsamen Trinkens. Und ich verspreche mir wertvolle Erkenntnisse 🙂
Tag 2
Nachdem der letzte Vortrag von Tag 1 hoffentlich nicht zu einem dicken Kopf führt, geht es am Tag 2 mit einem re:publica Dauergast & Klassiker und einem der digitalen Vordenker in Deutschland los:
VON DER NETZWERK- ZUR PLATTFORMGESELLSCHAFT – Kulturwissenschaftliche Blicke auf Geschichte, Phänomene und kulturelle Praktiken der Netzwerke werfen; von den ersten Kanälen und Fangnetzen in Mesopotamien, über Kreditkartensysteme bis hin zu Uber und AirBnB.
DIE DISTINKTION DER DATEN – WIE DER DIGITALE HABITUS DAS NETZ PRÄGT – noch einmal Digitale Kultur Transformation: Die feinen Unterschiede sozialer Stellung lassen sich auch täglich im Netz beobachten. Von #Tatort zu Candy Crush, von der Auswahl unserer Instagram-Bilder zu den rebloggten Posts auf Tumblr – täglich signalisieren wir aufs Neue unseren (gewünschten) Status und was uns wichtig ist.
BLUESCREEN AUF DER AUTOBAHN – Das gehackte Auto ist schon ein Horrorszenario an sich. Aber was, wenn das Auto buchstäblich mit seinem Computer abstürzt?
INTERSECTION OF SUSTAINABILITY AND TECHNOLOGY IN FASHION – ein wenig Mode hat sich auch in diesen Tag wieder reingemogelt – wenn auch nur als Katalysator für die Frage: Wie haben unsere menschlichen Aktivitäten des Verstehens eine Abhängigkeit zu Daten, Informationen und Wissen entwickelt?
Bonus-Session:SEVEN ON SEVEN mit Ai Wei Wei!
Hierauf bin ich wirklich hochgespannt! Ob Ai Wei Wei tatsächlich in Berlin vor Ort sein wird? Spätestens Donnerstag werden wir schlauer sein 🙂
Update: Dank Bahnstreik wird es besonders interessant, ob ich am Donnerstag von Berlin nach Hause gen Bielefeld komme, oder eher nicht 😉
Andere haben sich auch Gedanken zur Sessionauswahl gemacht:
Vor kurzem kam der WDR auf uns zu und fragte für das Wirtschafts-Magazin markt an, ob eine Redakteurin mit ihrem Kamera-Team bei comspace zum Thema “Anders arbeiten” drehen dürfte.
Mit diesem Artikel möchten wir Ihnen einen kleinen Behind-the-Scenes Einblick vermitteln, wie das so ist, wenn plötzlich das Fernsehen vor der Firmentür steht:
Hier geht es direkt zu den Beiträgen:
Natürlich ist es für uns etwas Besonderes, ins Fernsehen zu kommen. Ganz besonders zu unseren Herzensthemen Zukunft der Arbeit und Unternehmenskultur.
Die Redakteurin interessierte sich besonders für den Bereich Feelgood Management und wie Sarahs Arbeit im Alltag mit den Kolleg_innen aussieht.
Bevor der erste Clip überhaupt geschossen werden konnte, holte unsere PR-Referentin Ann-Kathrin zunächst einmal das OK der Kollegen ein, die später auch im Bild zu sehen wären und bereitete uns, die wir uns als Gesprächspartner im Interview zur Verfügung stellten, auf das vor, was uns erwarten würde.
Der Drehtag
Der Aufwand, den das 3-köpfige Team aus Redakteurin Eva, Kameramann Stefan und Tontechniker Christopher betrieb war beachtlich! Die Daumenregel, die uns vorher als Ratschlag mitgegeben wurde, sollte sich als ziemlich richtig herausstellen: Für jede fertige Minute TV-Beitrag kann man min. 1 Stunde Drehzeit veranschlagen.
Nach einer kurzen Führung durch die Büros starteten wir zunächst mit unserem gemeinsamen Frühstück, damit das Team einen unserer typischen Benefits direkt in Aktion filmen konnte. Großer Pluspunkt: Redakteurin Eva konnte die Situation nutzen, um das Team vorzustellen und in entspannter Atmosphäre zu erklären, was an diesem Tag passieren würde.
WDR-Dreh beim comspace Frühstück
Danach wurden weitere Einzelszenen gedreht und dann kamen die Interviews dran. Ferit, Kornelius und ich wurden aus Mitarbeitersicht befragt. Sarah schilderte ihre Eindrücke aus Sicht der Feelgood Managerin und Andreas hat aus der Perspektive der Geschäftsführung erklärt, warum wir auf diese besondere Arbeitskultur setzen.
Wir wissen nicht mehr genau, wer aus dem Kamera-Team dann unsere Nerf-Guns auf der Entwickler-Fläche entdeckte, aber ab da war wohl klar, wie das Ende des Beitrags aussehen würde – aber schauen Sie einfach selbst 😉
Interview-Situation
Es war schon eine interessante Erfahrung, einen ganzen Tag vom TV-Team begleitet zu werden, auch wenn hinterher “nur” etwa 4 Minuten im Beitrag zu sehen sind.
WDR Dreh bei comspace
Gewöhnungsbedürftig ist es, direkt interviewt zu werden. Natürlich haben wir uns etwas vorbereitet und Gedanken darüber gemacht, welche Fragen uns gestellt werden könnten und was wir darauf antworten würden. Durch die Eindrücke bei uns im Unternehmen kamen unserer Interviewpartnerin Eva allerdings noch einige weitere Fragen in den Sinn, auf die wir dann spontan eingehen mussten.
Insbesondere, wenn man nicht oft interviewt wird, ist es eine merkwürdige Erfahrung, ein und dieselbe Frage dreimal in drei unterschiedlichen Ausführungen gestellt zu bekommen. Der Hintergrund für die Interviewende war ganz einfach, dass wir uns warm reden und Eva später den besten O-Ton auswählen konnte. Man selbst fühlt sich in der Situation allerdings eher wie in einem Kreuzverhör und bekommt mehr und mehr das Gefühl, sich zu widersprechen oder sich zu wiederholen.
Da hilft nur eins: Flexibel bleiben, genau überlegen, was man sagen möchte, eisern dabei bleiben und trotzdem einen lockeren Gesprächsplauderton beibehalten.
Außerdem hilft es darüber hinaus sehr, eine erfahrene PR-Kollegin dabei zu haben, die zwischendurch signalisiert, dass alles super läuft 😉
Was bringt denn so ein Beitrag?
Zunächst einmal: Eine Menge Arbeit 😉 Unsere PR-Referentin Ann-Kathrin hatte 2 Tage lang alle Hände voll zu tun, gemeinsam mit den Kollegen und der Redakteurin den Ablauf des Drehtages zu planen und betreute das WDR-Team dann vor Ort natürlich auch die gesamte Zeit.
Qualitativ steht da natürlich ganz groß im Vordergrund, unser Unternehmen einer breiteren Öffentlichkeit vorstellen zu können. Insbesondere hier in der Region Ostwestfalen. Unser Geschäftsführer Andreas Kämmer spricht das im Zusammenhang mit dem Fachkräftemangel auch direkt im Beitrag an. Denn über menschliche Themen wie Feelgood Management und Unternehmenskultur können allgemeine Medien natürlich viel einfacher berichten als über unsere sonst sehr technischen Fachthemen.
Damit Sie sich einmal ein Bild davon machen können, was der Aufwand in Zahlen verpackt ungefähr bringt, haben wir Ihnen hier einmal drei Kennzahlen zusammen gestellt. Uns ist bewusst, dass Reichweiten, Mediawert und Einschaltquoten nur ein Teil vom gesamten Mehrwert sind, daher überlassen wir Ihnen die genaue Interpretation:
Unsere Webseite erhielt innerhalb der ersten Stunden nach dem Beitrag das Fünffache der üblichen Seitenaufrufe
Der ungefähre Mediawert für Werbespots liegt deutlich über 50.000 EUR
Die Einschaltquote des Beitrags lag bei 5,3% und 390.000 Zuschauern
Die gesamte Reichweite errechnen wir gerade noch, da wir hierzu bsw. den Radiobeitrag noch hinzuzählen, genauso wie Tweets und Facebook-Meldungen
WDR-Videotext – Einschaltquoten
Witzige Information am Rande:
Unser Kollege John, der auch bereits für unseren Aprilscherz PÖMPEL verantwortlich war, schaffte es im Beitrag, drei mal in einem anderen T-Shirt aufzutauchen. Diesen kleinen Continuity-Streich hatte er sich bereits vor dem Dreh überlegt und insgesamt 4 Mal am Drehtag das T-Shirt gewechselt 🙂
Hier der Beweis:
Fazit
Abschließend bleibt zu sagen, dass es für uns Kolleg_innen sehr schön war, mal den Blick von außen auf uns werfen zu können und natürlich auch mal Bestandteil eines Fernsebeitrags zu sein. Das Feedback, das wir nun im Nachgang zu den Beiträgen in TV und Radio erhalten ist sehr positiv und zeigt uns, dass comspace tatsächlich ein besonderer Arbeitsplatz ist und wir viel darüber zu erzählen haben.
Leider kommt es noch nicht so häufig vor, dass Frauen den Beruf der Informatikerin ergreifen. Auch unsere Kollegin Anna hatte eigentlich andere Pläne. Hier erklärt sie, wie sie zu ihrem Beruf fand und mittlerweile als Mentorin für junge Mädchen in IT-Berufen zwischen 15 und 18 arbeitet:
Wie viele junge Mädchen wollte ich eigentlich ins Design und dann Websites und andere digitale Medien gestalten. Durch die Tatsache, dass mein Vater von Beruf Elektriker und passionierter Hobby-Informatiker ist, habe ich auch einiges von seinem Interesse mitbekommen. So bekam ich zum Beispiel immer seine alten PCs und CDs aus Computer-Zeitschriften mit den neusten Programmen und gestaltete schon früh verschiedenste Medien am PC.
Was steckt hinter dem Mentoring-Programm girls4IT?
Das girls4IT Programm hilft Schülerinnen bei ihrer Berufswahl indem verschiedenste Berufe vorgestellt, IT Themen und Potentiale sichtbar gemacht und die Schülerinnen individuell betreut werden. Ich habe unabhängig davon, ob mein Arbeitgeber dieses Engagement unterstützen würde, sofort zugesagt, da ich selbst die Erfahrung machen musste, dass Frauen oft nicht ernst genommen werden und weibliche Vorbilder daher besonders wichtig sind.
Wie läuft das Mentoring ab?
Seit ein paar Monaten treffe ich mich alle paar Wochen mit meiner Mentee und stehe außerdem über einen privaten Blog und Kurznachrichten mit ihr in Kontakt.
In meinem Blog schreibe ich kurze, für IT-Neulinge verständliche Artikel, Tutorials und organisiere mich mit meiner Mentee. Für jeden der Artikel gibt es die Möglichkeit Feedback und Kommentare abzugeben. Interessiert sich meine Mentee für ein Thema, dann kann sie mir einfach eine Nachricht zukommen lassen und ich verfasse den nächsten Blog-Artikel darüber oder antworte ihr direkt.
Einige Fragen meiner Mentee in letzter Zeit waren:
Was ist ein CMS?
Wie funktioniert die Cloud?
Was ist ein Website-Slider?
Während der Treffen (1-2 im Monat) reden wir dann noch einmal persönlich darüber und machen gemeinsam kleinere Übungen, wie zum Beispiel den Text in einer einfachen HTML-Seite umzugestalten.
Wie kamst Du eigentlich zur Medieninformatik und zum Mentoring?
Über den Tag der offenen Tür am b.i.b. in Paderborn kam ich nach dem Abi zum Eignungstest und schnitt dank meiner Vorkenntnisse aus Hobby und Abitur-Leistungskursen überdurchschnittlich gut in den Feldern Englisch, Informatik und Mathematik ab. Auf die Empfehlung einer Mitarbeiterin des b.i.b.s sah ich mir noch den Beruf der Medieninformatikerin mit Schwerpunkt Design an und die Entscheidung war klar: Mit der Aussicht auf ein anschließendes Studium im Ausland wollte ich Medieninformatikerin werden – obwohl ich nie zuvor auch nur eine Zeile Code geschrieben hatte.
Im Oktober 2010 begann dann ohne jegliches Vorwissen die schulische Ausbildung am b.i.b. in Paderborn. Eingeschüchtert von dem Vorwissen der Mitschüler begann ich mit dem Lernen. Es stellte sich jedoch schnell heraus, dass auch alle anderen nur mit Wasser kochen: Die erste Klausur war eine glatte 1.
Das konnte ich bis zum Ende der Ausbildung fortsetzen und schaffte den Abschluss als Klassenbeste!
Die Ausbildung bestand zu 50% aus Design-lastigen Fächern und 50% Informatikfächern. So bekam ich während der Ausbildung zwar viele Einblicke, wollte mich jedoch gerne etwas mehr spezialisieren. Das konnte ich dann während eines sog. Top-Up-Studiums in England (Southampton). Hier studierte ich im Bereich „Software Engineering“. Meine Themenschwerpunkte waren nun also mehr technisch. Das Thema meiner Bachelor-Arbeit war die Entwicklung einer Stundenplan-App für das b.i.b.(Link zur App im Android Playstore).
Aus diesem Grund hatte ich auch während des Studiums weiterhin viel Kontakt zum b.i.b.
Übrigens: In Bielefeld gibt es mit MINT ein ähnliches Projekt, das über Informatik hinaus noch weitere naturwissenschaftliche Fachgebiete abdeckt.
Nachdem ich dann mein Studium mit einem First Class Degree (Bachelor of Science) abgeschlossen hatte und wieder nach Deutschland (Paderborn) gezogen war, schrieb mich die Abteilungsleiterin für Informatik am b.i.b. Paderborn per Mail an, weil sie ein Mitglied der Initiative „Paderborn ist Informatik“ ist, die das Programm „girls4IT“ ins Leben rufen wollte, und auf der Suche nach Mentorinnen war. Als eine ihrer ehemaligen Schülerinnen, fiel die Wahl unter anderem auf mich.
Da dieses Jahr das erste Jahr von „girls4IT“ ist, gibt es noch keine wirklichen Erfolgsgeschichten zu erzählen, aber ich bin mir sicher, dass mindestens eine der Teilnehmerinnen danach eine Karriere in Richtung IT verfolgen wird.
Ich möchte junge Mädchen dazu motivieren, sich für Berufe in der Informatik zu entscheiden, sie bei ihrem beruflichen Werdegang zu unterstützen und ihnen die Angst vor dem großen Unbekannten nehmen. Die Informatik besteht ja zum Großteil aus Informationsverarbeitung- und Präsentation. Von meiner Mentee erwarte ich Begeisterung und Interesse am Web, der mobilen Welt und Bereitschaft für eine gute und regelmäßige Zusammenarbeit. Manchmal muss man sich einfach mal trauen ins kalte Wasser zu springen und ein bisschen Mut zur Lücke haben, um das für Einsteiger_innen erschlagend wirkende Thema anzugehen.
Was genau bedeutet das Mentoring für comspace?
Die Information, dass ich bei girls4IT mitmache, hat sich bei comspace eher zufällig im Anschluss an eines unserer c42 Barcamps verbreitet und bisher habe ich nur Zustimmung bekommen. Meine Mentee hat darüber hinaus die Möglichkeit bekommen sich unser Unternehmen gemeinsam mit den Studenten der FHM anzusehen und wird in den Osterferien 2015 ein Praktikum bei comspace absolvieren.
Nachdem sich meine Aktivität als Mentorin bis zur Geschäftsführung herum gesprochen hat, kann ich während meiner Arbeitszeit an girls4IT-Meetings teilnehmen. Anfangs nahm ich mir dafür frei oder baute Überstunden ab.
Was hat ein Unternehmen davon, seine Mitarbeiter Mentorships machen zu lassen?
Meiner Meinung nach sind solche Programme eine super Chance, seinem Unternehmen positive Aufmerksamkeit zu bescheren und neue Kolleg_innen für sich zu gewinnen.
Seit fast auf den Monat genau drei Jahren betreiben wir mittlerweile unser Corporate Blog – und hätten zu Beginn sicherlich nicht erwartet, dass wir bis heute 205 Beiträge mit insgesamt 156 Kommentaren veröffentlicht haben und durchschnittlich knapp 5.000 monatliche Seitenaufrufe auf unserem Blog verzeichnen können.
Seitenaufrufe comspace- Blog Februar 2012 bis Januar 2015
Aller Anfang ist nicht leicht oder: Wie unser Blog startete
Auslöser unseres Blogs war die Überlegung, wie wir sowohl fachspezifische als auch agenturinterne Themen unseren Kunden, Geschäftspartnern und anderen an Online-Marketing-Themen Interessierten zugänglich machen könnten. Unser Geschäftsführer Andreas schlug daraufhin vor, einen Corporate Blog zu starten.
Trotz unserer Expertise in kommerziellen CMS-Systemen wie Sitecore, FirstSpirit und OpenText fiel unsere Wahl für die passende Technologie auf WordPress. Damit setzen wir auf eine bewährte, suchmaschinen-kompatible Plattform für Blogs, die sich mit ihren Schnittstellen, einer vielseitigen Theme-Auswahl und zusätzlichen Features und Plugins kontinuierlich weiter entwickelt und auf den Blog-Einsatz optimal zugeschnitten ist. Zumal die automatische Vernetzung mit anderen Bloggern über Links und Trackbacks mit WordPress am besten funktioniert.
Weniger einfach war es anfangs einen Weg zu finden, wie wir die Themen festlegen und wer die Artikel schreiben soll. Schließlich sind wir kein Großunternehmen mit einer personell üppig ausgestatteten Kommunikationsabteilung. Wir riefen also erstmal eine Projektgruppe ins Leben, an der sich am Blog interessierte Kollegen aus allen Teams beteiligen konnten. So erhofften wir uns nebenbei eine Themenvielfalt, die die Arbeit und Inhalte aus allen comspace-Fachbereichen wider spiegelt. Mit einer Runde von ca. acht Mitarbeitern sind wir gestartet und trafen uns regelmäßig, um Themen für das Blog zu diskutieren, diese in einen Redaktionsplan zu überführen und eine Blog-Guideline zu erstellen.
Als professionelle Unterstützung holten wir uns den Social Media Berater Alex als freien Mitarbeiter an Bord, der seitdem hauptverantwortlich unser Blog betreut. Leider ließ mit der Zeit teilweise das Interesse, zum größeren Teil aber der zeitliche Spielraum vieler bisher beteiligter Kollegen der Projektgruppe nach, so dass die thematische Weiterentwicklung des Blogs sowie das Verfassen der Artikel seit gut zwei Jahren weitestgehend in der Hand von Alex und der Marketingabteilung liegen.
Trotzdem können und wollen wir nicht auf die Beteiligung unserer Fachkollegen verzichten, woraus sich folgende mehrgleisige Praxis für das Schreiben von Artikeln ergeben hat:
Kollegen aus unterschiedlichen Teams und auch der Geschäftsführung schreiben eigenständig Beiträge zu Expertenthemen, die direkt aus ihrem Aufgabenbereich resultieren.
Es gibt nämlich durchaus Kollegen, die gerne Blogbeiträge schreiben, wenn sie als positive Konsequenz erfahren, dass sie damit gezielt Außenwirkung schaffen können. So beispielsweise unsere HR-Kollegin Sarah, die schon einige interessante Artikel zu aktuellen Entwicklungen im Bereich Personalmanagement beigesteuert hat.
Wir (Marketingabteilung) bereiten Beiträge zu interessanten Fachthemen aus unserem Dienstleistungsportfolio wie Content Management, Online-Marketing, Entwicklung oder IT vor, die wir im Anschluss mit den entsprechenden Fachkollegen abstimmen und auf inhaltliche Korrektheit prüfen lassen.
Dort, wo es um tiefer gehende fachspezifische und technologische Kenntnisse oder um besuchte interessante Veranstaltungen geht, fordern wir die entsprechenden Kollegen gezielt dazu auf, uns Stichworte zum Thema zu liefern und übernehmen dann im Ping-Pong-Abstimmungspiel die Ausformulierung der Artikel.
Denn: Themen zu recherchieren und gute Blogartikel zu verfassen ist natürlich zeitaufwändig (wenn auch lohnenswert). Diese Zeit aber können viele Kollegen in den Fachabteilungen neben ihrer täglichen Arbeit nicht aufbringen. Andere Kollegen wiederum sehen ihre Stärke nicht darin, Texte zu formulieren und wollen aus diesem Grund keinen Blogbeitrag schreiben, obwohl sie eine Menge interessantes Fachwissen vermitteln können. Mit der beschriebenen Vorgehensweise versuchen wir diese Experten-”Schätze” zu heben.
Gerne versuchen wir auch unsere Entwickler und IT-Experten davon zu überzeugen, dass sie nicht nur dann einen Artikel schreiben dürfen, wenn ihre Aussagen 105%ig abgesichert sind. Auch wenn die Angaben in diesen technischen Bereichen meist exakt überprüfbar sind, lässt der Charakter eines Blogs dennoch öffentliches Nachdenken und Mut zur Lücke bzw. Raum für Ergänzungen durch Leser zu.
Das Planen von Content ist mittlerweile gar nicht mehr so schwierig, wie wir anfangs gedacht hatten. Viele Themen wie interessante Projektlösungen, entwickelte Tools, Neuigkeiten aus unseren Agenturteams und besuchte Messen, Events und Fortbildungsveranstaltungen etc. ergeben sich fortlaufend aus unserem Agenturalltag. Weitere Impulse geben neue Dienstleistungen und Technologien aus dem Hause unserer Partner sowie interessante Online-Marketing-Trends. Wobei wir immer versuchen darauf zu achten, dass die Beiträge unseren Lesern Mehrwert und weiterführende Informationen zum Thema bieten.
Unser Tipp: Planen Sie nicht zuviel. Lassen Sie sich auf tagesaktuelle Themen ein.
Entwicklerbüro comspace (c) Andreas Frücht
Das Blog als Zentrum unserer Unternehmenskommunikation
Mittlerweile übersteigen die monatlichen Besuche auf unserem Blog immer häufiger die auf unserer Website, womit der Blog seine Position als Zentrum der Unternehmenskommunikation behaupten konnte. Das bedeutet für uns konsequenterweise: Die Blogthemen bestimmen auch unsere Kommunikation in den anderen Kommunikationskanälen.
Die gezielte Verknüpfung der Blog-Themen mit unseren Website- und Newsletter-Inhalten, der Presse- und Medienarbeit sowie unseren sozialen Kanälen trägt zu einer integrierten Unternehmenskommunikation und einer hohen Reichweite in unseren Zielgruppen bei. Umgekehrt werden auf der Website angeteaserte Inhalte oder in Pressemitteilungen kommunizierte Nachrichten im Blog aufgegriffen und mit weiterführenden Informationen oder technischen Details vertieft. So schaffen wir eine medienübergreifende konsistente Kommunikation und holen unsere Zielgruppen an den verschiedenen Kontaktpunkten ab.
Ein Beispiel: Im Auftrag der Neuen Westfälischen, der führenden Zeitung in Ostwestfalen-Lippe, und des lokalen Radiosenders Radio Bielefeld haben wir die “Bielefeld 360 Grad” App entwickelt, die einen digitalen Rundgang mit Panorama-Ansichten durch die Stadt bietet. Über die Entwicklung der App informierten wir in einer News auf unserer Website. Parallel bzw. nach und nach veröffentlichten wir in unserem Blog mehrere Beiträge mit Hintergrundinformationen zur App, z.B. über die technische Entstehung sowie zum Thema Panoramafotografie. Zeitgleich stellte die Neue Westfälische die App in einer groß angelegten Artikel-Serie vor, die mit einem Interview mit unserem Entwickler-Team startete.
Neben dem Vorteil der Wiederverwertbarkeit von Inhalten schaffen wir im Blog einen hohen Informationsgehalt gegenüber unseren Kunden, Partnern und Interessenten. Wenn wir dann nebenbei auch noch den einen oder anderen Follower in unseren sozialen Netzwerken gewinnen oder über die Kommentarfunktion mit anderen Experten ins Gespräch kommen, ist schon viel erreicht.
Unser Fazit aus drei Jahren Corporate Blogging in 10 Punkten
Einen corporate Blog zu betreiben ist nicht so schwer wie viele meinen. Es steckt viel Arbeit darin, die sich aber schnell auszahlt im Sinne von Reichweite und Vernetzung mit anderen Blogs und Bloggern, Influencern, Kunden und Partnern.
Es ist wichtig, den Sinn des Blogs auch intern zu verdeutlichen und möglichst viele Mitarbeiter in die Blogarbeit einzubeziehen. Daraus ergibt sich eine “Win-Win-Situation”: einerseits profitiert das Blog von den Experteninhalten und die Beteiligung verschiedener Autoren machen das Blog vielfältiger, persönlicher und authentischer. Andererseits profitieren die bloggenden Kollegen von der Plattform, indem sie sich mit ihrer subjektiven Perspektive auf die Fachthemen positionieren können.
Der Blog ist eine optimale Plattform für Content, der aufgrund seiner Aktualität, Themenvielfalt und -tiefe weder auf der Corporate Website noch auf anderen Kanälen Platz findet – ob es um detaillierte Fachbeiträge oder um kurze Insights hinter die Kulissen des comspace Alltags geht.
Regelmäßige Postings gehören zu den Erfolgsfaktoren eines Blogs. Wir haben uns vorgenommen, mindestens einen Artikel pro Woche zu veröffentlichen und können aus unserer Erfahrung sagen, dass das gut realisierbar ist. Was nicht heißt, dass wir nicht auch mal eine Woche aussetzen und dafür in anderen Wochen 2-3 Artikel erscheinen.
Themen mit “Verfallsdatum” wie Berichte über Messen, Fortbildungsveranstaltungen oder erhaltene Auszeichnungen müssen kurzfristig bearbeitet und veröffentlicht werden. Dies zeitnah hin zu bekommen, ist auch für uns nicht immer ganz einfach. Mit einem allgemeingültigen und auch langfristig nützlichen Fazit kann man diese Gefahr aber entschärfen.
Haben wir viel inhaltlichen Input für ein Thema, setzen wir darauf, statt eines sehr langen Artikels das Thema zu strukturieren und mehrere kürzere Beiträge einzustellen. So entsteht schnell mal eine ganze Blogserie, die u.a. positive Auswirkung auf die Google-Suchergebnisse haben kann.
Blogartikel müssen nicht immer lang sein, um den Lesern einen Nutzen zu bieten. Dies zeigt u.a. der kürzeste unserer Beiträge, der immer wieder Spitzenreiter in unserer Statistik der meist gelesenen Artikel ist.
Bloggen erhöht die Sichtbarkeit bei Google und verschafft relevanten Themen und Keywords mehr Reichweite.
Wir probieren immer mal wieder neue Beitragsformen aus, wie z.B. Interviews, Infografiken oder How to’s. Zum Thema “Familienfreundlicher Arbeitgeber” haben wir außerdem erste Erfahrungen mit einer Blogparade gesammelt und uns über die vielen Beiträge aus verschiedenen Perspektiven zu dem Thema gefreut.
Wichtigstes Fazit:
Stellen Sie sich bei jedem Blogbeitrag die Frage: Welchen Nutzen oder Mehrwert erhalten Ihre Leser_innen durch den Beitrag?
Wir sind gespannt auf Ihre Erfahrungen und Tipps zum Thema Corporate Blogging und freuen uns auf Kommentare und Anregungen!
Im Folgenden lesen Sie weitere spannende Beiträge auf anderen Blogs, die zur Blogparade #cmcb15 eingereicht wurden. Weitere werden folgen:
Bereits vor einiger Zeit hatte ich einen unserer Fachartikel herausgefunden, dass nicht etwa John Deere der erste große Wurf in Sachen Content Marketing war, wie es US-Kollegen immer gerne auf 1895 datieren, sondern unser Bielefelder Traditionsunternehmen DrOetker war 1891 mit Content-Marketing schon deutlich früher dran.
In der Zwischenzeit habe ich mich mehr und mehr in das Thema Content Marketing eingearbeitet und bin dabei auf einige weitere interessante historische Fallbeispiele gestoßen, von denen ich Ihnen hier im Rahmen von Klaus Ecks Blogparade #cmcb15 zum Thema Content-Marketing und Corporate Blogs etwas mehr erzählen möchte. Auf das Thema Corporate Blogs werden wir noch etwas genauer in späteren Beiträgen eingehen.
Historisches Content-Marketing
Wenn man Trends und Neuentwicklungen bewerten und entdecken möchte, ist es meiner Erfahrung nach immer eine ganz gute Idee erstmal in die Vergangenheit zu schauen. Was hat sich schon bewährt? Welche Fehler haben andere gemacht? Welche Erfolge aus der Geschichte lassen sich auf heutige Vorhaben übertragen?
(c) HOLSTE-Gruppe Bielefeld
Kaiser Natron – ein weiteres Beispiel aus Bielefeld
Einsteigen möchte ich mit einem – Taadaa – weiteren Beispiel aus Bielefeld. Und zwar von der Firma Holste, die den Kaiser Natron herstellt. Mit der Vermarktung von Pulvern aller Art kennen wir uns hier in Bielefeld ganz besonders gut aus:)
Kaiser Natron – auch als Natriumhydrogencarbonat bekannt – wird bereits seit 1881 in Bielefeld hergestellt. Sehr früh begann man bei der Firma Holste ebenfalls wie Dr. Oetker damit, Anwendungstips, Rezepte und Anregungen auf die Verpackungen zu drucken. Ob damit bei Holste noch früher als bei Dr.Oetker mit dieser Form des Content Marketing begonnen wurde, konnte ich nicht herausfinden. Wohl aber entdeckte ich vor kurzem im historischen Museum eine außergewöhnliche Form des Content Marketing:
Im Zweiten Weltkrieg riet einer der aufgedruckten Anwendungstips auf Kaiser Natron Tütchen dazu, bei Bombenangriffen dem Löschwasser Kaiser Natron beizugeben, um damit die Löschwirkung zu erhöhen. In wieweit das tatsächlich stimmt, kann ich nicht nachvollziehen. Da aber Natriumhydrogencarbonat in Kombination mit Säure wie z.B. Essig Kohlendioxid erzeugt, könnte tatsächlich etwas dran sein.
Nichtsdestotrotz: Aus Marketingsicht durchaus geschickt: Die Kunden erhalten eine weitere Anwendungsmöglichkeit, Sicherheit ist immer ein wichtiges Thema und somit wird die Nutzung des Produkts intensiviert und Umsätze nach oben getrieben.
Der Guide Michelin
CC BY-SA 3.0 Trou Wikipedia
Ratgeber zum Reifenwechseln, Standorte von Werkstätten und wichtige Points of Interest wie Bahnhöfe, Apotheken und Hotels führte der erste Guide Michelin der gleichnamigen Brüder 1900 auf. Damals brachten Sie das Heftchen für gerade mal 3000 Autofahrer in Frankreich heraus. Damit brachten Sie nicht nur ihr eigenes Produkt – die Reifen – in den Fokus, sondern auch die Technologie Automobil weiter voran. Als 1923 dann die ersten Restaurantempfehlungen erschienen, lieferten die Michelins ihren Kunden Gründe und Anregungen die Michelin-Reifen fleißig abzufahren. Mehr zum Guide Michelin im Kontext Content-Marketing lesen Sie bei Kircher-Burkhardt.
Die Soap Operas
Soap Operas müssten eigentlich Frühstücksflocken-Oper heißen, denn die erste Radio-Serie mit Sponsor mit dem Titel „Betty and Bob“ lief 1932 auf NBC und wurde vom Cerealien-Hersteller Generell Mills unterstützt. Erst am 14.August 1933 startete mit „Ma Perkins“ die erste Radio Unterhaltungsserie, die vom Seifenhersteller Procter & Gamble präsentiert wurde und damit dem Format Soap Opera ihren Namen gab. Ob in diesen Sendungen regelmäßig auf die Produkte der Sponsoren hingewiesen wurde, weiß ich nicht – nichtsdestotrotz handelt es sich bei den Produkten um Content-Marketing, denn auch Unterhaltung, die eine positive Verbindung zum präsentierenden Unternehmen herstellt, kann als solches bezeichnet werden.
Product-Placement in Filmen
Ebenfalls in den 1930er Jahren begannen Filmproduzenten damit, ihre Produktionskosten damit zu senken, dass Produkte in die Handlung der Filme eingebaut und gezeigt wurden und die Hersteller der Produkte einen Zuschuss zum Film bezahlten. Wikipedia nennt als frühestes Beispiel für Product Placement den Alfa Romeo von Dustin Hoffman im Film Die Reifeprüfung von 1967. Ein erstes Beispiel mit Zahlen sind dann die Schokolinsen von Hershey’s aus E.T. Der Außerirdische deren Absatz sich nach dem Film um 60-75% gesteigert haben soll. Bogners Film Fire and Ice aus den 80ern ist mir auch noch ein Begriff. Hier wurde ein ganzer Kinofilm inszeniert, um Skimode zu verkaufen. Übrigens: Eine der aktivsten Industrien in Sachen Product Placement in Filmen und neuerdings Computerspielen ist die Waffenindustrie in den USA. Im Unterhaltungskontext werden Produkte in Aktion gezeigt, ein Image und ein Wert transportiert, die später bei einer Kaufentscheidung zum Tragen kommen.
Die Werbeanzeige mit mehr Inhalt als Werbung
Diese erste Anzeige von David Ogilvy (der auch als Vater der Werbung bezeichnet wird) als Chef seiner eigenen Agentur zeigt Content Marketing in Reinform. Nicht das Produkt – Guiness Bier – wird beworben, sondern dem Kunden werden interessante Informationen über Austern angeboten, zu denen dann die Brücke geschlagen wird, dass sie zufälligerweise gut mit Guiness schmecken:
Content-Produkt weit ab vom Hauptprodukt
Und noch einmal Guiness. Diesmal als Guiness Buch de Rekorde. 1955 wurde das erste Guiness-Buch durch die Brauerei in Auftrag gegeben. Laut Wikipedia mit dem Ziel, den Bierkonsum durch die Wettleidenschaft der Biertrinker anzukurbeln.
Zur Meisterschaft hat dieses Prinzip heute natürlich Red Bull gebracht, das zwar noch Energydrinks verkauft, aber eigentlich sein eigenes Sportevent- und Medien-Imperium ist.
Just do it: Dem Kunden etwas verkaufen, für das er mein Produkt kauft
Genau das hat Bill Bowerman getan. Zunächst hat er für Blue Ribbon Sports das Produktdesign gemacht und sich um Verbesserungen bei den Sportschuhen gekümmert. Dann beobachtete er in Neu Seeland eine Joggergruppe und überlegte sich eine Strategie, wie er Jogging in den USA populär machen könnte. Denn: Mehr Leute die joggen bedeuten auch mehr verkaufte Schuhe. Also gab Bowerman 1966 zusammen mit dem Herzspezialisten Waldo Harris eine zunächst 3-seitige später 19-seitige Broschüre mit dem einfallsreichen Titel „Jogging“ heraus, die rasend schnell Verbreitung fand und die Joggingwelle in den USA auslöste.
Bowerman gab den Menschen nicht einfach neue Schuhe, er gab ihnen einen Grund, die Schuhe zu benutzen.
Ach ja: Die Schuhfirma heißt übrigens seit 1971 NIKE.
George Lucas drehte den Spieß um
A pros pos Filme: Star Wars gilt ja als DAS Paradebeispiel und Ursprung für Merchandising rund um Unterhaltungsprodukte. George Lucas verzichtete damals gegenüber 20th Century Fox auf einen Teil seiner Gage als Regisseur, erhielt dafür aber die Vermarktungsrechte für die Filmtrilogie. Was dann geschah wissen wir alle: Der Content – also die Filme – wurden zum initialen Treiber für den Verkauf „echter“ Produkte wie Actionfiguren, Kostüme, Tassen, Bettwäsche und Stormtroopers Keksdosen. Content-Marketing einmal anders herum.
Sind Kundenmagazine dann eigentlich auch Content Marketing?
Oh ja! Selbstverständlich. Insbesondere die eher Branchenübergreifenden Magazine wie die Apotheken Umschau liefern den Kunden bsw. Informationen, über Produkte und die damit verbundenen Vorteile in Sachen Gesundheit, die eben nur bei den Apotheken zu erhalten sind. Das erste Apothekenmagazin erschien bereits 1925.
Allerdings waren die Apotheken damit nicht die erste Branche, die mit Kundenmagazinen auf sich aufmerksam machte, sondern – da kommen sie NIE drauf! – die Elektrizitätswirtschaft! Die musste sich als Junger Wirtschaftszweig gegen Gas und Petroleum durchsetzen und so erschienen 1905 die „Mitteilungen der Berliner Electricitäts-Werke“ (Wikipedia)
Gegenstände des täglichen Gebrauchs mit Werbebotschaften
Auch hier lässt sich ab einem gewissen Grad von inhaltlicher Tiefe von Content Marketing sprechen. Nehmen wir hier als letztes Beispiel den Taschenwerbekalender denn der wurde 1902 ebenfalls in Bielefeld erfunden. Friedrich Wilhelm Eilers, ein gelernter Buchbinder gründete aus der seit 1820 bestehenden Buchbinder- und Druckereifamilie heraus Spezial-Fabrik für vornehme Reklame. Bereits 1905 hatten die Taschenkalender mit Werbedruck ihren Durchbruch geschafft.
Der Klassiker im Kalendercontentmarketing sind und bleiben natürlich die Abreißkalender mit den oft despektierlich als solche bezeichneten Kalendersprüchen 🙂
Welche Beispiele für Content Marketing aus vergangenen Tagen oder der ausgefallenen Art fallen Ihnen noch ein? Wir freuen uns auf ergänzende Kommentare.
Das schöne an Blogparaden sind die vielen verschiedenen Perspektiven, aus denen ein Thema beleuchtet wird. Aus unserer eigenen Blogparade zum Thema Familienfreundlicher Arbeitgeberist ein fast 70-seitiges PDF geworden, das Ole Wintermann zu der Frage veranlasste, „ob nicht vielleicht mit Hilfe der interessierten Crowd solche Handlungsempfehlungen grundsätzlich sehr viel schneller, praxisorientierter und vielfältiger (und auch kostengünstiger) zusammengestellt werden können“ (als durch Studien bsw.).
Damit Sie sich bereits zu diesem Zeitpunkt tiefer in die unterschiedlichen Sichtweisen zum Thema Content Marketing einlesen können, hier nur die weiteren Einreichungen, diverser anderer Blogs mit sehr spannenden Einblicken. Weitere werden folgen:
Panoramafotografie ist der wesentlich inhaltliche Bestandteil der Bielefeld 360 Grad App. Daher auch der Namensbestandteil 360 Grad. Das Panoramafotografie aber deutlich mehr bedeutet, als ein Fotograf, der sich im Kreis dreht und ein paar mal auf den Auslöser drückt, sondern eine ganz eigene Expertise beansprucht, hat uns der Neue Westfälische Fotograf Andreas Frücht erklärt, der die Motive der App in seiner Kamera eingefangen hat.
Die App selber können Sie hier für 1,79 EUR herunterladen:
Stellen Sie sich den Lesern doch bitte einmal kurz vor.
Andreas Frücht, Freier Fotograf, 52 Jahre alt, ich komme eigentlich aus dem Ruhrgebiet und wurde 1983 durch die ZVS nach Bielefeld „versetzt“. Psychologie-Studium an der Uni Bielefeld, zur Finanzierung desselben ab Oktober 1983 Freier Fotograf für die NW-Sportredaktion, ab 1988 auch für andere NW-Redaktionen. Volontariat bei der NW nach Abschluss des Studiums von 1992-94, danach wieder Freie Mitarbeit als Pauschalist. Wohne seit 1998 in Steinhagen, Hund Katze Haus.
Wie sind Sie zur Panorama-Fotografie gekommen?
Ich habe schon in den 80ern mit Kleinbild- und Mittelformat-Panoramakameras fotografiert, immer auf Diafilm, meistens Reise- und Landschaftsfotos. Panoramafotos geben optimal den Eindruck wieder, den man von einer Landschaft oder einer fremden Stadt hat. Keine Ausschnitte, keine Gewichtung durch selektive Bildbeschnitte, keine Baustelle neben dem Traumhotel, die im Prospekt zufällig abgeschnitten wurde.
Was genau ist Panorama Fotografie eigentlich und wie funktioniert sie?
Bielefeld-Panorama vom comspace Dach (c) Andreas Frücht (Neue Westfälische) – größere Ansicht hier
In vordigitaler Zeit waren Panoramakameras Spezialgeräte, die sich von anderen handelsüblichen Fotoapparaten konstruktivisch unterschieden. Bei einer Panoramakamera schwenkte das Objektiv über einen zuvor festgelegten Bereich und belichtete dabei ein Format, welches gleich hoch wie das Standard-Filmformat war, dabei aber doppelt bis dreifach so breit. Die Aufnahmen waren also 36mm hoch (bei Mittelformat 60mm) und mindestens 70mm breit (bei Mittelformat etwa 130mm) Vereinfacht: Zwei aneinandergelegte Bilder. Ein sehr flaches Bild also. Während das Objektiv der Kamera während der Belichtung schwenkte, das heißt im Halbkreis die Umgebung abfotografiert, blieb die Kamera unbewegt in der Hand des Fotografen oder besser auf dem Stativ. In der Regel gab es nur drei oder vier einstellbare Belichtungszeiten: schwenkte das Objektiv schnell über den Film, entsprach dies einer schnellen Belichtungszeit, ein langsamer Schwenk dagegen entsprach einer langen Belichtung. Üblich waren Belichtungszeiten von einer 250stel bis zu einer 15tel Sekunde. Ich würde von „echter“ Panoramafotografie sprechen.
Aktuelle Kameras dagegen sind konventionelle Digitalkameras, ausgestattet mit einer Panorama-Funktion. Diese Kameras haben kein schwenkbares Objektiv, man muss die gesamte Kamera schwenken. Während des Schwenkens liefern sie dann im Panorama-Fotomodus eine Serie von vielen Aufnahmen, die von dem Panoramaprogramm in der Kamera mehr oder weniger gut zu einem einzigen Bild zusammen gerechnet werden. Am störungsfreiesten gelingt dies, wenn man die Aufnahme von einem Stativ macht und die Kamera auf dem Stativ um die eigene Achse dreht. Aber auch Aufnahmen aus der Hand sind möglich. Dies erfordert einige Erfahrung, da bei zu langsamem oder zu schnellem Schwenk das Programm abbricht und die Aufnahme wiederholt werden muss. Bei schrägen oder ruckeligen Schwenks wird das Bild zerhackt oder die Kamera bricht die Aufnahme ganz ab.
Ganz ohne Panoramakamera kommt man aus, wenn man ein Panoramaprogramm in Kombination mit einer herkömmlichen Digital-Kamera verwendet. Mit einer solchen fotografiert man einmal im Hochformat in die Runde, so dass die einzelnen Bilder an den Längskanten überlappen: Die entstandenen Bilder werden im Rechner vom Panorama-Programm (Autopano pro etwa) zu einem Bild vereinigt. Erfordert viel Rechenleistung.
Welche verschiedenen Arten der Panorama-Fotografie gibt es?
Echte Panoramafotografie plus kamera- oder rechnerbasiertes Zusammenrechnen mehrerer Einzelaufnahmen. Weitere Variante am Beispiel des Titelpanoramas von der Sparrenburg: beim Sparrenburgturm ist es nicht möglich, von einer Stelle der Aussichtsplattform ein Stadtpanorama zu fotografieren, da das Häuschen auf der Turmplattform im Wege stehen würde. Also muss die Kamera mitsamt Fotograf sich während der Aufnahme(n) einmal im Kreis bewegen, also den gesamten Turm umrunden. Dasselbe gilt für das Panoramabild von der Altstädter Nicolaikirche. Auch hier würde der Turm im Weg stehen, wenn die Kamera an der selben Stelle bliebe.
Weitere Variante: Ein Kugelpanorama. Hier wird mit einem Fisheye-Objektiv mit 180 Grad Bildwinkel ein Panorama fotografiert, in welchem man nicht nur nach links und rechts, sondern auch nach oben und unten schwenken kann. Auch bei diesem Panorama werden viele einzelne 180-Grad-Bilder von einem Programm miteinander verrechnet zu einem einzigen virtuellen Bild, in welchem man nach links und rechts, aber auch hoch und runter schwenken kann. Diese Variante eignet sich nur noch für eine Bildschirmbetrachtung, nicht mehr für eine Printausgabe.
Welche Form der Panorama-Fotografie kam bei der NW-App zum Einsatz und warum?
Da das NW-Redaktionssystem mit digitalen Bilddateien arbeitet, wurde auf den Einsatz einer klassischen, analogen Panoramakamera (Widelux, Horizont) verzichtet. Digitale Panoramafotografie hat außerdem den Vorteil, dass auch bei schlechten Lichtverhältnissen noch brauchbare Ergebnisse zu erwarten sind. Zum einen sind die Kameras empfindlicher als Filme, zum anderen sind auch langsame Belichtungszeiten möglich. Schlussendlich: ein komplett „echtes“ 360-Grad-Panoramabild alter Schule für den Online-Gebrauch wäre gar nicht möglich. Selbst wenn es eine 360-Grad-Panoramakamera gäbe, so müssten Anfang und Ende des Bildes zusammengefügt werden – was störungsfrei wiederum nur mit Bildprogrammen geht. Die Panoramakameras liefern aber je nach Schwenkgeschwindigkeit nur Ausschnitte zwischen 100 und 180 Grad, daher müssen in der Regel drei oder vier Bilder zu einem Bild verbunden werden.
Welche spezielle Kamera und welches Equipment braucht man?
Eine Digitalkamera mit Panoramafunktion. Verbessert wird das Ergebnis durch ein möglichst schweres Stativ mit Panorama-Kugelkopf. Alternativ: eine normale Digitalkamera und eine Panoramaprogramm (PTGUI,, Autopano Pro); Für das Verbinden der einzelnen Panoramen bzw. das Beseitigen von panoramatypischen Abbildungsfehlern ein Bildbearbeitungsprogramm (z.B. Photoshop)
Welche Motive eigenen sich besonders gut für 360 Grad Fotografie?
Am besten eignen sich Plätze mit einem Durchmesser von 25-50 Metern, Parks, Hallen, Stadien. Die Bebauung sollte nicht zu hoch sein, damit die Kamera nicht zu sehr geneigt werden muß. In der Mitte sollte sich kein störendes Bauwerk befinden. Ein Traum: Wenn man genau in der Mitte des Platzes eine Stehleiter aufbauen kann. Oder ein Gerüst!! Beim manuellen Zusammenbau der Bilder sind Bäume und Blattwerk sehr erleichtend, hier kann man Übergänge prima verstecken. Aufwendig: Strassenbahn-Oberleitungen, Kopfsteinpflaster.
Worauf muss man beim Fotografieren achten, was sind besondere Schwierigkeiten?
Will man lange Nächte bei der Bildnachbearbeitung vermeiden, sollte man auf eine genaue Ausrichtung der Kamera achten. Ansonsten endet der Horizont vom Bildende in Höhe des dritten Stockwerks am Anfang. Langgezogene Bauwerke sehen bauchig aus, da Anfang und Ende des Bauwerks weiter entfernt sind (und somit kleiner abgebildet werden) als die Mitte. Direkte Sonne ist nicht so ratsam, da für alle Bereiche des Bildes identische Belichtungswerte eingehalten werden sollten. Was dazu führt, dass der Teil mit der Sonne zu hell auf dem Bild erscheint. Leicht dunstiges Licht oder weiches Morgen- bzw. Abendlicht sind ideal. Es sollte nicht allzuviel Bewegung im Bild sein. Passanten, die während der Belichtung durchs Bild laufen, werden zerhackt und/oder mehrfach abgebildet, fahrende Autos desgleichen. Wasserflächen oder bewegtes Laub kann das Rechenprogramm in der Kamera irritieren, die Aufnahme wird dann abgebrochen. Für ein Foto von der Brandung am Strand habe ich einmal 20 Versuche gebraucht, und das Ergebnis war nicht besonders. Hier sind die analogen Kameras endlich einmal klar im Vorteil!
Welche Apps oder Software-Tools sind für die Bearbeitung der Fotos empfehlenswert?
Ich weiß, dass es Software-Tools gibt und wie sie heißen. Für meine Panoramen verwende ich Adobe Photoshop und meinen Kopf.
Die Apps finden Sie für 1,79 EUR in den entsprechenden Stores:
Am Anfang eines jeden neuen Projektes steht die richtige Team-Zusammenstellung. Bei unseren CMS-Projekten werden die Teams vor allem nach der verwendeten CMS-Technologie wie Sitecore oder FirstSpirit zusammen gesetzt. Im Fall der 360 Grad Bielefeld App-Entwicklung setzte sich das Kernteam nach den Anforderungen der Neuen Westfälischen aus drei Personen zusammen, die besonders gut zum Bereich Web-Anwendungsentwicklung passen:
John Gibbon als Web-Entwickler, Daniel Blomeyer als Frontend-Entwickler und Markus Plauschinn war der verantwortliche Projektmanager.
Die App selber können Sie hier für 1,79 EUR herunterladen:
Kurz gesagt: WebEntwickler_innen bauen die eigentliche App auf – die Anwendung eben. Frontend-Entwickler_innen sorgen dafür, dass die App gut aussieht und vor allem gut benutzt werden kann und Projekt-Manager_innen sind die Schnittstelle zwischen Kunde und comspace. Sie sorgen für die Abstimmung der Anforderungen, geben Lösungsansätze die durch Entwickler_innen erarbeitet werden an die Kunden zurück, erstellen den Projektplan und behalten ein Auge auf die Einhaltung von Terminen.
Ausführlich können Sie sich in diesem Artikel über die Berufsportraits informieren
Das heißt im Falle der Bielefeld 360 Grad App
Stefan Gerold von der Neuen Westfälischen stellte uns einen ersten Entwurf als Ausgangslage für den Aufbau der App vor. Diese bestand aus einer Webseite, die die grundsätzlichen Funktionen und erste Panorama-Fotos enthielt. Auf dieser Basis entstand eine technische Konzeption, die das spätere Endprodukt zum 800 Jahre Jubiläum der Stadt Bielefeld beschrieb.
Die technische Konzeption ließ uns die besonderen Herausforderungen erkennen, für die wir individuelle Lösungen entwickeln mussten:
Ansicht und Navigation durch Panorama-Bilder
lange Ladezeiten durch große Panoramas vermeiden – Zielgröße der App kleiner als 50MB
Bielefeld 360 Grad soll in verschiedenen Größen in Hoch- und Querformat dargestellt werden (auf Smartphones und Tablets verschiedener Größen)
Neben den Basisanforderungen wie Menü-Steuerung, Hilfe- und Infoseiten haben wir aus der vorliegenden Lösungsskizze die genauen Anforderungen rückwärts abgeleitet (re-engineered). Dann wurde zunächst einmal eine Web-Anwendung erstellt, die auf stationären Rechnern entwickelt wurde. Begonnen wurde mit dem Rahmen und der Navigation. Dann folgten die ersten Bielefeld-Panoramen um die App benutzbar zu machen. Die mobile Anwendung wurde zunächst einmal nur simuliert. Aus dieser Entwicklung entstanden dann die einzelnen Lösungsansätze, mit denen wir die Darstellung der großen Bielefeld-Panoramas ermöglichten:
Wir zerschnitten die Panoramas in Einzelbilder, die später in der App wieder zusammen gesetzt dargestellt werden, wie man es bsw. von Google Maps kennt
Um eine flexible Darstellung auf unterschiedlichen Bildschirmgrößen zu ermöglichen wurden die Markierungen neu gesetzt, mit deren Hilfe sich Benutzer_innen auf ihrem Bielefeld-Rundgang durch die einzelnen Panoramas navigieren
Bildergalerien und Zusatzinformationen wurden den Orten im Panorama zugeordnet und über eine Menüfunktion zugänglich gemacht
Radio Bielefeld steuerte Tonspuren bei, die automatisch abgespielt werden sollen, wenn ein Panorama angeklickt wird. Hierzu benötigte die App eine eigene Abspielfunktion für Audiodateien
Das führte zu einem zusätzlichen Button um den Ton schnell an und aus zu schalten
Nachdem die erste funktionierende Web-App mit entsprechenden Funktionen stand, fütterten wir das Cordova-Framework mit dem Projektergebnis. Dieser Werkzeugkasten zur Webentwicklung, der mittlerweile zu Adobe gehört, hält den Aufwand gering, um aus einer Web-Anwendung eine lauffähige App für verschiedenste Smartphone-Systeme zu erzeugen.
Danach ging eigentlich alles ganz schnell: Der erste Stand wurde durch uns präsentiert und in mehreren Feedbackrunden nah am Kunden wurde mit der NW die App fertig entwickelt. Dabei wurden vor allem viele kleine Änderungen Schritt für Schritt durchgeführt, wie die Gestaltung des App-Icons, Testinstallationen auf verschiedenen Geräten usw.
Wie kommt die App in den Store?
Hier kommt das eigentlich aus dem voran gegangenen Absatz zum Tragen, denn von der Fertigstellung der App, der Freigabe durch den Kunden bis zur tatsächlichen Verfügbarkeit im Appstore (besonders bei Apple) vergehen gerne einmal zwei bis drei Wochen. Sollte Ihre App also zeitkritisch sein – bsw. für eine Messe oder ein Jubiläum, planen sie ausreichend Zeit für das Einstellen in die App-Stores ein. Mittlerweile ist es sowohl im Apple wie auch im Android Store möglich, eine automatische Veröffentlichung nach Freigabe zu deaktivieren. So lässt sich ein gleichzeitiger Launch verschiedener Versionen realisieren.
Weitere Einblicke in die Entstehung der Bielefeld 360 Grad App erhalten Sie in den kommenden Tagen zu folgenden Themen:
Wie entstand die Idee zur App – Interview mit Stefan Gerold von der NW
Panorama Fotografie was ist das eigentlich – Fotograf Andreas Frücht erklärt
Die Berufe hinter der App: Anwendungsentwickler, Frontent-Developer, Projektmanager
Elsa-Brändström-Straße 2-4: Eines der Panoramas über den Dächern Bielefelds entstand auf dem Dach von comspace
Human beings, who are almost unique in
having the ability to learn from the experience
of others, are also remarkable for their
apparent disinclination to do so.
Douglas Adams, „Last Chance to See“
Mit diesem Zitat wurde eine Veranstaltung eingeleitet, die uns in Zukunft regelmäßig einer Antwort auf die folgende Frage näher bringt: Wie sammelt und verteilt man Wissen im Unternehmen? Unsere gut 60 Mitarbeiter_innen sind sowohl beruflich wie auch privat in vielen Gebieten Experten_innen. Doch jedes Unternehmen steht vor der Herausforderung, diesen Schatz an implizitem Wissen zu heben und in der Firma zu teilen.
Pläne für solch einen gegenseitigen Wissenstransfer gab es schon häufiger, doch im Sommer haben unsere Kollegen Ferit und Tilmann dann Nägel mit Köpfen gemacht. Sie starteten eine firmeninterne Guerilla-Aktion, die Spannung, Interesse und (anfängliche) Ratlosigkeit bei uns allen verursachte.
Es begann eines Sommermontagmorgens als plötzlich in unserem Eingangsbereich DIN-A4 Zettel mit der Aufschrift c42 klebten. c42 – dies ist der Titel der Veranstaltung, wie sich später herausstellen sollte – hielten wir zu dem Zeitpunkt alle noch für eine Information für jene Bauarbeiter, die zu der Zeit am Gebäude arbeiteten. (Sie hatten freundlicherweise just an diesem Morgen tatsächlich auch einige Schilder platziert). Einige Tage später tauchten dann ominöse c42-Zettel auch innerhalb unser Räume an Wänden, Waschraumspiegeln und an Arbeitsplätzen auf. Doch niemand wusste, was es damit auf sich hatte. Und diejenigen, die etwas wussten, hielten dicht. Die Fragezeichen, was sich hinter der geheimnisvollen Zeichenkombination verbarg, wurden immer größer.
Dass die gesamte Guerilla-Aktion während des Urlaubs unseres Geschäftsführers Andi durchgeführt wurde, erwies sich übrigens als gute Entscheidung – er erkannte später am Design der bald folgenden c42 Karten, wer dahinter stecken könnte.
Diese Karten tauchten dann als nächste Stufe der Enthüllung auf. Durch sie war relativ schnell klar um was es ging:
Ein monatliches Mini-Barcamp zum Wissensaustausch für comspace Mitarbeiter
Auf den Karten können jeweils 2-3 Wochen vor dem abendlichen c42-Termin die Themen vorgeschlagen werden, zu denen Kolleg_innen etwas erfahren möchten. Zu diesen ausgehangenen Themenwünschen finden sich Expert_innen aus unserem Unternehmen, die einen 14-minütigen Vortrag vorbereiten.
So fanden nun mittlerweile bereits zwei c42 Veranstaltungen bei comspace statt, in denen wir mehr über die Themen Enterprise Search, Automatische Webseiten-Personalisierung mit Sitecore, Datenschutz, Employer Branding, Software-Architektur und Qualitätsmanagement erfahren haben. Die einzelnen Beiträge werden zum Abschluss der Veranstaltungen mit CI-konformen Lego-Steinen bewertet. Jeder Gast bekommt 5 Lego-Steine zum Abstimmen und der Sieger-Beitrag einen Amazon-Gutschein. Inhaltlich können wir auf die Vorträge hier nicht genauer eingehen, da die Themen sehr comspace-spezifisch aufbereitet wurden und daher viele interne Informationen enthielten.
Zu erwähnen sei noch der Einsatz unserer Kollegen Ferit, Tilmann, Michael und Tim die ca. 80 Stunden Eigeninitiative in das Projekt investiert haben und wir uns bereits auf die 3. Ausgabe von c42 freuen, die heute am 30.10. stattfindet!
Übrigens:
14 Minuten x 3 Vorträge = 42 Minuten 😉
Und hier schließt sich der Kreis zum Zitat-Geber vom Anfang dieses Beitrags: 42 war die Antwort auf die Frage nach “dem Leben, dem Universum und dem ganzen Rest”, die der britische Autor Douglas Adams in seinem Roman Per Anhalter durch die Galaxis geben ließ.
Eine Frau kam eines Tages zu Gandhi und sagte: „Gandhi, bitte sage meinem Sohn, er soll keinen Zucker mehr essen!“ – Gandhi sah die Frau und ihren kleinen Sohn kurz an und meinte dann: „Komm in 2 Wochen wieder“. Die Frau war enttäuscht, denn die Reise war lang und sehr hart gewesen. Diese in 2 Wochen noch einmal anzutreten würde sie sehr viel Kraft und Geld kosten. Aber sie tat es.
Nachdem zwei Wochen vergangen waren stand sie wieder vor Gandhi. Der beugte sich zum kleinen Sohn herunter und sagte: „Junge, iss keinen Zucker mehr.“
Die Frau wurde böse: „DAFÜR sollte ich nun die gleiche Reise nach zwei Wochen noch einmal machen? Warum konntest Du das nicht schon beim letzten Mal sagen?“ Und Gandhi sagte: „Erst musste ich doch selber aufhören Zucker zu essen.“
Was hat Gandhi mit automatisch personalisierten Webseiten zu tun?
Ein ganz, ganz wichtiger Punkt um das Potenzial von personalisierten Webseiten voll auszuschöpfen ist es, dass Sie sich in Ihre Besucher hineinversetzen und mit deren Augen sehen. So wie Gandhi sich zunächst selber das Zuckeressen abgewöhnen musste, um darüber mit dem kleinen Jungen zu sprechen.
Was sie in diesem recht langen Artikel, der die schriftliche Version eines Vortrags auf der dmexco 2014 ist, noch erfahren werden, habe ich Ihnen hier einmal zusammen gefasst:
Gleichen Sie Ihr Angebot mit dem Bedarf des Kunden ab
Sehen Sie das Verhalten des Nutzers vorher
Planen Sie Klickverläufe
tl;dr: Durchlaufen Sie verschiedene Wege, die Ihre verschiedenen Benutzer durch Ihre Webseiten führen. Testen Sie verschiedene Klickpfade und Konversionsziele. Wird der Bedarf der Besucher gedeckt und die Erwartungen erfüllt? In diesem Artikel finden Sie einige einfache Beispiele und Werkzeuge, wie Sie das Potenzial für Personalisierung in Ihren Webseiten evaluieren und Nutzerverhalten vorhersehen können.
Was hat ein Hamster in der Mikrowelle damit zu tun?
Dazu kommen wir gleich. Lassen Sie mich vorher kurz aufdröseln, was wir mit personalisierten Webseiten, die sich automatisch und nach vorher festgelegten Regeln auf das Nutzerverhalten anpassen, überhaupt erreichen können:
Komplexität verringern
Sagt Ihnen der Begriff Decision Fatigue – bzw. Paradox of Choice etwas? Wissenschaftler gehen davon aus, dass wir mit einem festen Level an „Entscheidungsenergie“ in den Tag starten. Diese Energie nimmt mit jeder Entscheidung, die wir im Laufe des Tages treffen müssen ab. Es fällt uns immer schwerer neue Entscheidungen zu fällen und irgendwann wehren wir uns sogar vollständig dagegen noch weitere Entscheidungen zu machen.
Dazu gab es im Jahr 2000 ein interessantes Experiment – das Marmeladen Experiment. In einem Supermarkt wurden den Kunden an einem Tag 24 Sorten Marmelade angeboten und am nächsten Tag nur 6 Sorten. Das Ergebnis war verblüffend:
24 Marmeladen zogen 60% der Kunden zum Stand. Aber: Nur 2% kauften. Die Auswahl war zu komplex.
6 Marmeladen zogen nur 40% der Kunden an. Doch 12% der Kunden kauften aufgrund der einfacheren Entscheidungsfindung.
Personalisierte Webseiten können überflüssiges für den Kunden ausblenden, damit Entscheidungen leichter gefällt werden können.
Besucherverhalten steuern
Wenn wir eine Webseite mit einem speziellen Konversionsziel bauen, dann möchten wir dieses Ziel so oft wie möglich erreichen. Nehmen wir das Beispiel aus der u.s. Grafik: Der Benutzer soll sich zu einer kostenlosen 30-Tage-Demo anmelden. Der Nutzer wird zwischen verschiedenen Infoquellen immer wieder hin und her springen. Dabei auch unsere Kanäle verlassen und wieder zurückkehren.
Wir haben nun die Möglichkeit, unsere kostenlose Demo an unterschiedlichen Stellen und Arten immer wieder in den Fokus des Kunden zu bringen. Mit Anmeldekästen, Head-Bannern, kurzen Testimonials usw. bis der Besucher sich anmeldet
Ebenso können wir festlegen ab wann wir den Besucher nicht mehr oder nur noch weniger „nerven“ um eine Übersättigung zu vermeiden.
Upgrad-Angebot im blauen Kasten kann nach Abschluss bsw. ausgeblendet werden
Wenn der Kunde schlussendlich unser Konversions-Ziel erfüllt hat, stellen wir die Erinnerungen daran ganz ab.
Wir erreichen so weniger komplexe Webseiten, die unsere Kunden einfacher Entscheidungen treffen lassen.
Wechselnde Geräte und Kanäle sind ein weiterer Anwendungsfall. Je nach erkanntem Gerät können andere Produkte, Inhalte oder Daten angezeigt werden. Nutzt jemand die Webseite der Deutschen Bahn bsw. mit dem Smartphone sind Unternehmensbeschreibungen vermutlich irrelevant – umso wichtiger dafür die aktuellen Fahrpläne. Ebenso können Textbausteine für große Bildschirme länger und umfangreicher sein, wobei dem Nutzer auf dem Smartphone-Display Übersicht und Muße zum Lesen fehlen.
Individuelles Storytelling
Diesen Punkt sehen wir uns gleich noch genauer an. Durch die vorab fest gelegten Klickpfade in einer automatisch personalisierbaren Webseite, lassen sich ganze Geschichten erzählen, drehbuchartig orchestriert. Mehr noch: Wir können unsere Nutzer quasi wie in einem Adventure-Computerspiel verschiedene Wege nehmen lassen, bei denen sich die Webseite an die individuellen Entscheidungen des Besuchers anpasst.
Das neue SEO?
Vermutlich ist es nicht zu weit aus dem Fenster gelehnt, wenn ich sage: Automatische Personalisierung könnte das neue SEO werden. Die Komplexität in den Einflussfaktoren ist vergleichbar hoch, die Auswirkungen vergleichbar gut und messbar.
Mit zwei wesentlichen Unterschieden:
Im Bereich der SEO sind wir von den Vermutungen und Erkenntnissen abhängig, die wir über die Black-Box Suchmaschine erhalten
Bei der Personalisierung spielt sich der Großteil unserer Anpassungsmöglichkeiten auf unseren eigenen Seiten ohne Einflüsse von außen ab
Wonach lässt sich personalisieren?
Die Faktoren sind schon heute irrsinnig komplex. Bereits in der Einzelbetrachtung. Hinzu kommen natürlich noch unendlich viele Möglichkeiten Einzelbedingungen miteinander zu kombinieren.
Handelt es sich bei einem Besucher um einen neuen Besucher oder um einen Wiederkehrenden? Ist der Benutzer angemeldet oder anonym? Habe ich CRM-Daten verknüpft?
Kommt der Klick aus meinem Newsletter? Dann zeige ich die dort geteaserten Angebote an und blende das Anmeldefenster für den Newsletter aus
IP-Adresse / Geo-Position können Maßgabe sein um landestypische Inhalte anzuzeigen oder auszublenden
Wetter am Ort des Besuchers: Verkaufe ich Skier und Surfbretter und am Standort meines Nutzers schneit es seit einem Tag sind eventuell Skier interessanter
Facebook-Fan JA/NEIN? Im Falle von NEIN zeigen wir unser „Werde Fan“-Banner an
Endgerät entscheidet darüber ob umfangreichere Texte angezeigt werden. Hochpreisige oder preiswerte Endgeräte können über das angezeigte Angebot entscheiden
Zwei Beispiele für automatische Personalisierung
Seitenbereiche nach Klickverhalten anpassen
In diesem Sitecore Beispiel wird dem Benutzer zunächst eine Webseite mit typischen Badeurlaub-Szenarien angezeigt:
Unser Beispielnutzer klickt nun aber nicht auf den Strand oder die Palmen, sondern interessiert sich für San Francisco. Wir haben vorher festgelegt, dass in diesem Fall ein anderer Klickpfad zur Verfügung gestellt wird und sich die 3 Themen-Angebote oben entsprechend darauf einstellen.
Die drei Kurzteaser wechseln vom Thema Strandurlaub zum Thema Städtereisen und stellen sich damit auf das vermeintliche Interessengebiet des Nutzers ein. (Auch um dieses Verhalten wieder rückgängig zu machen lassen sich Regeln erstellen):
Sitecore Webseiten Automatisierung Beispiel 2
Inhalte automatisch nach Benutzer-Standort anpassen
Dieses Beispiel stammt aus einem unserer eigenen Sitecore-Projekte für unseren Kunden Dornbracht. Dornbracht ist Premium-Hersteller u.a. für luxuriöse Badausstattungen und hat in diesem Zusammenhang eine Liegedusche im Portfolio, die Horizontal Shower. Dieses Produkt wird mit einer sehr stimmungsvollen Photographie auf der Webseite vorgestellt.
Inklusive einer unbekleideten Person, die gerade die Liege-Dusche verwendet:
Nun ist es so, dass in manchen Teilen der Welt solche Abbildungen – auch im seriösesten Zusammenhang – als anstößig empfunden werden. Zum Beispiel im arabischen Raum, in dem sich auch ein relevanter Zielgruppenanteil für die Horizontal-Shower befindet. Wir haben also eine Lösung entwickelt, die nach 2 Kriterien entscheidet, wann eine Alternative angezeigt werden soll: Zum einen über die eingestellte Sprache (Englisch im arabischen Sprachraum) und die IP-Adresse.
Im Falle einer positiven Identifizierung wird die Webseite also mit folgender Abbildung ausgeliefert:
Vorhersehen des Nutzerverhaltens
Eben habe ich schon einmal den Vergleich zum Thema SEO heran gezogen. Es gibt noch nicht viele Best Practices für umfangreich automatisierte Webseiten. Wir sprechen hier immer noch von einer Zukunftstechnologie – auch wenn die technischen Voraussetzungen bereits realisierbar sind.
Darum möchte ich zwei Beispiele aus dem Umfeld der Suchmaschinenwerbung heranziehen um zu demonstrieren, wie das Leben des Benutzers erleichtert werden kann und was es heißt, Nutzerverhalten vorhersehen zu können.
SEO = maschinenfokussiert – SEA = menschenfokussiert
Natürlich entwickelt sich SEO ständig weiter. Es wird zum einen komplexer und spezieller, zum anderen kommt man um SEO-Maßnahmen heutzutage nicht mehr herum. Mit Ausnahme vielleicht, wenn man keinen Wettbewerb hat.
Aber: SEO bezieht sich in den allermeisten Fällen auf den Umgang mit Rechnern, Suchmaschinen, Algorithmen. Deswegen wird das Thema Content Marketing immer wichtiger: Beim Content Marketing steht der Mensch, der Nutzer und Adressat des Contents im Mittelpunkt.
Beim SEA (also dem Suchmaschinen-Advertising) war – wie bei allen Werbeformen – der Mensch schon schon immer der zentrale Punkt. „Der Köder muss dem Fisch schmecken.“
Suchmaschinenwerbung über den Ort
Eine Möglichkeit der Personalisierung ist bsw. der Zielort einer Suche. Im folgenden Beispiel wurde nach Ferrari fahren Hamburg“ gesucht. In den darauf folgenden Suchergebnissen war eine auf Ferrari und Hamburg optimierte Landingpage angezeigt sowie eine auf die Suchbegriffe abgestimmte Google-Ads-Anzeige geschaltet.
Beide (rudimentär) personalisierten Wege führen den Besucher nun auf die entsprechende Webseite beim Anbieter, auf der nur Ferraris (statt Porsche) angezeigt werden, die in Hamburg verfügbar sind (statt auch in München bsw.). Im Dropdown-Menu ist Hamburg als Ort auch bereits vorausgewählt.
Dem Benutzer wird in diesem Fall vor allem zusätzliche Arbeit des Klickens abgenommen.
Königsklasse der Vorhersehung von Nutzerverhalten
Zugegeben, dieses Beispiel war sehr einfach. Ein meisterhaftes Stück in Sachen Nutzerverhalten antizipieren hat Alec Brownstein 2010 mit seinem Google Job Experiment gezeigt:
Alec sagte für sein „Projekt“ das Nutzerverhalten des Ego-Surfing voraus. Seine Zielgruppe bestand dabei nur aus 5 Personen: Er legte Google-Ad-Anzeigen auf die Namen der CEOs der 5 Top-Werbegenturen an. Wenn diese 5 Werbeagenturchefs nun sich selber googleten, wurde die Anzeige angezeigt (und wer klickt denn bitte schön nicht auf eine Anzeige, die den eigenen Namen enthält?) und führte auf Alex Brownsteins Bewerbung um einen Job in einer der Agenturen.
Bei 4 der 5 CEOs bekam Alex ein Vorstellungsgespräch. Daraus entstanden 2 Jobangebote. Eines davon nahm Alec an. Keine schlechte Konversion oder? 😉
Der Kostenaufwand betrug 6 Dollar.
Der Hamster ist ein historisches Meisterstück des Vorhersehens von Nutzerverhalten
Hervor gebracht hat dieses Meisterstück Ron Gilbert im Jahr 1987. Ron ist der Erfinder des Computerspiels Maniac Mansion. Und damit auch (Mit)-Erfinder des Genres Point-And-Click-Adventure. Die älteren unter uns erinnern sich hoffentlich noch an den guten, alten Commodore C-64 😉
(c) Lucas Arts – Poster Maniac Mansion, Zak McKracken, Monkey Island
Im Spiel Maniac Mansion musste man sich seinen Weg mit verschiedenen Spielfiguren durch ein verrücktes Spukhaus bahnen, das zudem von verrückten Aliens bewohnt wurde. Ziel des Spiels war es die Freundin der Hauptfigur aus den Händen eines verrückten Wissenschaftlers zu befreien (haben wir ja alle schonmal erlebt, oder?).
Ron Gilbert hat letztens seinen alten Lagerraum aufgeräumt und dabei mit den Maniac Mansion Design Notes historische Relikte der Computerspielgeschichte wieder entdeckt, die uns heute durchaus als Vorlage und Best-Practices für die automatische Personalisierung dienen können.
So hat er bsw. die Original-Zeichnungen und Designdokumente veröffentlicht. So schön diese anzusehen sind, ist für uns aber wichtiger, wie vor über 25 Jahren die Planung des Spielablaufs von statten ging. Eines der Dokumente zeigt zum Beispiel wie die einzelnen Räume des Hause (heute auch Webseiten) miteinander verbunden sind und welche Figuren dort auf den Spieler (heute Inhalte) warten:
Je nach Sympathie und Handlungen des Spielers reagierten die Persönlichkeiten in den Räumen unterschiedlich. Zu den reinen Räumen, Inhalten und Interaktionsmöglichkeiten kamen noch Emotions-Bedingungen hinzu:
Schließlich wurden im Puzzle Dependency Charts die Bedingungen festgelegt, wann in welchen Räumen was passieren muss um die nächsten Schritte zu ermöglichen. In diesem Fall hier musste in einem Raum ein Schlüssel gefunden werden und in einem weiteren eine Kanne mit Öl. Der Schlüssel schloss die Kellertür auf, das Öl aus der Kanne machte die Tür wieder beweglich. So können auch verschiedene Bedingungen auf Webseiten zusammen „geschaltet“ werden, um eine weitere Aktion zu ermöglichen oder Interaktions-Möglichkeit anzuzeigen.
Maniac Mansion ließ den Spieler eine Menge verrückter Dinge tun, die sich nicht unbedingt alle auf den eigentlichen Spielerfolg auswirkten. Dabei hat Ron Gilbert die skurrilsten Handlungen vorhergesehen.
Man beachte das Poster an der Wand: Auf dem Poster neben der Tür des virtuellen Zimmer ist eine sehr vereinfachte Variante des Entscheidungsbaums der im Spiel zum Einsatz kommt abgebildet!
Zwischen diesem Poster und der Tür befindet sich der besagte Hamster in seinem Käfig. Diesen konnte man als Spieler mit dem Klick auf NIMM und dann das Objekt Hamster mitnehmen.
In der Küche des Maniac Mansion angelangt war es dem Spieler möglich, den Hamster in die Mikrowelle zu legen und das Küchengerät einzuschalten. Sehr morbider Humor. Zugegeben. Vermutlich würde sich das heute auch kein Spielehersteller mehr trauen.
Maniac Mansion gekochter Hamster (c) Lucas Arts – Screenshot Tentakelvilla.de
Es zeigt aber, wie gut Ron Gilbert damals bereits das Nutzer- bzw. Spielerverhalten vorhersehen konnte. Schließlich hatte die ganze Koch-Aktion des Hamsters überhaupt keinen weiteren Sinn im Spiel.
Was zeigt uns der Hamster für unsere Webseiten?
Mit einem gut und detailliert ausgearbeiteten Entscheidungsbaum lässt sich nicht nur Nutzerverhalten antizipieren, sondern eine Geschichte erzählen, die den Besucher ins Geschehen einbezieht, Bindung aufbaut und Begeisterung erzeugt. Wir können Fälle entdecken, die uns sonst nicht auffallen würden und das Verhalten der Webseite daran anpassen:
Was soll der Besucher im Fall X anderes sehen, als im Fall Y und welches Verhalten führt zu Fall Z?
„Das ist doch allesfurchtbar viel Arbeit!“ höre ich Sie jetzt sagen. Und ja, Sie haben Recht. Webseiten zu personalisieren ist zu Anfang ein großer Brocken Arbeit und im folgenden ein stetiger Prozess. Der meiste Teil dieser Arbeit findet dabei im Kopf des Marketings-Teams statt.
Die gute Nachricht ist:
Es gibt einfache Werkzeuge um die geleistete Denkarbeit in die Webseite zu übertragen. Den Sitecore Engagement Plan zum Beispiel:
Sitecore Engagement Plan
Das kommt Ihnen nun sicher bekannt vor? Unterscheidet sich vom Prinzip her nicht sonderlich von den Maniac Mansion Design-Dokumenten aus 1987.
Mit Sitecores Rule Editor werden Bedingungen für das Nutzerverhalten auf der Seite erstellt. Das Tool ist genauso leicht zu bedienen, wie der Filter-Assistent von Microsoft Outlook.
Sitecore Rule Editor
Zukunftsausblick
Es ist sicher nicht allzu vermessen davon auszugehen, dass Content Management Systeme in Zukunft in der Lage sein werden nach vorher festgelegten Algorithmen zu lernen und sich automatisch selbst an das Verhalten der Nutzer anzupassen. Amazon ist hier ja bsw. ein sehr bekannter Vorreiter („Kunden die diesen Artikel gekauft haben, kauften auch…“) Allerdings ist ein Algorithmus im weitesten Sinne und auf seine Grundbestandteile reduziert auch nichts anderes als ein Entscheidungsbaum, den man sich vorher im Kopf überlegt hat.
Unser praktischer Tip zum personalisieren von Webseiten daher:
Machen Sie es wie Gandhi. Versetzen Sie sich gedanklich in Ihre verschiedenen Benutzer und spielen Sie Ihre Webseite durch.
Dokumentieren Sie das Verhalten der Webseite mit einfachsten Mitteln: Zettel & Stift
Werkzeug zur Planung automatisierter Webseiten
Erstellen Sie so Entscheidungsbäume und Klickpfade, anhand derer Sie erkennen, wo Ihnen eine automatisch personalisierte Webseite einen Wettbewerbsvorteil in Form von mehr Umsatz, Einsparungen von Arbeit und Zeit sowie zufriedeneren Kunden bringen kann.
Ach und noch eine Sache:
Bei der Entwicklung solcher Klickdiagramme entdecken Sie möglicherweise auch unterhaltsame und skurrile Interaktionen wie den Hamster in der Mikrowelle. Solche Easter Eggs haben durchaus das virale Zeug dazu, Ihre Besucher so zu begeistern, dass sie über 25 Jahre später noch an das Erlebnis auf Ihrer Webseite denken 😉 Das einfachste Beispiel ist hier wohl die Google-Sucheingabe „do a barrel roll“ oder falls Sie iPhone-Nutzer sind, stellen Sie Siri einmal die Frage: „Siri, was sagt der Fuchs?“ und danach fragen Sie einfach noch einmal 🙂
Die Auflösung bin ich Ihnen ja noch schuldig. Natürlich war der kleine Handlungsstrang mit dem gekochten Hamster in der Küche noch nicht beendet.
Geht man mit dem gekochten Hamster zurück in das Zimmer, aus dem man das Tierchen entwendete, steht dort Ed, der außerirdische Hamsterbesitzer neben dem leeren Käfig.
Gibt man Ed nun den gekochten Hamster zurück, nimmt das Spiel ein jähes und berechtigtes Ende. Soll niemand sagen, dass Hamstermord nicht bestraft wird!
Übrigens: Ron Gilbert ist einer der wenigen Menschen, der sich einmal (trotz vorheriger und eingehender Warnung dies nicht zu tun) mit Steve Jobs gestritten hat. Diese wunderbare Geschichte gibt es wie viele weitere Einblicke in die wunderbare Welt der Computerspiele drüben auf seinem Blog grumpygamer.com.
Ein Enterprise CMS-System wie Sitecore in der Cloud zu betreiben macht in vielen Fällen Sinn. Insbesondere bei regelmäßigen Lastspitzen oder bei weltweit verteilt betriebenen Webseiten. Azure ist Microsofts Cloud-Lösung, bringt automatisches Deployment von Webservern mit und unterstützt natürlich auch Microsoft SQL Datenbanken. Da Sitecore auf Windows-Server-Plattformen läuft, bietet sich hier eine genauere Prüfung einer kombinierten Lösung an.
Microsoft Azure Infografik
Ein solches Vorhaben bringt einiges an Fragen, Anforderungen und Herausforderungen mit sich. Deswegen führten wir ein Testprojekt durch, bei dem unsere Kollegin Friederike die Kopie eines Kundenprojekts in die Azure Cloud umzog, um valide Erfahrungen mit dieser speziellen Lösungs-Kombination zu sammeln. Diese Erfahrungen haben wir in einem Test-Tagebuch festgehalten, aus dem wir Ihnen hier die wichtigsten Erkenntnisse vorstellen möchten.
Alles ist ein Service
Mittlerweile gibt es tatsächlich die Abkürzung XaaS bzw. EaaS – „Everything as a Service“ als Überbegriff für all die Leistungen wie Software, Plattformen, Infrastrukturen, Laufzeitumgebungen, Hardware und viele mehr, die sich als Services buchen und on demand beschaffen lassen.
Die generellen Hauptvorteile für Kunden beim Einsatz einer Cloud-Strategie sind:
Keine Bindung an physische Güter
Aktualität und Leistung von Hardware immer ausreichend
flexible Abrechnung nach Nutzungsintensität, -Dauer, Nutzeranzahl
keine Kapital-Bindung
geringe bis keine Wartungskosten
Die eingangs gezeigte Infographik von Microsoft (hier zum Download als PDF) illustriert sehr gut, welche Gesamtmöglichkeiten die Microsoft Azure Cloud-Services bieten. Wir konzentrieren uns hier auf einen kleinen Teilbereich.
Sitecore CMS in der Cloud – IaaS
Eine Telko mit dem Azure Vertrieb brachte zunächst Überraschendes hervor: Das Aufsetzen einer Sitecore Instanz dauert nur 7 Minuten. Weltweit! Das ist erstmal schwer zu glauben, stellte sich aber als Tatsache heraus.
Aber: Das bedeutet im einzelnen das hinzu schalten / hochfahren einer weiteren Sitecore CD Instanz dauert 7 Minuten. Das basiert allerdings auf einer vollständig konfigurierten Publizierungsinstanz / Deployment Center. Dieses vorzubereiten und aufzusetzen (Sitecore Installation) und dann zu konfigurieren dauert natürlich länger. Diese Arbeit hätte man aber auch bei einer Installation im eigenen Rechenzentrum.
In einem unserer Testläufe haben wir Azure als IaaS (Infrastructure as a Service) getestet. Zum einen kann ein virtueller Server als „Quick Create“ aufgesetzt werden. Diesen kann man sich wie einen frisch installierten Rechner vorstellen.
Interessanter sind für uns in diesem Fall die vorkonfigurierten Server-Images aus einer Gallery. Wir entscheiden uns für Option A3 mit 4 CPU-Kernen und 7 Gigabyte Arbeitsspeicher. Übrigens ist als Serverstandort in Westeuropa nur Amsterdam oder Dublin möglich. Eine Standort-Option in Deutschland gibt es (zumindest noch) nicht.
Die Installation von Sitecore lief für unsere Experten an sich problemlos. Einzig an einigen Stellen musste die Dokumentation konsultiert werden:
diverse Module für den IIS Webserver nachinstallieren
Datenbankuser korrekt anlegen
korrekte Portangabe setzen
Kosten für den Installationsvorgang auf der virtuellen Maschine: 0,21 €
Zitat aus unserer Technik: „Hier habe ich genau die gleichen Malessen mit Lizenzen, Updates, Wartung, Administrierung wie im eigenen Rechenzentrum. Nur das Blech habe ich in diesem Fall nicht.“
Hier liegt nur die Datenbanksoftware in der Cloud. Dadurch wird das zu Grunde liegende Betriebssystem irrelevant. Dabei unterliegt Azure SQL einigen Unterschieden zur Microsoft SQL, wodurch sich die Datenbanken nicht so einfach migrieren ließen wie gewohnt.
In diesem SaaS-Fallbeispiel wird also nur ein Softwarebestandteil in der Cloud genutzt.
Wenn die Windows-Server sowieso zur Verfügung stehen, haben wir für dieses Modell keine direkte Anwendungsmöglichkeit in unserem Umfeld gefunden.
Sitecore CMS in der Cloud – PaaS
Sicherlich das spannendste Szenario. Hierzu haben wir zunächst die virtuelle IaaS Maschine kopiert und als Deployment Center benutzt. Natürlich hätten wir hierfür auch einen bereits lokal und physisch vorhandenen Server hernehmen können.
Dann wurde eine Kopie der Daten des Kundenprojekts, die wir freundlicherweise für unseren Test nutzen durften, in das Projekt migriert. Nach ca. einem Tag war die Migration der Daten (Languages, Templates, CoreDB, Files Package, Database Package und Configs) erfolgreich durch.
Sitecore wurde auf die aktuellste Version upgegradet.
Das Azure Modul wird schlussendlich installiert und konfiguriert.
Danach kann innerhalb von 7 Minuten per Klick ein Server hochgefahren werden. Ob in Hongkong, Dublin oder Australien ist dabei quasi unerheblich.
In diesem Fall liegt alles was wir benötigen bereits vorinstalliert als „Plattform“ in der Cloud:
Betriebssystem
IIS Webserver
lauffähiges Sitecore
und Datenbank als SaaS oder Datenbank-Server oder im eigenen Rechenzentrum“
Wenn der DNS-Eintrag auf den Azure Traffic-Manager und die Routings entsprechend angepasst sind, werden bspw. Anfragen aus Südostasien deutlich schneller bedient, als wenn diese Besucher auf einen Webserver in Deutschland geroutet würden, da der Traffic Manager als Geo-DNS fungiert und den Traffic intelligent je nach Standort der Benutzer umleitet.
Bei besonderen Lastspitzen geht das ganze Procedere übrigens auch automatisch.
Sprich:
Server werden nach Bedarf gestartet, wenn plötzlich der Traffic irgendwo auf der Welt hoch geht. (Wenn zum Beispiel ein Fernsehbeitrag in Australien gezeigt wird.) Genauso können stärkere Maschinen per Termin im Voraus gebucht werden. An Weihnachten, bei einer geschalteten Kampagne oder zum Produkt-Launch. Zum angegebenen Zeitpunkt werden demnach die Serverkapazitäten erhöht und nach Ablauf wieder gesenkt um auf smarte Weise Kosten zu sparen.
Aus welchen Gründen kann eine CMS-Instanz in der Cloud Sinn machen?
Admins sparen Hardware, Zeit, Geld, Lizenzen, Wartung. Backups aus der Cloud auf lokale Rechner sollte man sich natürlich trotzdem noch ziehen.
Entwickler können schnell mal ein volles Testsystem hochziehen für 1-3 Tage nutzen und dann wieder abschalten. Gezahlt wird zeitgenau abgerechnet anstatt für fünfstellige Summen neue Server zu kaufen.
Global verteilte Standorte sind on demand möglich und damit auch eine schnellere Auslieferung an Endnutzer.
Plötzlich ansteigender Traffic kann automatisiert und nach fein einstellbaren Regeln abgefangen werden.
Gibt es eine Kostenersparnis?
In unserem Beispiel könnte die Azure-Lösung einige Prozentpunkte günstiger sein als die vorhandene physische Struktur.
Aber:
Ein Umzug in die Cloud wäre ein umfangreiches Projekt, das momentan noch die Einsparungen auffressen würde.
Für neue Projekte könnte eine Cloudnutzung durchaus von Beginn an günstiger sein.
Qualitätssicherungssysteme und Entwicklungssysteme, die nur bei Bedarf genutzt werden, könnten in einem „Pay-as-you-Go“-Bezahlmodell durchaus zukünftig eine Ersparnis bedeuten.
Fakt ist, dass sich Anbieter von Cloudlösungen wie Google, Microsoft und Amazon – um nur einmal die großen zu nennen – quasi ständig neu unterbieten was die Kosten angeht oder den Funktionsumfang für den Kunden erweitern. Damit werden Cloud-Ansätze zunehmend attraktiver.
Unser Fazit:
Die Komplexität eines Cloud-Umzugs ist nicht zu unterschätzen und setzt eine sehr präzise Planung für einen konkreten Use-Case voraus. Je nach Use-Case kann bereits heute eine Kostenersparnis realisiert werden. Performance-Gewinn und -Optimierung ist auf jeden Fall möglich.