re:publica 2013 – unser Rückblick auf eine der spannendsten Konferenzen seit Langem

Panorama der großen Stage1 der Re:Publica (c) Andreas Kämmer

3 Tage re:publica rekapituliert man nicht mal eben so 🙂 Ich kenne keine Konferenz oder Barcamp, die ihre Gäste vergleichbar fordert, was Themenvielfalt, Konferenz-Running-Gags und die mit nach Hause genommenen Inspirationen und Informationen angeht. Das schöne ist aber, dass fast alle Vorträge als Video verfügbar sind und viele Besucher und Vortragende der re:publica nachträglich Zusammenfassungen zu ihren Lieblingsvorträgen veröffentlichen. Gut einen Monat habe ich nun gewartet um die spannendsten Vorträge sowie die Reaktionen darauf hier zusammen getragen und einen Einblick zu bieten, warum wir auf der re:publica waren und v.a. was wir für comspace von dort mitgebracht haben.

„Die re:publica hat eben auch mehr von einem Business-Festival als von einer normalen Konferenz.“

Mit diesen Worten leitete Mitorganisator Andreas Gebhard die #rp13 ein (auf seinem Blog gibt es eine lesenswerte re:publica Making-Of Serie). So wie ich mich in jungen Jahren auf Festivals auch immer daran hielt, die Bands zu sehen, die ich mir vorgenommen hatte, habe ich mich dieses Jahr zu 90% an meinen vorher festgelegten Vortrags-Plan gehalten 🙂 Trotzdem war zwischen den Vorträgen noch genug Zeit für das Netzwerken, was auf der rp13 eher einem Klassentreffen gleicht.

Panorama der großen Stage1 der Re:Publica (c) Andreas Kämmer
Panorama der großen Stage1 der Re:Publica (c) Andreas Kämmer

Neben all den Startups und dem Schwerpunktthema Afrika, Kulturthemen, netzpolitischen Diskussionen und einem durch meinen Lieblings-SfiFi-Autoren Cory Doctorow signierten Kindle der auch für mein persönliches Lieblingszitat verantwortlich war:

…sind vor allem für die Business-Hirnwindungen die folgenden Inhalte im Gedächtnis geblieben:

Hinweis: In diesem Beitrag sind überdurchschnittlich viele Links – v.a. auf Videoaufzeichnungen der re:publica Vorträge bei YouTube enthalten. Links deswegen, weil so viele eingebettete Videos Probleme mit der Browsergeschwindigkeit bei Ihnen als Leser verursachen können.

Machen! Das Web wird auf die eigenen Server zurück geholt

Sascha Lobo ist mit seinen Vorträgen auf der re:publica mittlerweile eine feste Größe mit ebenso fester Frisur. Hat er auf einer der vergangenen re:publicas noch dazu aufgerufen wieder mehr zu bloggen und weniger der fremd-verantworteten Kanäle wie Facebook, Tumblr, Twitter usw. zu nutzen, wurde er dieses Jahr deutlich konkreter.
Mit reclaim.fm haben Lobo und Felix Schwenzel eine erste Alpha-Version einer Lösung für WordPress vorgestellt, mit der sich digital hinterlassene Spuren wie Tweets, Instagram-Bilder, Facebook-Likes, Pinterest-Pins und wie sie alle heißen, auf einer eigenen WordPress-Plattform zusammen tragen lassen. Sowohl technisch als auch (urheber-)rechtlich sind bezüglich der Nutzung von reclaim.fm noch ein paar Fragen offen. Das System das v.a. aus einigen WordPress-Plugins und Scripten besteht, verspricht aber eine echte Arbeitserleichterung zu werden. Im Auge behalten! Die zweite und noch viel wichtigere Botschaft seines Vortrags war:

Machen!

Und wenn es ein längst überfälliges Logo für das Internet ist, das Sascha Lobo mit Stijlroyal entworfen hat. Die Weltkugel von einem Netz überspannt. Dargestellt durch zwei Klammern und eine Raute:

(#)

Kleines Update nach nun ungefähr 1 Monat: reclaim.fm wurde von manchen Nutzern erfolgreich installiert. Andere (inklusive mir) waren bisher noch nicht so erfolgreich, die Plugins und Skripte zum Laufen zu bringen. Ich bin gespannt, ob von Felix und Sascha oder jemand anderem noch eine Weiterentwicklung von reclaim.fm kommt.

Content Strategie

Einen der handfestesten Vorträge mit direktem Praxisbezug habe ich von Brigitte Alice gehört. Auch wenn es in Ihrem Workshop um Content Strategy bei NGO ging (also Nichtregierungsorganisationen wie bsw. dem Roten Kreuz), lassen sich viele Ihrer Vorschläge und Ansätze auch auf die Content Strategien im Business-Bereich übertragen. Insbesondere die umfangreiche und strukturierte Recherche zur Vorbereitung, übergehend in den Content Audit, die Erstellung eines Content Inventory und die Durchführung von Content Prototyping war sehr aufschlussreich.

CRM – Constituent Relationship Management

Im Anschluss zur Content Strategie ging es direkt weiter mit dem Thema CRM. Interessanterweise immer noch im Themenfeld NGO. Deswegen sprach Fabian Schuttenberg auch von Constituent Relationship und nicht Customer Relationship. Denn auch wenn im Umfeld von Wohltätigkeits- und Nichtregierungs-Organisationen auch Beziehungsmanagement betrieben wird, ist es eben etwas anderes, ob es sich um eine Kundenbeziehung oder die zu Spendern oder freiwilligen Unterstützern handelt. Die Engagement Ladder – scheint ein hilfreiches Tool zu sein, um festzulegen, welche Conversion-Ziele gesetzt werden sollen: Vom Interessierten zum Newsletter-Abonnenten. Vom Petitions-Zeichner zum zahlenden Spender.

Raus aus der Blase Internet

Gunter Dueck hat vor 2 Jahren bereits den damals meist beachteten Vortrag der re:publica 2011 gehalten. Dieses Jahr war er eine Spur sperriger unterwegs und hat uns ganze Menschenbilder erklärt. Einigermaßen greifbar wurde das, als er vom Ethnozentrismus sprach, der sich besonders auf solchen Konferenzen zeigt. Jeder der Anwesenden kann verstehen worum es geht. Es haben nicht alle die gleiche aber doch eine ähnliche Meinung und Vorstellung von der Welt – zumindest über die Relevanz der eigenen Themen. Darüber wird oft vergessen, dass das draußen vor der Tür des Konferenzsaals im „echten Leben“ oft ganz anders aussieht. Duecks Kernaussage lautete für mich: Wir sollten empathischer sein und über den Tellerrand unserer Web-Blase hinaus blicken.

Wie wird sich Arbeit in Zukunft verändern?

Wir sind always on und damit auch immer mit halbem Kopf bei der Arbeit. Maschinen nehmen uns immer mehr Arbeit ab oder lasen uns effektiver arbeiten. Ob es nun Tablets, Apps und mobile Computing für den Wissensarbeiter sind oder Roboter, ERP-Systeme und computergestützte Logistik in der Industrie 4.0. Der zweite re:publica Tag entwickelte sich für mich zu einem Tag unter dem Überthema Arbeit:

Los ging es mit Theresa Bückers Vortrag Der Montag liebt Dich. In dem sie einen kurzen Abriss über die moderne Arbeitskultur gab. Darüber, wie wir zufriedener bei und mit unserer Arbeit sein können. Warf die Frage auf, warum die aktuellen Innovationen in Technik und Kommunikation sich eigentlich nur schleppend am Arbeitsplatz durchsetzen. Gab Beispiele dafür wie Corporate Social Responsibility auch für gute Beziehungen und Freundschaften der Mitarbeiter zuständig ist wie aber auch darauf hin, dass Arbeitnehmer selbst in der Verantwortung sind, Ihre Bedürfnisse kund zu tun, um besser Leben und Arbeit miteinander zu verbinden. Klingt ein wenig poetisch – war es in Teilen auch. Ich empfehle den Vortrag einfach anzuschauen. Ausführlicher lässt sich der Vortrag bei goodplace und schulzekopp nachlesen. Sketchnotes hat den Vortrag skizziert.

Deutlich wissenschaftlicher ging es im Anschluss mit der Soziologin Jutta Allmendinger weiter. Sie hat Lebens(ver-)läufe, ihre Einflussfaktoren und die daraus resultierenden Veränderungen nicht nur für die Arbeits-Gesellschaft untersucht. Sondern auch zwischen den Geschlechtern. Dabei hat sie festgestellt, dass sich das Gesamtarbeitsvolumen von Frauen in den letzten 30 Jahren kaum verändert hat und die Arbeitsverteilung eher unter Frauen statt fand: Von Vollzeitstellen zu mehr Teilzeitarbeitsplätzen. Damit stellte sie die These auf, dass der Heiratsmarkt im Hinblick auf die sichere Rente für Frauen derzeit noch zielführender sei als der Arbeitsmarkt. Ausführliche Beiträge hierzu bei Katrin Roenicke und bei der Bundeszentrale für politische Bildung.

Der meiner Meinung nach beste Vortrag der #rp13: Das Ende der Arbeit

Dann folgte der meiner Meinung nach beste Beitrag der re:publica 2013 (deswegen hierzu auch das Video im Text) von Johannes Kleske – seit seinem Coverfoto auf der brand:eins auch gerne der Posterboy der Digital Natives genannt 😉

[iframe src=“http://www.youtube.com/embed/xPL0vKClCxM“ height=“315″ width=“560″ allowfullscreen=““ frameborder=“0″]

Viele unserer technischen Errungenschaften dienen vor allem einem Zweck: Uns möglichst viel Arbeit abzunehmen oder leichter zu machen. Vor allem körperliche. Derzeit macht Technologie mehr Arbeit überflüssig, als sie uns neue Arbeitsplätze schafft. Deswegen sprach Johannes Kleske über Das Ende der Arbeit und wie wir in Zukunft leben wollen. Johannes zeigt historische Beispiele wie die Bürger des antiken Athen sich mit Philosophieren und Politik beschäftigten, während die Arbeit – nunja – von Sklaven erledigt wurde. Heute könnte diese Erledigung von alltäglichen Aufgaben von Maschinen übernommen werden. Kritisch beäugt er, dass arbeitende Menschen durch Maschinen natürlich auch überwacht und kontrolliert werden und führt dabei ein „Armband“ an, das Mitarbeiter der Firma Tesco während der Arbeit tragen müssen und darüber gemonitort werden.

Eine detaillierte Ausführung von Johannes Session findet sich hier bei dailymo. Steffen Voss frag: Kann Arbeit enden? Antje Schrupp hat sehr spannende Beiträge in ihrem Blog dazu: Zunächst den von Johannes Vortrag angeregten Menschen, Maschinen und Arbeit. Im zweiten Beitrag beschreibt sie, warum manche immer arbeiten, sie aber eigentlich nie arbeitet.

An dieser Stelle möchte ich mal aus eigener Erfahrung betonen, dass wir bei comspace bereits eine Menge der in den oben erwähnten Ansätzen für moderne Arbeit anwenden, verinnerlicht haben und von unseren Chefs zugestanden bekommen. Seien es flexible Arbeitszeiten, Freiräume beim Arbeiten, gesunde Arbeitsplätze, Bildungsangebote usw.

Später am Tag ging es um einige Ergebnisse von Arbeit:

Autos und Mobilität

Dieter Zetsche – Daimler-Vorstandsvorsitzender (Sponsor der re:publica) wurde in einer rappelvollen Stage 1 von Martin Randelhoff interviewed und stellte sich im Anschluss einigen Publikumsfragen. Zetsche sprach über die Zukunft des Autos, autonome Fahrzeuge und das Daimler in dem Bereich bereits auf einem ähnlichen Stand wie Google ist, das vernetzte Auto und wie sich dadurch unsere Mobilität verändert. Genauso aber auch über die Integration von Social Media ins Auto und ob es Sinn macht, Facebook und Twitter während des Fahrens zu nutzen oder nicht. Eine Zusammenfassung des Interviews hat t3n und hier geht es zum Video des Interviews. Sehr empfehlenswert – zum einen, weil schon bemerkenswert ist, dass der CEO eines Konzerns wie Daimler die Re:Publica derart ernst nimmt. Zum anderen, weil interessant ist, wie die „klassische“ Industrie die aktuellen Veränderungen wahrnimmt, bewertet und mit ihnen umgeht.

Im Anschluss ging es mit einem weiteren Vortragenden aus dem Haus Mercedes-Benz weiter: Daimlers Zukunftsforscher Alexander Mankowsky hielt einen Workshop zu der Frage: „Vernetzte Mobilität – Erobert das Digitale die analogen Welten?“ – Dabei wurde klar, dass das autonome Fahren scheinbar die disruptivste und gleichzeitig ausgereifteste Technologie moderner Mobilität ist und in den nächsten 10 Jahren wohl für die meisten Innovationen sorgen wird. Alex Mankowksy erklärte, warum die Autorevolution fast 40 Jahre brauchte um richtig Fahrt aufzunehmen. Als Grund nannte er, dass zunächst die Infrastruktur mitwachsen musste: Straßen, Tankstellen, Verkehrsschilder, rechtliche Regelungen, Werkstätten und so weiter. Er zeigte Beispiele mittlerweile historischer Automobil-Innovationen, die heute aus unserem Leben nicht mehr wegzudenken sind und Innovationen die ohen Auto nie entstanden wären wie Vergnügungsparks bsw. Er gab Ausblicke auf Möglichkeiten, die sich durch selbstständig fahrende Autos ergeben: Vom Car-Sharing über Lieferdienste bis hin zu Dienstleistungen für Senioren. Bei Sketchnotes gibt es eine graphische Skizze des Workshop.

Am Rande:

In einem Workshop des Senders SWR3 kam uns die Erkenntnis: Auch Social Media Manager der öffentlich rechtlichen Sendeanstalten geben nur ungern konkrete Zahlen über Nutzer-Interaktionen in internaktiven Sendeformaten heraus.

Daten, Daten und nochmal Daten – Sammeln, Analysieren und draus lernen

Wir hatten das Thema Big Data gerade in unserem vorletzten Newsletter. Umso interessanter waren die praktischen Beiträge zu Data Science die eine Menge Fragen beantworteten:

  • Wie kommt man überhaupt an Daten heran?
  • Wie extrahiert man diese aus unterschiedlichen Datenbeständen?
  • Wie lassen sich diese Daten kombinieren und wieder zu neuen Informationen verarbeiten
  • Welche Tools zur Arbeit mit Daten gibt es?
  • Welche rechtlichen Fragen muss man sich stellen?

Den ersten Talk – Street Fighting Data Science, der leider nicht aufgezeichnet wurde, bestritten Benedikt Köhler und Jörg Blumtritt. Allerdings gibt es die Folien zum Vortrag bei Slideshare. Die beiden brachten eine Menge Beispiele wie man mit sehr einfachen, improvisierten Tools Daten auseinander klamüsern kann, um daraus Erkenntnisse zu ziehen oder Visualisierungen zu bauen wie zum Beispiel Fotos nach Farben zu analysieren und in Kontext mit der Jahreszeit zu bringen oder mit dem passiven Wahlomat die Volltexte von Wahlprogrammen analysieren.

Außerdem habe ich in dem Talk Luca Hammer endlich mal persönlich kennen lernen dürfen, der aktuell an Blognetz seiner Visualisierung der deutschen Blogger-Szene arbeitet und habe von ihm einige Path-Aufkleber abgestaubt 🙂

Datenbefreiung selbst gemacht waren dafür 3 Vorträge in einem. Mit Sebastian Vollnhals, Jens Ohlig, Michael Kreil

Weitere Talks zum Thema Daten waren: Open Data & Culture von Joris Praekel und Daniel Dietrich (beide Open Knowledge Foundation), die Frage nach Personal Data – Nothing to hide? stellten sich Katarzyna Szymielewicz und Jérémie Zimmermann und dann gabe es noch die Data Cuisine – How to get juicy data from spreadsheets mit Anna Lena Schiller, Sylke Gruhrwald und Lisa Rienemann. Die Frage Open Data: Und was hat das mit mir zu tun? wurde von Julia Kloiber und Stefan Wehrmeyer gestellt.

Der witzigste und gleichzeitig nachdenklichste Vortrag: Die Digital Natives ziehen in den Krieg

Der Vortragstitel, der mich am meisten in die Irre geführt hat. Ich dachte zunächst es geht um Digital Natives, die gegen einen großen Konzern oder eine Ungerechtigkeit Aktionen starten. Weit gefehlt!

Digital Natives sind die Menschen, die sich an eine Zeit vor dem Internet nicht erinnern können, weil sie bereits ins Internetzeitalter geboren wurden. Junge Soldatinnen sind natürlich ebenfalls Digital Natives. Was machen also Soldaten und Soldatinnen wenn sie in den Einsatz ziehen und aus Krisengebieten oder ihrer Freizeit per Facebook, Twitter, YouTube berichten? Journalist Thomas Wiegold der u.a. über die Streitkräfte bloggt (Augen geradeaus) und Sascha Stoltenow – ein ehemaliger Bundeswehr-Offizier, der nun als PR-Berater arbeitet, haben einige witzige, spannende und nachdenklich stimmende Beiträge vorgestellt und erklärt.
Und weil dieser Talk so unglaublich gut war – hier das Video, die Präsentations-Folien und ein Behind-the-Scenes-Beitrag von Thomas.

[iframe src=“http://player.vimeo.com/video/65905002″ width=“500″ height=“281″ frameborder=“0″ webkitAllowFullScreen mozallowfullscreen allowFullScreen]

Die Digital Natives ziehen in den Krieg from Sascha Stoltenow on Vimeo
Die Digital Natives ziehen in den Krieg from Sascha Stoltenow on Vimeo

Die abgefahrenste Open Data Analyse bisher: Besucherströme der re:publica

Man nehme 5000 Konferenzbesucher, viele WLAN-Router und speichere deren Logdateien. Danach lassen sich die Bewegungsdaten durch die Säle anhand der Telefone je WLAN Router visualisieren. Un.Glaub.Lich:

Besucherstromanalyse Re:Publica 2013 Opendatacity
Besucherstromanalyse Re:Publica 2013 Opendatacity

Zur re:log-Website. Realisiert von OpenDataCity. Unterstützt durch picocell und newthinking. Anwendung steht unter CC-BY 3.0.

Besonderheiten dieser re:publica

  • Das schnellste E-Book der Welt. Jeden Tag wurde eine gut 200-seitige zusammenfassung des Vortages als e-book veröffentlicht.
  • 8500 Würfel aus Pappe als Gestaltungselemente, Raumtrenner und Standwände.
  • Schlangen vor den Damentoiletten
  • Viele Kinder auf der Konferenz (bemerkt von Thomas Knüwer)
  • Über 5500 Telefone und in keinem Vortrag klingelte eines!
  • Und natürlich die Plakate der letzten 100 Jahre Re:Publica 🙂

Interessante Vorträge im Schnelldurchgang

Eine vollständige Wiedergabe einer solchen Mammutveranstaltung ist nur schwer möglich. Deswegen bleibe ich bei einigen Highlights, die ich erst nachher in den Videoaufzeichnungen entdeckt habe.

Andere Stimmen zur re:publica:

Alles geschrumpft – außer der Leistung

Die Anforderung

Maximale Performance und Ausfallsicherheit mit einem geringen Preis und minimalen Betriebskosten zu vereinen ist die Herausforderung, die jeder Infrastrukturconsultant von seinen Kunden (nahezu) jeden Tag aufs Neue von seinen Kunden gestellt bekommt. Besonders die laufenden Betriebskosten (Strom, Klimatisierung, Rack-Infrastruktur) stellen heute einen wesentlichen Kostenfaktor im Betrieb einer Serverlandschaft. Neben den Energiekosten müssen auch die Stellplatzkosten betrachtet werden – spätestens seit der bekannten Werbung des blauen Riesen („Wo sind unsere ganzen Server hin?“ – „Hier!“ – „Was ist das?“ – „Es ist ein Blade?“) ist allgemein bekannt, dass jeder das Ziel verfolgt möglichst viel Performance auf wenig Fläche unterzubringen. Denn nicht nur die Fläche, sondern auch die Anforderung an die Klimatisierung stellt eine Herausforderung dar, sobald mehr Fläche benötigt wird.

Die Lösung

Neulich stellte mich ein Kunde vor genau diese Herausforderung. Maximale Performance im Bereich der CPU-Leistung und eine hohe I/O-Rate schlossen eine Virtualisierung schnell aus, die vielen Komponenten aus denen das System bestehen sollte, sorgte schnell für eine größere Anzahl an sogenannten 2 HE-Systemen, gleichzeitig war die benötigte Anzahl an Festplatten aufgrund des geforderten Datenvolumens sehr gering, so dass wenige Festplatten zur Skalierung und Ausfallsicherheit reichten.

thomas_krenn_multinode_server
Der Multinode-Server der Thomas-Krenn.AG

Unser langjähriger Partner, die Thomas-Krenn.AG aus dem niederbayrischen Freyung, stellte auf der Cebit 2013 seine neuen Multinode-Systeme vor und endlich gab es einen sinnvollen Einsatzzweck. Vier vollwertige Dual-CPU-Systeme mit jeweils sechs dedizierten Festplatten auf 2 Höheneinheiten klingen sehr verlockend, immerhin können jetzt viermal so viele Systeme auf dem gleichen Raum verbaut werden. Jedes System verfügt über zwei Netzwerkanschlüsse und einen dedizierten IPMI-Port zum Remote Management, erstere können über die zusätzliche Netzwerkkarte erweitert werden. Zwei Netzteile versorgen alle vier Server redundant. Gleiche Power bei weniger Platzbedarf – war das in der IT nicht seit je her ein Garant für höhere Anschaffungskosten? Doch dann kam die Überraschung. Im konkreten Fall wurden vier RI8224M von der Thomas-Krenn.AG konfiguriert. Vom Single CPU-System mit 4 GB RAM als Proxy Server bis hin zum hochperformanten Datenbankserver mit 64 GB RAM und 2 6-Kerne-Prozessoren war alles in dem System dabei und am Ende standen ca. 30% weniger Anschaffungskosten auf dem Angebot. Betrachtete man die einzelnen Systeme im direkten Vergleich so konnten teilweise bis zu 45% der Kosten eingespart werden, selbst nach Umlage der Kosten für das Basischassis waren problemlos 40% Ersparnis möglich. Hinzu kommt die bessere Ausnutzung der Netzteile, weniger Platzbedarf im Rack und dadurch günstigere Betriebskosten – ein Traum für alle Seiten.

Der Intel Dual-CPU RI8224M ist nicht nur für komplexe Infrastrukturen für einzelne Kunden geeignet, sondern bietet auch eine gute Basis für den Betrieb von individuellen Virtualisierungs- oder Cloud-Lösungen im eigenen Rechenzentrum. Wem eine CPU pro System reicht, für den bietet der RI8316M eine ähnliche Lösung mit 8 Servern auf 3 Höhenheinheiten, die jeweils 2 Festplatten nutzen können.

Es werden nur drei Server gebraucht? Auch da gibt es eine Lösung – man nimmt das vierte Modul mit einer kostengünstigen Ausstattung und nutzt es zur Überwachung der anderen Module, denn die Serverexperten haben passend zum Linux-Tag mit TKmon ein auf der OpenSource-Lösung Icinga basierendes, intuitiv zu bedienendes Monitoringtool zur Verfügung gestellt.

Google Webmaster Tools: XML-Sitemap

Die Google Webmaster Tools erlauben beispielsweise die Einbindung einer sogenannten XML-Sitemap, mit dem der Suchmaschine Google eine Liste aller verfügbaren Inhalte bzw. URLs übermittelt wird. Für die meisten Websitebetreiber ist nach Einreichen der Sitemap dieses Kapitel auch beendet, doch in den Google Webmaster Tools werden relevante Statistiken über die Sitemap preisgegeben.

Einreichen der Google Sitemap
Eingereichte und Indexierte Inhalte

Gleich die erste Übersicht zeigt dem Websitebetreiber, dass die eingereichten Inhalte in Typ „Webseiten“ und Typ „Bilder“ unterteilt werden. Außerdem zeigt die Statistik, wie viele Inhalte eingereicht und im Anschluss von der Suchmaschine in den Index aufgenommen wurden. Schön und gut? Nein, bereits hier sollte der Inhaber der Website sich überlegen, ob es korrekt ist, dass beispielsweise von 312 eingereichten Webseiten lediglich 81 im Index sind. Selbiges gilt natürlich auch für Bilder. Hat die Website eventuell Indexierungsprobleme, die mir als Betreiber bis dato nicht bekannt sind?

Im der darunter liegenden Übersicht werden die eingereichten Sitemaps aufgelistet. Wie viele man einreicht und ob man diese beispielsweise in Kategorien, Artikel, Schlagworte und so weiter unterteilt, ist jedem selbst überlassen. Aktive WordPress Nutzer können zum Beispiel mittels dem Plugin WP SEO by Yoast die Sitemaps unterteilen und diese bei Bedarf einreichen. Der Vorteil einer Unterteilung begründet sich mit einer besseren Übersicht, auch in den Google Webmaster Tools.

Fehler und Potentiale erkennen

In der nachfolgenden Übersicht ist klar zu erkennen, dass vier Sitemaps eingereicht wurden. Zum einen für vorhandene Kategorien, Seiten, Artikel und Schlagworte. Relevant sind hierbei die Punkte: Wann wurde meine Sitemap zuletzt verarbeitet? Wie viele Inhalte wurden eingereicht und vor allem, wie viele Seiten sind im Index?

Übersicht der Google Sitemaps
Übersicht der Google Sitemaps

Im Anschluss gilt es bei Bedarf zu untersuchen, warum weniger Seiten im Index sind als von einem selbst eingereicht wurden.

  • Weist meine Website Fehler auf und Google kann daher die Inhalte nicht indexieren?
  • Sind URLs auf noindex eingestellt?
  • Ich habe neue Inhalte, aber die XML wurde noch nicht wieder bearbeitet?

Es gibt verschiedene Gründe, warum URLs nicht im Index sind. Es muss aber nicht zwangsläufig immer ein Fehler vorliegen. Wer beabsichtigt, dass gewisse Inhalte nicht indexiert werden sollen, der verwendet das Meta-Tag Robots mit einem „noindex“, logsicherweise wird diese URL dann als eingereicht dargestellt, aber nicht in den Index aufgenommen.

Ebenso kann es sein, dass ich gerade erst einen Artikel veröffentlicht habe, in der Zwischenzeit die Sitemap seitens Google noch nicht abgerufen wurde und dem entsprechend die Seite nicht im Index ist. Wiederum kann es auch sein, dass die Seite im Index ist, die obige Grafik aber bis dato noch nicht aktualisiert wurde.

Fazit: Auswertung von XML-Sitemap Daten mithilfe der Google Webmaster Tools

Die Daten, welche die „Google Webmaster Tools“ bieten, geben jedem Websitebetreiber die Möglichkeit ohne große Schwierigkeiten zu erkennen, wie viele der eingereichten URLs auch tatsächlich in den Google Suchindex aufgenommen wurden. Des Weiteren lassen sich über diese Daten eventuelle Probleme bei der Indexierung von Inhalten erkennen – wenn weniger Inhalte im Index sind, als tatsächlich eingereicht wurden, muss aber auch nicht zwangsläufig ein Fehler vorliegen, sondern es kann auch beabsichtigt sein, dass vorab definierte URLs nicht indexiert werden sollen.

Was ist eine Exact Match Domain?

Was ist eine Exact Match Domain

Eine Exact Match Domain ist im Endeffekt nichts anderes als eine sogenannte Keyword-Domain, in der das wichtigste Keyword einer Website enthalten ist.

Zur Einleitung ein sehr gutes Video von Dominik Wojcik, seines Zeichens Geschäftsführer der TA Trust Agents Internet GmbH, zum Thema „Das Google EMD Update erklärt„.

Eine Keyword Domain hat drei, vier signifikante Vorteile und durchaus noch weitere, die nachfolgend beschreiben werden.

Keyword im Domainnamen

Logischerweise ist einer der Vorteile, dass das relevante Keyword im Domainnamen enthalten ist. Ein Keyword im Domainnamen erlaubt Suchmaschinen eine Domain sehr einfach zu katalogisieren und diese einer Branche zuzuordnen.

Themenrelevanz einer Exact Match Domain

In der Regel kann bei einer Exact Match Domain davon ausgegangen werden, dass der Domainname den Website-Inhalt themenrelevant abbildet. Wenn die Domain beispielsweise auf den Namen Vogelkaefig.de getauft wird, so kann man davon ausgehen, dass auch exakt dieses Produkt behandelt wird. Die wenigsten werden auf die Idee kommen, sich diese Domain zu registrieren, um im Anschluss darüber Festplatten zu vertreiben.

Vertrauensbildung mithilfe einer Domain

Domainnamen, die für jeden Besucher klar zu erkennen sind, können Vertrauen aufbauen. Bekannte Begrifflichkeiten aus dem Alltag sind in vielen Fällen für potentielle Besucher bzw. Kunden vertrauenswürdiger als fiktive Domains wie z.B. V0g3lkäfig.de. Zusätzlich unterstützt eine Endung wie .de, .com, .net das Aufbauen von Vertrauen gegenüber einer klar zu erkennenden Domain.

Leicht zu merken

Eine Keyword-Domain muss nicht zwangsläufig ein Brand sein und dem entsprechend in aller Munde sein – ein Keyword wie z.B. Vogelkäfig ist aber in aller Munde und gehört zum allgemeinen Sprachgebrauch, ist weder exotisch noch ein selten genutztes Synonym und dem entsprechend einfach zu merken.

Durch einen einprägsamen Domainnamen können Domains einfacher und besser per Mundpropaganda am Telefon, per eMail oder Instant Messenger geteilt werden. Auch in Zeiten von sozialen Netzwerken, wo mithilfe eines Klicks Internetseiten an Freunde, Bekannte und Kollegen übermittelt werden, ist die Mundpropaganda immer noch ein relevanter Marketing-Faktor.

EMD-Update

Auch bei den Exact Match Domains versucht Google, es der Internetgemeinde deutlich schwerer zu machen. Mit dem sogenannten EMD-Update sollen Keywords-Domains abgewertet und mit „normalen“ Domains gleichgesetzt werden. Wie so häufig verlief das erste Google Update allem Anschein nach nicht reibungslos, nach dem ersten Aufschrei erholten sich eine Vielzahl von Keyword-Domains wieder und erreichten ähnliche Positionen wie vor dem Update.

Allgemein war aber der Anteil von Keyword-Domains, die vorerst tatsächlich abgerutscht sind, durchaus gering – was im Endeffekt auch immer wieder zeigt, dass andere Google Algorithmen weiterhin greifen und eine Website eben nicht auf eine einzige Domain oder einen einzigen Faktor zu beschränken ist. Das sogenannte EMD-Update ist lediglich eine Erweiterung der vorhandenen Algorithmen. Die inhaltliche Qualität einer Website setzt sich, unabhängig vom Domainnamen, nach wie vor durch.

Warum trotzdem eine Keyword-Domain verwenden?

Eine berichtigte Frage, wenn man lediglich davon ausgeht, dass nicht die Domain relevant ist, sondern der Inhalt einer Seite. Die Vorteile einer Keyword-Domain haben wir bereits angesprochen – der Name der Domain ist nebst Titel der Seite und Meta-Beschreibung auch das erste, was ein Besucher in den Suchergebnissen sieht. Ein passender Name und eine passende Endung schaffen Vertrauen und somit steigt die Wahrscheinlichkeit, dass eine Website über die Suchergebnisse aufgerufen wird.

Darstellung der Serps in Verbindung mit der Domain
Darstellung der Serps in Verbindung mit der Domain

Des Weiteren ist die Auswirkung des sogenannten EMD-Updates deutlich geringer ausgefallen als zunächst befürchtet und gravierende Veränderungen konnten bei einer Vielzahl der Domains nicht erkannt werden. Zudem gibt es immer wieder Veränderungen in den Suchergebnissen im Zusammenhang mit dem Panda Update sowie dem Penguin Update. So waren einige Websitenbetreiber tatsächlich von eben diesen Updates betroffen, suchten aufgrund des Zeitpunkts die Schuld aber beim EMD-Update.

Unabhängig von dieser Vielzahl an Google Updates in den vergangenen Wochen, Monaten und Jahren sind immer nur eine vergleichsweise geringe Anzahl von Websitebetreibern betroffen gewesen. Daher ist es ratsam, vorab seine Website auf Verstöße gegen die Google Webmaster Richtlinien (Artikel 1, Artikel 2, Artikel 3, Artikel 4) hin zu untersuchen. Außerdem sollte der Betreiber ehrlich zu sich selbst sein: Bietet die Website ausreichend fundierte Inhalte und damit einem Mehrwert für die Besucher, die Suchmaschinen und für einen selbst?

Die Wahl der richtigen Domain und Endung

Domain und Endung - Qual der Wahl

Recht häufig stellt sich dem Webmaster und Laien die Frage, welcher Domainname und vor allem welche Domain-Endung ist eigentlich die Richtige?

die Wahl der richtigen Domain
die Wahl der richtigen Domain

Ein Domainname sollte grundsätzlich mit der Thematik einer Webseite in Zusammenhang stehen. Wenn nach intensiver Suche und diversen Domainabfragen der passende Name für das Vorhaben gefunden wurde, stellen sich in der Regel weitere Fragen. Vor allem bei Begrifflichkeiten, die sowohl getrennt als auch zusammen geschrieben werden können, taucht häufig vor der Registrierung einer Domain die Frage auf: „Welche der beiden Domainnamen nehme ich jetzt?“.

Die Antwort ist immer: Beide.

Natürlich kosten zwei Domains mehr als eine, allerdings ist es grundsätzlich immer sinnvoll, die relevantesten Domains für sein Vorhaben zu registrieren und damit sein eigen zu nennen. Denn mal angenommen, man schafft sich eine Brand oder eine sehr gut besuchte Seite, so bietet man potentiellen Konkurrenten nicht die Chance, aus dem eigenen Namen einen Nutzen zu ziehen. Das gilt auch für getrennt und zusammen geschriebene Domains (www.do-main.de und www.domain.de).

Was gilt es weiterhin zu beachten?

  • Kunstwörter vermeiden
    Das Erschaffen einer Brand ist sicherlich toll und der Wunschtraum eines jeden Websitenbetreibers. Aber das Erschaffen einer Brand durch ein Kunstwort ist in der Regel sehr zeit- und kostenintensiv – Namen die keiner kennt, werden auch bei Suchmaschinen nur sehr selten gesucht.
  • Einzahl oder Mehrzahl?
    Auch hier gilt die Antwort „Beide“. Wer sich eine Domain mit dem Namen im Singular registriert, läuft Gefahr, dass er irgendwann Besucher an einen Konkurrenten verliert, der sich den Domainnamen im Plural registriert hat. Gerade Domainhändler sind darauf fixiert, sich solche Domains zu sichern, um diese im Anschluss selbst zu vermarkten oder diese für einen hohen Preis an Sie zu veräußern.
  • Leicht zu merken und so kurz wie möglich
    Bei der Wahl des Namens sollte darauf geachtet werden, dass dieser so kurz wie möglich ist, damit sich Kunden und Besucher diesen sehr leicht merken können und im besten Fall, aufgrund der Einfachheit, verbreiten.
  • Markenrecht
    Ja, auch Domainnamen unterliegen eventuell einem Markenrecht. Dem entsprechend vorab immer darauf achten, ob der Domainname geschützt wurde. Deshalb sollte man sich immer die 5 Min Zeit nehmen und vorab auf der Seite des deutschen Patent- und Markenamts den Domainnamen abfragen.

Welche Endung sollte genommen werden?

Natürlich könnten jetzt pauschal alle Endungen oder lediglich eine Endung registriert werden, allerdings sinnvoll sind Endungen wie .de für Deutschland (für Österreich .at, für die Schweiz .ch), .com, .net, .org, .info, .eu – nach wie vor gelten diese Domain-Endungen als deutlich vertrauenswürdiger im Vergleich zu unsympathischen Endungen wie zum Beispiel .biz.

In der Regel kriegt man im Anschluss die Antwort: Aber ich will doch nur eine Webseite erstellen und nicht vier bis fünf. Das ist auch richtig. Daher sucht man sich eine Hauptdomain aus und leitet die anderen Domains auf diese Hauptdomain weiter. Damit vermeidet man, dass andere Websitebetreiber sich die guten Domain-Endungen sichern.

Generische Domains und deren Zielausrichtung?

Ein Problem der generischen Domains ist dass diese in erster Linie nicht einem Land zuzuordnen sind.  Bei Domains mit der Endung .de ist davon auszugehen, dass diese sich auf den deutschen Sprachraum beziehen, Ausnahmen bestätigen die Regel. Bei Domain-Endungen wie zum Beispiel .org weiß man in der Regel nicht, in welchem Sprachraum sich die Website befindet. Daher ist es empfehlenswert, die Domain in die Google Webmaster Tools einzutragen, darüber die geografische Zielausrichtung anzusteuern und der Domain einschließlich Endung einen Sprachraum zuzuweisen.

10 Fragen zum CMS FirstSpirit im Video-Interview

10 Fragen zum CMS FirstSpirit

Auf der CeBIT hatten wir die Möglichkeit, dem Vorstand unseres CMS-Partners e-Spirit Jörn Bodemann und dem Mitglied unserer Geschäftsführung Michael Steinfort 10 Fragen zum Content Management System FirstSpirit zu stellen.

In 9 Minuten Video erfahren Sie:

  • Was zeigten e-Spirit und comspace auf der CeBIT 2013?
  • Michael Steinfort erläutert, warum sich comspace für FirstSpirit entschieden hat.
  • Was bietet FirstSpirit im Einsatz auf mobilen Devices?
  • Einsatzmöglichkeiten der mobilen Lösung für FirstSpirit, die comspace entwickelt hat.
  • die 3 aktuell spannendsten CMS Themen aus Hersteller- und Agentur-Sicht.
  • Was bringt die Zukunft für Content Management Systeme?

http://youtu.be/wiVtfI-ZfPI

Nächste Woche veröffentlichen wir ein weiteres Video, in dem unsere Kollegen aus Account Management und Entwicklung gemeinsam mit einer Kollegin von e-Spirit einige Features von FirstSpirit und unsere mobile Anwendung in Aktion demonstrieren.

Digitale Städte: New York und Bielefeld im Vergleich

Screenshot der Facebookpage der Stadt Bielefeld

Im Januar 2011 hat sich New York zum Ziel gesetzt, die weltführende digitale Stadt zu werden und gründet dieses Vorhaben auf 5 Säulen:

Die Roadmap der Stadt New York lässt sich bei Slideshare in diesem Dokument nachlesen: Becoming a Digital City with HootSuite. Der Themenschwerpunkt auf HootSuite rührt daher, weil es von den Mitarbeitern der Stadt New York als Social Media Management Tool eingesetzt wird. Welches Tool die Stadt Bielefeld genau nutzt, um all die weiter unten aufgeführten Kanäle zu bespielen konnte ich noch nicht heraus bekommen, werde die Info aber asap nachliefern. Hier bei comspace nutzen wir derzeit ebenfalls Hootsuite um Twitter, Facebook und unsere Google+ Seite mit Inhalten zu versorgen.
Screenshot der Facebookpage der Stadt Bielefeld
Screenshot der Facebookpage der Stadt Bielefeld

Zugegeben:

NYC und Bielefeld miteinander zu vergleichen ist schon etwas gewagt. Seit ich auf den Beitrag im Hootsuite Blog gestoßen bin frage ich mich, in wie weit die Digital Roadmap von New York wohl auch etwas für Bielefeld wäre, denn eine Digitale Stadt muss ja nicht gleich Weltmetropole sein. Dabei ist mir aufgefallen, dass Bielefeld schon sehr viel richtig macht:

Das ist schon eine ganze Menge, was Bielefeld anbietet und kann sich durchaus als Digital City bezeichnen – ob sie nun Hootsuite benutzt oder nicht 😉

Webtrekk veröffentlich die Deutsche Webstatistik für das 4. Quartal 2012

Webtrekk-Logo

Webtrekk hat die Deutsche Webstatistik für das 4. Quartal 2012 veröffentlicht aus denen einige interessante Zahlen hervorgehen:

  • Einer von acht Zugriffen auf das Internet erfolgt mit einem Smartphone oder Tablet
  • Apples mobile Geräte büßen im Langzeittrend Marktdominanz ein; Samsung Galaxy-Modelle knacken 10%-Hürde
  • Windows 7 ist meistgenutztes Betriebssystem im deutschen Web und stärker als XP und Vista zusammen
  • Seit Untersuchungsbeginn vor drei Jahren werden 9 von 10 Suchanfragen in Deutschland über Google-Suchschlitz gestartet

Die komplette Statistik gibt es auf der Webtrekk-Website.

CMS – das virtuelle Warenlager für Website-Inhalte

Die Warenlager Roboter von Kiva Systems bei Amazon in Aktion

In Content Management Systemen arbeiten wir mit Inhalten oder auch Assets. Einzelne Medien-Bestandteile wie Texte, Bilder, Videos, Produktdaten und so weiter, aus denen durch den Redakteur im CMS eine Webseite zusammen gestellt wird.

In der guten, alten Internet-Zeit gab es ja noch so etwas wie den „Webmaster“. Mir kommt als Metapher da immer der digitale Lagerist vors innere Auge, der nach Anfragen von Mitarbeitern aus Word-Dokumenten HTML-Seiten gemacht hat, Bilder auf FTPs hochlud oder Caching-Prozesse anstieß, durch die eine Webseite online geschaltet oder aktualisiert wurde.

Mittlerweile können diese Aufgaben bereits die einfachsten Systeme automatisch übernehmen und moderne CMS-Lösungen wie Sitecore und FirstSpirit warten mit Workflows und Features auf, die die Arbeit von Redakteuren und Content-Managern deutlich einfacher machen.

Die Warenlager Roboter von Kiva Systems bei Amazon in Aktion
Die Warenlager Roboter von Kiva Systems bei Amazon in Aktion (c) KIVA-Systems

Hochspannend finde ich dann Beispiele aus dem echten Leben mit anfassbaren Dingen, bei denen ganz ähnliche Prozesse und Techniken zum Einsatz kommen, wie ich schon im November von der Logistik-Lösung 2020 von Hettich berichtete.

Vor einiger Zeit hatte ich die Möglichkeit, mir die Lagerhaltung des Gütersloher Unternehmens Westaflex einmal anzusehen. Hier werden Produkte, Werkstoffe, Regale und sogar Rollwagen und deren Abstellplätze in den Werkshallen mit Barcodes versehen und jeder Mitarbeiter scannt zunächst den Artikel den er entnimmt, dann den Code der Kiste oder des Wagens wo er ihn ablegt und dann die Position des Wagens in der Halle. So weiß das Logistik-System immer wann sich welche „Assets“ wo im Unternehmen befinden.
Diese Übertragung von Prozessen für virtuelle Güter im Unternehmen auf anfassbare war seinerzeit für mich schon sehr beeindruckend.

Wo bei Westfaflex noch menschliche Muskelkraft die Rohstoffe und Produkte bewegt, geht die Logistik-Lösung das Unternehmens Kiva Systems, das Anfang des Jahres für 775 Mio. US-Dollar von Amazon gekauft wurde, noch einen Riesenschritt weiter:

Hier kommen die Waren zum Lageristen.
Roboter fahren nicht nur einzelne Artikel durch die Lagerhallen, sondern gleich ganze Regale. Laserpointer zeigen den Mitarbeitern welche Artikel aus dem mobilen Regal genommen werden sollen und in welche Kartons, die zum Kunden gehen sie gehören.

Schauen Sie sich das Video einmal an – das muss man in der Tat gesehen haben um es zu glauben. Ich kenne aus der Schulferienzeit ja durchaus noch die Arbeit auf einem Lager, wenn Staplerfahrer Hochregale befüllen, man selbst mit dem Hubwagen Paletten zur Arbeitsstation fährt und in Rollwagen Bestellungen kommissioniert. In diesen Zeiten habe ich einige Regalkilometer am Tag zurückgelegt.

Beim Versand-Karton schließt sich mein gedanklicher Kreis wieder Richtung CMS, wenn ich den Karton, der die einzelnen Produkte enthält mit einem Design-Template vergleiche, das die Webseiten-Inhalte anzeigt:
Größe und Form des Versandkartons wird nach den Maßen in den Artikeldaten passend ausgewählt um möglichst platz- und damit portosparend zu packen.
Ein modernes CMS kann bsw. anhand der Textmenge die der Redakteur eingegeben hat, kombiniert mit den Bildern aus dem Media Asset Management und den Produktdaten aus dem SAP besonders passende Template für die zu erstellende Seite vorschlagen. Stellen wir uns dann noch vor, dass das System auch noch Bilder passend zum Ausgabegerät skaliert, dabei aktuelle UX-Richtlinien berücksichtigt und automatisch referenzierbare Links vorschlägt, höre ich zwar ein bisschen Zukunftsmusik im Hintergrund spielen, sehe aber das Leben des Content Managers auch gleich ein wenig leichter werden.

Mindestens so leicht wie das des robotergestützten Lageristen bei Amazon 🙂

/via zwischendurch und Exciting Commerce

Was ist eigentlich das Leistungsschutzrecht?

Im Moment liest und hört man sehr viel über das Leistungschutzrecht. Die Verlage wollen es und viele andere lehnen es ab. D64, ein unabhängiger Verein, der die Wahrnehmung und Bedeutung digitaler Themen in Gesellschaft und Politik stärken will, hat hierzu ein schönes Video erstellt, das sehr verständlich die Thematik erklärt.

Leistungsschutzrecht stoppen! from D64 on Vimeo.

Dazu erklärt Nico Lumma, Co-Vorsitzender von D64:
“Das geplante Leistungsschutzrecht für Presseverlage ist purer Unsinn. Es wird den Verlagen keine neuen Einnahmequellen bescheren, weil die Verlinkungen zu Verlagsangeboten zurückgehen werden. Alle wissen das, aber am Leistungsschutzrecht wollen die Verleger einmal mehr demonstrieren, dass sie eine Meinungsmacht in Deutschland haben.” (Quelle: http://d-64.org/leistungsschutzrecht-ist-unsinn/)

Die Verlage argumentieren dagegen und weisen darauf hin, dass ein Leistungsschutzrecht erforderlich ist.

„Verlage können bislang nur aus abgeleiteten Rechten der Urheber gegen Rechtsverletzungen im Internet vorgehen. Da Verlage zum Teil mehrere tausend Journalisten, Fotografen, Grafiker etc. mit oft sehr unterschiedlichen Verträgen beschäftigen, erweist sich die Rechtsverfolgung mit abgeleiteten Rechten, insbesondere bei systematischer Ausnutzung der Presseinhalte durch Dritte, als unrealisierbar.“ (Quelle: http://www.bdzv.de/recht-und-politik/leistungsschutzrecht-verlage/leistungsschutzrecht-fakten/)

Wir beobachten weiter die Diskussion um das Thema und informieren aktuell auf Twitter und unserem Blog.