Der Umzug

Der Weltgeist will nicht fesseln uns und engen, Er will uns Stuf‘ um Stufe heben.
(Hermann Hesse, Stufen)

Eventuell hat dieses Zitat unsere Geschäftsführung  voran getrieben, bei der sich als schwierig erweisenden Immobiliensuche.  Vielleicht war es aber auch nur der Gedanke, dass: Wenn es so weiter geht, platzen wir aus allen Nähten. Also lieber rechtzeitig eine zukunftsbezogene unternehmerische Entscheidung treffen: Umzug. Rechtzeitig, das sollte sich noch als schwierig herausstellen.

Aber Schritt für Schritt. Als die Entscheidung pro Umzug gefallen war, entwickelte sich ein stetig wachsendes Anforderungsprofil mit zwei Prioritäten: Zentrumsnähe und ca. 1500 m² Fläche, also mit genügend Raum zum Expandieren. Zwei Dinge, die schon mal in fast jeder Stadt schwierig zusammenpassen: viel Raum und Zentrum, eine schöne Tautologie, die unschöne Probleme verursachen kann. So auch in Bielefeld. Zwischen Anforderungen und Gegebenheiten klaffte also eine nicht allzu kleine Lücke. Es stellte sich heraus, dass eine bezugsfähige Immobilie, die unsere Anforderungen erfüllt, schlichtweg nicht zu finden war.

Was also tun? Das Zauberwort hieß: customizing. Customizing auf einem Gebiet außerhalb unserer IT-Kernkompetenz – der Baubranche. Zunächst war das ehemalige Scala Kino an der Herforder Straße, Nähe des Jahnplatzes, im Focus. Das scheiterte aber vor allem an den erheblichen baulichen Veränderungen, die nötig gewesen wären. Parallel dazu besichtigten wir noch eine Immobilie in der Elsa-Brändström-Straße, die nahezu alle Anforderungen erfüllen konnte: Größe, Lage und ein großer Außenbereich in der 8.Etage. Das schien zunächst mal zu überzeugen. Jedoch taten sich bei der Besichtigung folgende, etwas trostlos wirkende Bilder auf:

maroder achter Stock
8.Etage, noch etwas marode
Galerie, Glasdach, Bielefeld
Glasdach
maroder, Flur, Büro, Bielefeld, comspace
Flur

 

 

 

 

 

So erschien gerade der Eimer inmitten des Raumes zu beunruhigen. Es gab also einiges zu verhandeln mit dem Eigentümer, aber das Potenzial der Immobilie wurde erkannt. Der Eigentümer zeigte sich gerade bei den baulichen Gestaltungsmöglichkeiten kooperativ. Die Planungsphase konnte beginnen. Bevor richtig angefangen werden konnte, musste erstmal entkernt werden.

 

Entkernung Büro Bielefeld comspace
Entkernung, 2. Etage
Kabel Büro Bielefeld comspace Arbeitsplatz der Handwerker
Viele Kabel.

Zwangsläufig wurde mit dem Boden begonnen da, wie der Geschäftsführer Andreas Kämmer so schön sagte: „Ohne ​Boden​ kein Bad, kein Glas, kein Trockenbau, kein Serverraum. Ein echter Bottleneck.“ Um nicht schon bei Baubeginn in Verzug zu geraten, wurde eine Spezialfirma aus Belgien beauftragt, den Betonboden einzuziehen. Die Trockenzeit  wurde so von mindestens  14 Tage auf 48 Stunden verkürzt. Danach wurde der Boden noch geschliffen, grundiert, lackiert, versiegelt und, nicht zu vergessen, mit Holzpaneelen versehen.

 

Boden,geschliffen, grundiert, lackiert, versiegelt, Bielefeld, comspace, neues Büro
Betonboden
Boden Holz,geschliffen, grundiert, lackiert, versiegelt, gelegt
Holzpaneele
Boden verlegen, Bielefeld, comspace
Holzpaneele verlegt.

 

 

 

 

 

Weitere für einen Online Dienstleister wichtige Meilensteine wie Kabeltrassen, Schlüterschienen und die Anbindung an den Glasfaserring liefen so weit wie möglich parallel.

 

thomas_krenn_multinode_server, Bielefeld, comspace
Server
24GBit/s
24GBit/s
Verbindungen

 

 

 

 

 

Und manchmal lief auch mal –  nichts, oder zumindest nicht das Gewünschte. Mängellisten wurden erstellt, mit dem Ziel, die umzugkritischen Punkte priorisiert abzuarbeiten. Fristen wurden neu gesetzt – der Druck erhöht. Der zugegebenermaßen ehrgeizige erste Umzugstermin musste jedoch verschoben werden, zum Verdruss aller Beteiligten. Doch dann wurde es wieder Licht und neue Hoffnung keimte auf.

Holzboden Büro comspace Bielefeld Zentrum
Licht!
Dornbracht,
Bad und WC

Bad und WC wurden in Angriff genommen, die Armaturen dazu lieferte die Dornbracht GmbH & Co. KG , die Serverschränke für den Serverraum kamen von der Rittal GmbH & Co. KG, beides langjährige Kunden von comspace.

 

Als nächstes nahmen  die Türen- und Glasbauer ihre Arbeit auf.

Gesamtraum
Glasbauer bei der Arbeit.
Glasecke
Glasecke

Die Büroräume nahmen immer mehr Kontur an. Sollte jemand noch nicht die nötige Vorstellungskraft aufgebracht haben, konnte man nun mehr und mehr von den Räumlichkeiten überzeugt werden. Bestes Beispiel ist die Decke, die einen schwarzen Anstrich erhielt. Die Meinungen dazu waren im Vorfeld überaus….negativ. Doch im Zusammenspiel mit dem hellen Holzboden und der Höhe der Räume machte es nun sichtbar Sinn.

Die Räume im ersten Stock waren baulich nun nahezu abgeschlossen. “Berge“ von Möbeln wurden geliefert.

Arbeitsplätze
„Berge von Möbeln“
Arbeitsplätze
Schreibtische
photo-2
Möbel als Raumtrenner

 

 

 

 

 

Die vorher “etwas“ maroden Büros wurden im Jahr 2013 wieder in moderne Büros verwandelt, die technisches Equipment mit innovativen, zeitgemäßen Konzepten der Raumgestaltung verbinden, wie natürlichen Lärmschutz durch automatisch bewässerte Hecken. Technik und Natur scheinen in den neuen Büros nun ebenso kein unüberbrückbarer Gegensatz mehr zu sein wie Raum und Zentrum. Ab Anfang dieses Jahres konnten dann unsere Abteilungen IT-Service und Entwicklung in die erste Etage einziehen, demnächst folgt das Account Management und das Online Marketing. Weiterhin freuen wir uns auf die baldige Fertigstellung der achten Etage, mit einem sehenswerten Ausblick über unsere Stadt.

re:publica 2013 – unser Rückblick auf eine der spannendsten Konferenzen seit Langem

Panorama der großen Stage1 der Re:Publica (c) Andreas Kämmer

3 Tage re:publica rekapituliert man nicht mal eben so 🙂 Ich kenne keine Konferenz oder Barcamp, die ihre Gäste vergleichbar fordert, was Themenvielfalt, Konferenz-Running-Gags und die mit nach Hause genommenen Inspirationen und Informationen angeht. Das schöne ist aber, dass fast alle Vorträge als Video verfügbar sind und viele Besucher und Vortragende der re:publica nachträglich Zusammenfassungen zu ihren Lieblingsvorträgen veröffentlichen. Gut einen Monat habe ich nun gewartet um die spannendsten Vorträge sowie die Reaktionen darauf hier zusammen getragen und einen Einblick zu bieten, warum wir auf der re:publica waren und v.a. was wir für comspace von dort mitgebracht haben.

„Die re:publica hat eben auch mehr von einem Business-Festival als von einer normalen Konferenz.“

Mit diesen Worten leitete Mitorganisator Andreas Gebhard die #rp13 ein (auf seinem Blog gibt es eine lesenswerte re:publica Making-Of Serie). So wie ich mich in jungen Jahren auf Festivals auch immer daran hielt, die Bands zu sehen, die ich mir vorgenommen hatte, habe ich mich dieses Jahr zu 90% an meinen vorher festgelegten Vortrags-Plan gehalten 🙂 Trotzdem war zwischen den Vorträgen noch genug Zeit für das Netzwerken, was auf der rp13 eher einem Klassentreffen gleicht.

Panorama der großen Stage1 der Re:Publica (c) Andreas Kämmer
Panorama der großen Stage1 der Re:Publica (c) Andreas Kämmer

Neben all den Startups und dem Schwerpunktthema Afrika, Kulturthemen, netzpolitischen Diskussionen und einem durch meinen Lieblings-SfiFi-Autoren Cory Doctorow signierten Kindle der auch für mein persönliches Lieblingszitat verantwortlich war:

…sind vor allem für die Business-Hirnwindungen die folgenden Inhalte im Gedächtnis geblieben:

Hinweis: In diesem Beitrag sind überdurchschnittlich viele Links – v.a. auf Videoaufzeichnungen der re:publica Vorträge bei YouTube enthalten. Links deswegen, weil so viele eingebettete Videos Probleme mit der Browsergeschwindigkeit bei Ihnen als Leser verursachen können.

Machen! Das Web wird auf die eigenen Server zurück geholt

Sascha Lobo ist mit seinen Vorträgen auf der re:publica mittlerweile eine feste Größe mit ebenso fester Frisur. Hat er auf einer der vergangenen re:publicas noch dazu aufgerufen wieder mehr zu bloggen und weniger der fremd-verantworteten Kanäle wie Facebook, Tumblr, Twitter usw. zu nutzen, wurde er dieses Jahr deutlich konkreter.
Mit reclaim.fm haben Lobo und Felix Schwenzel eine erste Alpha-Version einer Lösung für WordPress vorgestellt, mit der sich digital hinterlassene Spuren wie Tweets, Instagram-Bilder, Facebook-Likes, Pinterest-Pins und wie sie alle heißen, auf einer eigenen WordPress-Plattform zusammen tragen lassen. Sowohl technisch als auch (urheber-)rechtlich sind bezüglich der Nutzung von reclaim.fm noch ein paar Fragen offen. Das System das v.a. aus einigen WordPress-Plugins und Scripten besteht, verspricht aber eine echte Arbeitserleichterung zu werden. Im Auge behalten! Die zweite und noch viel wichtigere Botschaft seines Vortrags war:

Machen!

Und wenn es ein längst überfälliges Logo für das Internet ist, das Sascha Lobo mit Stijlroyal entworfen hat. Die Weltkugel von einem Netz überspannt. Dargestellt durch zwei Klammern und eine Raute:

(#)

Kleines Update nach nun ungefähr 1 Monat: reclaim.fm wurde von manchen Nutzern erfolgreich installiert. Andere (inklusive mir) waren bisher noch nicht so erfolgreich, die Plugins und Skripte zum Laufen zu bringen. Ich bin gespannt, ob von Felix und Sascha oder jemand anderem noch eine Weiterentwicklung von reclaim.fm kommt.

Content Strategie

Einen der handfestesten Vorträge mit direktem Praxisbezug habe ich von Brigitte Alice gehört. Auch wenn es in Ihrem Workshop um Content Strategy bei NGO ging (also Nichtregierungsorganisationen wie bsw. dem Roten Kreuz), lassen sich viele Ihrer Vorschläge und Ansätze auch auf die Content Strategien im Business-Bereich übertragen. Insbesondere die umfangreiche und strukturierte Recherche zur Vorbereitung, übergehend in den Content Audit, die Erstellung eines Content Inventory und die Durchführung von Content Prototyping war sehr aufschlussreich.

CRM – Constituent Relationship Management

Im Anschluss zur Content Strategie ging es direkt weiter mit dem Thema CRM. Interessanterweise immer noch im Themenfeld NGO. Deswegen sprach Fabian Schuttenberg auch von Constituent Relationship und nicht Customer Relationship. Denn auch wenn im Umfeld von Wohltätigkeits- und Nichtregierungs-Organisationen auch Beziehungsmanagement betrieben wird, ist es eben etwas anderes, ob es sich um eine Kundenbeziehung oder die zu Spendern oder freiwilligen Unterstützern handelt. Die Engagement Ladder – scheint ein hilfreiches Tool zu sein, um festzulegen, welche Conversion-Ziele gesetzt werden sollen: Vom Interessierten zum Newsletter-Abonnenten. Vom Petitions-Zeichner zum zahlenden Spender.

Raus aus der Blase Internet

Gunter Dueck hat vor 2 Jahren bereits den damals meist beachteten Vortrag der re:publica 2011 gehalten. Dieses Jahr war er eine Spur sperriger unterwegs und hat uns ganze Menschenbilder erklärt. Einigermaßen greifbar wurde das, als er vom Ethnozentrismus sprach, der sich besonders auf solchen Konferenzen zeigt. Jeder der Anwesenden kann verstehen worum es geht. Es haben nicht alle die gleiche aber doch eine ähnliche Meinung und Vorstellung von der Welt – zumindest über die Relevanz der eigenen Themen. Darüber wird oft vergessen, dass das draußen vor der Tür des Konferenzsaals im „echten Leben“ oft ganz anders aussieht. Duecks Kernaussage lautete für mich: Wir sollten empathischer sein und über den Tellerrand unserer Web-Blase hinaus blicken.

Wie wird sich Arbeit in Zukunft verändern?

Wir sind always on und damit auch immer mit halbem Kopf bei der Arbeit. Maschinen nehmen uns immer mehr Arbeit ab oder lasen uns effektiver arbeiten. Ob es nun Tablets, Apps und mobile Computing für den Wissensarbeiter sind oder Roboter, ERP-Systeme und computergestützte Logistik in der Industrie 4.0. Der zweite re:publica Tag entwickelte sich für mich zu einem Tag unter dem Überthema Arbeit:

Los ging es mit Theresa Bückers Vortrag Der Montag liebt Dich. In dem sie einen kurzen Abriss über die moderne Arbeitskultur gab. Darüber, wie wir zufriedener bei und mit unserer Arbeit sein können. Warf die Frage auf, warum die aktuellen Innovationen in Technik und Kommunikation sich eigentlich nur schleppend am Arbeitsplatz durchsetzen. Gab Beispiele dafür wie Corporate Social Responsibility auch für gute Beziehungen und Freundschaften der Mitarbeiter zuständig ist wie aber auch darauf hin, dass Arbeitnehmer selbst in der Verantwortung sind, Ihre Bedürfnisse kund zu tun, um besser Leben und Arbeit miteinander zu verbinden. Klingt ein wenig poetisch – war es in Teilen auch. Ich empfehle den Vortrag einfach anzuschauen. Ausführlicher lässt sich der Vortrag bei goodplace und schulzekopp nachlesen. Sketchnotes hat den Vortrag skizziert.

Deutlich wissenschaftlicher ging es im Anschluss mit der Soziologin Jutta Allmendinger weiter. Sie hat Lebens(ver-)läufe, ihre Einflussfaktoren und die daraus resultierenden Veränderungen nicht nur für die Arbeits-Gesellschaft untersucht. Sondern auch zwischen den Geschlechtern. Dabei hat sie festgestellt, dass sich das Gesamtarbeitsvolumen von Frauen in den letzten 30 Jahren kaum verändert hat und die Arbeitsverteilung eher unter Frauen statt fand: Von Vollzeitstellen zu mehr Teilzeitarbeitsplätzen. Damit stellte sie die These auf, dass der Heiratsmarkt im Hinblick auf die sichere Rente für Frauen derzeit noch zielführender sei als der Arbeitsmarkt. Ausführliche Beiträge hierzu bei Katrin Roenicke und bei der Bundeszentrale für politische Bildung.

Der meiner Meinung nach beste Vortrag der #rp13: Das Ende der Arbeit

Dann folgte der meiner Meinung nach beste Beitrag der re:publica 2013 (deswegen hierzu auch das Video im Text) von Johannes Kleske – seit seinem Coverfoto auf der brand:eins auch gerne der Posterboy der Digital Natives genannt 😉

[iframe src=“http://www.youtube.com/embed/xPL0vKClCxM“ height=“315″ width=“560″ allowfullscreen=““ frameborder=“0″]

Viele unserer technischen Errungenschaften dienen vor allem einem Zweck: Uns möglichst viel Arbeit abzunehmen oder leichter zu machen. Vor allem körperliche. Derzeit macht Technologie mehr Arbeit überflüssig, als sie uns neue Arbeitsplätze schafft. Deswegen sprach Johannes Kleske über Das Ende der Arbeit und wie wir in Zukunft leben wollen. Johannes zeigt historische Beispiele wie die Bürger des antiken Athen sich mit Philosophieren und Politik beschäftigten, während die Arbeit – nunja – von Sklaven erledigt wurde. Heute könnte diese Erledigung von alltäglichen Aufgaben von Maschinen übernommen werden. Kritisch beäugt er, dass arbeitende Menschen durch Maschinen natürlich auch überwacht und kontrolliert werden und führt dabei ein „Armband“ an, das Mitarbeiter der Firma Tesco während der Arbeit tragen müssen und darüber gemonitort werden.

Eine detaillierte Ausführung von Johannes Session findet sich hier bei dailymo. Steffen Voss frag: Kann Arbeit enden? Antje Schrupp hat sehr spannende Beiträge in ihrem Blog dazu: Zunächst den von Johannes Vortrag angeregten Menschen, Maschinen und Arbeit. Im zweiten Beitrag beschreibt sie, warum manche immer arbeiten, sie aber eigentlich nie arbeitet.

An dieser Stelle möchte ich mal aus eigener Erfahrung betonen, dass wir bei comspace bereits eine Menge der in den oben erwähnten Ansätzen für moderne Arbeit anwenden, verinnerlicht haben und von unseren Chefs zugestanden bekommen. Seien es flexible Arbeitszeiten, Freiräume beim Arbeiten, gesunde Arbeitsplätze, Bildungsangebote usw.

Später am Tag ging es um einige Ergebnisse von Arbeit:

Autos und Mobilität

Dieter Zetsche – Daimler-Vorstandsvorsitzender (Sponsor der re:publica) wurde in einer rappelvollen Stage 1 von Martin Randelhoff interviewed und stellte sich im Anschluss einigen Publikumsfragen. Zetsche sprach über die Zukunft des Autos, autonome Fahrzeuge und das Daimler in dem Bereich bereits auf einem ähnlichen Stand wie Google ist, das vernetzte Auto und wie sich dadurch unsere Mobilität verändert. Genauso aber auch über die Integration von Social Media ins Auto und ob es Sinn macht, Facebook und Twitter während des Fahrens zu nutzen oder nicht. Eine Zusammenfassung des Interviews hat t3n und hier geht es zum Video des Interviews. Sehr empfehlenswert – zum einen, weil schon bemerkenswert ist, dass der CEO eines Konzerns wie Daimler die Re:Publica derart ernst nimmt. Zum anderen, weil interessant ist, wie die „klassische“ Industrie die aktuellen Veränderungen wahrnimmt, bewertet und mit ihnen umgeht.

Im Anschluss ging es mit einem weiteren Vortragenden aus dem Haus Mercedes-Benz weiter: Daimlers Zukunftsforscher Alexander Mankowsky hielt einen Workshop zu der Frage: „Vernetzte Mobilität – Erobert das Digitale die analogen Welten?“ – Dabei wurde klar, dass das autonome Fahren scheinbar die disruptivste und gleichzeitig ausgereifteste Technologie moderner Mobilität ist und in den nächsten 10 Jahren wohl für die meisten Innovationen sorgen wird. Alex Mankowksy erklärte, warum die Autorevolution fast 40 Jahre brauchte um richtig Fahrt aufzunehmen. Als Grund nannte er, dass zunächst die Infrastruktur mitwachsen musste: Straßen, Tankstellen, Verkehrsschilder, rechtliche Regelungen, Werkstätten und so weiter. Er zeigte Beispiele mittlerweile historischer Automobil-Innovationen, die heute aus unserem Leben nicht mehr wegzudenken sind und Innovationen die ohen Auto nie entstanden wären wie Vergnügungsparks bsw. Er gab Ausblicke auf Möglichkeiten, die sich durch selbstständig fahrende Autos ergeben: Vom Car-Sharing über Lieferdienste bis hin zu Dienstleistungen für Senioren. Bei Sketchnotes gibt es eine graphische Skizze des Workshop.

Am Rande:

In einem Workshop des Senders SWR3 kam uns die Erkenntnis: Auch Social Media Manager der öffentlich rechtlichen Sendeanstalten geben nur ungern konkrete Zahlen über Nutzer-Interaktionen in internaktiven Sendeformaten heraus.

Daten, Daten und nochmal Daten – Sammeln, Analysieren und draus lernen

Wir hatten das Thema Big Data gerade in unserem vorletzten Newsletter. Umso interessanter waren die praktischen Beiträge zu Data Science die eine Menge Fragen beantworteten:

  • Wie kommt man überhaupt an Daten heran?
  • Wie extrahiert man diese aus unterschiedlichen Datenbeständen?
  • Wie lassen sich diese Daten kombinieren und wieder zu neuen Informationen verarbeiten
  • Welche Tools zur Arbeit mit Daten gibt es?
  • Welche rechtlichen Fragen muss man sich stellen?

Den ersten Talk – Street Fighting Data Science, der leider nicht aufgezeichnet wurde, bestritten Benedikt Köhler und Jörg Blumtritt. Allerdings gibt es die Folien zum Vortrag bei Slideshare. Die beiden brachten eine Menge Beispiele wie man mit sehr einfachen, improvisierten Tools Daten auseinander klamüsern kann, um daraus Erkenntnisse zu ziehen oder Visualisierungen zu bauen wie zum Beispiel Fotos nach Farben zu analysieren und in Kontext mit der Jahreszeit zu bringen oder mit dem passiven Wahlomat die Volltexte von Wahlprogrammen analysieren.

Außerdem habe ich in dem Talk Luca Hammer endlich mal persönlich kennen lernen dürfen, der aktuell an Blognetz seiner Visualisierung der deutschen Blogger-Szene arbeitet und habe von ihm einige Path-Aufkleber abgestaubt 🙂

Datenbefreiung selbst gemacht waren dafür 3 Vorträge in einem. Mit Sebastian Vollnhals, Jens Ohlig, Michael Kreil

Weitere Talks zum Thema Daten waren: Open Data & Culture von Joris Praekel und Daniel Dietrich (beide Open Knowledge Foundation), die Frage nach Personal Data – Nothing to hide? stellten sich Katarzyna Szymielewicz und Jérémie Zimmermann und dann gabe es noch die Data Cuisine – How to get juicy data from spreadsheets mit Anna Lena Schiller, Sylke Gruhrwald und Lisa Rienemann. Die Frage Open Data: Und was hat das mit mir zu tun? wurde von Julia Kloiber und Stefan Wehrmeyer gestellt.

Der witzigste und gleichzeitig nachdenklichste Vortrag: Die Digital Natives ziehen in den Krieg

Der Vortragstitel, der mich am meisten in die Irre geführt hat. Ich dachte zunächst es geht um Digital Natives, die gegen einen großen Konzern oder eine Ungerechtigkeit Aktionen starten. Weit gefehlt!

Digital Natives sind die Menschen, die sich an eine Zeit vor dem Internet nicht erinnern können, weil sie bereits ins Internetzeitalter geboren wurden. Junge Soldatinnen sind natürlich ebenfalls Digital Natives. Was machen also Soldaten und Soldatinnen wenn sie in den Einsatz ziehen und aus Krisengebieten oder ihrer Freizeit per Facebook, Twitter, YouTube berichten? Journalist Thomas Wiegold der u.a. über die Streitkräfte bloggt (Augen geradeaus) und Sascha Stoltenow – ein ehemaliger Bundeswehr-Offizier, der nun als PR-Berater arbeitet, haben einige witzige, spannende und nachdenklich stimmende Beiträge vorgestellt und erklärt.
Und weil dieser Talk so unglaublich gut war – hier das Video, die Präsentations-Folien und ein Behind-the-Scenes-Beitrag von Thomas.

[iframe src=“http://player.vimeo.com/video/65905002″ width=“500″ height=“281″ frameborder=“0″ webkitAllowFullScreen mozallowfullscreen allowFullScreen]

Die Digital Natives ziehen in den Krieg from Sascha Stoltenow on Vimeo
Die Digital Natives ziehen in den Krieg from Sascha Stoltenow on Vimeo

Die abgefahrenste Open Data Analyse bisher: Besucherströme der re:publica

Man nehme 5000 Konferenzbesucher, viele WLAN-Router und speichere deren Logdateien. Danach lassen sich die Bewegungsdaten durch die Säle anhand der Telefone je WLAN Router visualisieren. Un.Glaub.Lich:

Besucherstromanalyse Re:Publica 2013 Opendatacity
Besucherstromanalyse Re:Publica 2013 Opendatacity

Zur re:log-Website. Realisiert von OpenDataCity. Unterstützt durch picocell und newthinking. Anwendung steht unter CC-BY 3.0.

Besonderheiten dieser re:publica

  • Das schnellste E-Book der Welt. Jeden Tag wurde eine gut 200-seitige zusammenfassung des Vortages als e-book veröffentlicht.
  • 8500 Würfel aus Pappe als Gestaltungselemente, Raumtrenner und Standwände.
  • Schlangen vor den Damentoiletten
  • Viele Kinder auf der Konferenz (bemerkt von Thomas Knüwer)
  • Über 5500 Telefone und in keinem Vortrag klingelte eines!
  • Und natürlich die Plakate der letzten 100 Jahre Re:Publica 🙂

Interessante Vorträge im Schnelldurchgang

Eine vollständige Wiedergabe einer solchen Mammutveranstaltung ist nur schwer möglich. Deswegen bleibe ich bei einigen Highlights, die ich erst nachher in den Videoaufzeichnungen entdeckt habe.

Andere Stimmen zur re:publica:

Die Google Webmaster Tools – das Warum

Warum die Google Webmaster Tools nutzen?

Um die wertvollen Daten der Google Webmaster Tools auch nutzen zu können, bedarf es lediglich der Erstellung eines Nutzerkontos bei Google – mithilfe des Nutzerkontos stehen mehrere Dienste wie auch Google Analytics dem Kontoinhaber zur Verfügung.

Google Webmaster Tools - Anmelde Oberfläche
Google Webmaster Tools – Anmelde Oberfläche

Mittlerweile unterteilen sich die Google Webmaster Tools in die Bereiche Konfiguration, Status, Zugriffe, Optimierung und Google Labs. Nebst diesen Bereichen gibt es ein einleitendes Dashboard, das den aktuellen Status zu Crawling-Fehler, Suchanfragen und der Sitemap widerspiegelt.

Der signifikanteste Grund, warum der Einsatz der Google Webmaster Tools für jeden Anwender Sinn macht, ist dass die Daten von Google zum einen relativ aktuell sind und zum anderen direkt vom Marktführer im Bereich der Suchdienste stammen. Damit hat der Webseitenbetreiber die „vertrauenswürdigste“ Quelle als Lieferant für Daten über die eigene Webseite.

Bedenken sollte der Anwender aber auch, dass die Daten, die von Google kommen, grundsätzlich begrenzt sind und Google nicht sämtliche Informationen, die uns als relevant erscheinen, anzeigen wird. Zwar verbietet Google die Optimierung (bzw. Suchmaschinenoptimierung) von Webseiten und Inhalten nicht, wird dies aber auch nur bis zu einem gewissen Rahmen unterstützen (Google Webmaster Richtlinien).

Warum sollten die Google Webmaster Tools genutzt werden?

Unabhängig davon ob SEO Agentur, Unternehmen oder einfacher Hobby-Webmaster, ein jeder hat die Möglichkeit, die Google Webmaster Tools kostenlos zu nutzen.

Vorweg gesagt, die Google Webmaster Tools stehen nicht in Konkurrenz zu professionellen Tool-Anbietern wie zum Beispiel der Sistrix Toolbox, Searchmetrics Essentials, Searchmetrics Suite oder auch den Link Research Tools. Dennoch bietet Google mit dem hauseigenen Dienst eine grundlegende Übersicht über relevante Daten hinsichtlich der eigenen Website.

Anhand der gewonnen Daten können Probleme, Fehler und Einschränkungen diagnostiziert werden – zudem benachrichtigt Google den Webseitenbetreiber direkt über die Google Webmaster Tools im Falle von Problemen und ungewöhnlichen Veränderungen (signifikanter Anstieg der Suchanfragen, Malware, unnatürlicher Linkaufbau).

Bisherige Artikel zu den Google Webmaster Tools im comspace Blog

Google Webmaster Tools: Bevorzugte Domain

bevorzugte kanonische Domain in den Google Webmastertools festlegen

Die bevorzugte Domain ist die Domain, die in den Suchergebnissen angezeigt wird. Diese nennt man auch kanonische Domain – also die Hauptdomain einer Website.

Google Webmaster Tools und die bevorzugte Domain einstellen
Google Webmaster Tools und die bevorzugte Domain einstellen

Inhaberschaft für die Domains bestätigen

Das Festlegen einer bevorzugten Domain setzt die Inhaberschaft beider Domains (zum Beispiel www.comspace.de und comspace.de) voraus. Die bevorzugte Domain wird im Anschluss seitens Google für jeden Suchlauf und Crawling-Vorgang verwendet.

Der Vorteil einer kanonischen Domain und der entsprechenden Einstellung in den Google Webmaster Tools ist, dass Links von anderen Seiten zusammengeführt werden – das heisst sofern die Hauptdomain www.comspace.de ist, aber eine externe Seite einen Inhalt auf die Domain comspace.de verlinkt, betrachtet die Suchmaschine Google eben diesen Link so, als wäre dieser mit der bevorzugten Domain erstellt worden.

So können auch doppelte Inhalte vermieden werden

Gerade bei mehreren Domains mit demselben Inhalt besteht die Gefahr von duplicated Content, also doppelten Inhalten. Laut dem Suchmaschinenbetreiber Google besteht diese Gefahr genau dann, wenn keine bevorzugte Domain gewählt wurde, denn wenn die identischen Inhalte sowohl unter www.comspace.de als auch unter comspace.de abrufbar sind, werden diese als separate Seiten betrachtet. Und bekanntlich können doppelte Inhalte zur Abwertung bis hin zur Deindexierung  von Webseiten führen.

Dem entsprechend wird auch empfohlen, trotz der Festlegung einer bevorzugten Domain, die nicht bevorzugte Domain mittels 301-Redirect auf die kanonische Domain weiterzuleiten.

Wenn bis dato beide Domains in den Suchergebnissen aufgenommen wurden, kann es einige Zeit dauern, bis ausschließlich die bevorzugte Domain im Index der Suchmaschinen enthalten ist.

Google Webmaster Tools: Crawling-Geschwindigkeit

Google Webmaster Tools Crawling Geschwindigkeit

Das Crawling bezeichnet in erster Linie den Vorgang, mit dem veränderte und neue Inhalte bzw. Seiten ermittelt werden, um diese später in den Suchindex von Google aufzunehmen. Suchmaschinen, vorzugsweise Google, besitzen eine Vielzahl von Crawlern (z.B. der Googlebot), die täglich damit beschäftigt sind, so viele Inhalte wie möglich zu untersuchen.

Der Googlebot und die Crawling-Geschwindigkeit

Dieser Googlebot besucht mehrmals am Tag die eigene Webseite, in der Regel optimiert dabei Google selbst die Häufigkeit des Besuchs in Abhängigkeit der Größe einer Webseite und natürlich der gewohnten Schreibfrequenz. Dies bedeutet: sofern eine Webseite in der Regel mehrmals am Tag neue Inhalte veröffentlicht, wird diese im Vergleich zu einer kleinen Webseite mit wenigen inhaltlichen Änderungen im Monat häufiger besucht.

Wem dennoch die Besuchshäufigkeit des Googlesbots zu hoch erscheint, z.B. aufgrund des entstehenden Traffics / Datenvolumens, der kann diesen über die Google Webmaster Tools regulieren und somit eingrenzen.

Crawling Geschwindigkeit des Google Bots regulieren
Crawling Geschwindigkeit des Google Bots regulieren

Google selbst empfiehlt, die Crawling Geschwindigkeit nur in absoluten Ausnahmefällen, beispielsweise wenn dadurch die Geschwindigkeit/Performance des Servers deutlich verlangsamt wird, zu verändern.

Grundsätzlich sollte die Häufigkeit des Crawlings einer Webseite nicht verändert werden und der Rhythmus sollte seitens der Suchmaschinen bestimmt werden – schließlich möchten neue und bearbeitete Inhalte zeitnah in den Index aufgenommen werden und optimaler Weise direkt von potentiellen Besuchern und Kunden gefunden werden.

Probleme mit dem GoogleBot melden

Eine Anpassung der Crawling Geschwindigkeit ist in der Regel 90 Tage gültig und wird im Anschluss auf den Ausgangswert zurückgesetzt. Sollten tatsächlich durch den Googlebot signifikante Probleme auftauchen, so besteht auch die Möglichkeit die Probleme mit dem Googlebot zu melden (siehe Links zu weiteren Informationen in obiger Grafik).

Probleme mit dem Google Bot melden
Probleme mit dem Google Bot melden

Rückblick auf den CAREER.DAY 2013 der FHM Bielefeld

Den zweiten CAREER.DAY der FHM Bielefeld haben wir diese Woche erneut als Aussteller unterstützt und zählen damit schon fast zu den „alten Hasen“ bei dieser Veranstaltung. Organisiert wurde sie wie im vergangenen Jahr in Kooperation mit der Absolventenverein Alumni e.V. und bot eine Kombination aus Vorträgen und Karrieremesse. Auf diese Weise konnten die Absolventen und Studierenden Kontakte mit heimischen Unternehmen knüpfen und sich direkt über Jobangebote und Praktikumsmöglichkeiten informieren.

Großes Interesse auf Studentenseite

Die Nachfrage von Studentenseite war beachtlich: mit rund 300 Studierenden aller Fachrichtungen mit Schwerpunkt auf den Studiengängen BA Eventmanagement, Medienkommunikation und Journalismus sowie BWL interessierten sich deutlich mehr Studenten für die Angebote der teilnehmenden Unternehmen als im Vorjahr. So fanden die mitgebrachten und an der Jobwall der FHM ausgehängten Jobangebote großen Anklang.

comspace-Stand auf CAREER.DAY FHM

Am comspace-Stand konnten unsere Kolleginnen Pia und Hanna (selbst Alumna bzw. aktuelle Masterstudentin der FHM Bielefeld)  viele interessante Gespräche mit gut vorbereiteten und durchweg qualifizierten Bachelor- und Masterstudenten führen, wobei der Schwerpunkt auf der Nachfrage nach Trainee- und Praktikumsangeboten lag. Mit gesundem Selbstbewusstsein boten die Studenten dabei nicht nur ihre Arbeitsleistung an, sondern fragten auch danach, was die Unternehmen für sie tun könnten.

Namhafte Aussteller aus OWL

Als Aussteller befanden wir uns in guter Gesellschaft von Firmen wie u.a. CLAAS, Schüco, Arminia Bielefeld, Seidensticker und Gerry Weber. In einem parallel stattfindenden Vortragsprogramm informierten einige dieser Unternehmen über ihre Berufseinstiegsmöglichkeiten. Außerdem wurde das Mentoring-Programm des FHM Alumni e.V. vorgestellt.

Insgesamt war es eine gelungene Veranstaltung, die es uns nebenbei ermöglichte, den Kontakt zu dem einen oder anderen FHM Verantwortlichen zu intensivieren. Die Organisation seitens der Fachhochschule lief erneut reibungslos.

Alles geschrumpft – außer der Leistung

Die Anforderung

Maximale Performance und Ausfallsicherheit mit einem geringen Preis und minimalen Betriebskosten zu vereinen ist die Herausforderung, die jeder Infrastrukturconsultant von seinen Kunden (nahezu) jeden Tag aufs Neue von seinen Kunden gestellt bekommt. Besonders die laufenden Betriebskosten (Strom, Klimatisierung, Rack-Infrastruktur) stellen heute einen wesentlichen Kostenfaktor im Betrieb einer Serverlandschaft. Neben den Energiekosten müssen auch die Stellplatzkosten betrachtet werden – spätestens seit der bekannten Werbung des blauen Riesen („Wo sind unsere ganzen Server hin?“ – „Hier!“ – „Was ist das?“ – „Es ist ein Blade?“) ist allgemein bekannt, dass jeder das Ziel verfolgt möglichst viel Performance auf wenig Fläche unterzubringen. Denn nicht nur die Fläche, sondern auch die Anforderung an die Klimatisierung stellt eine Herausforderung dar, sobald mehr Fläche benötigt wird.

Die Lösung

Neulich stellte mich ein Kunde vor genau diese Herausforderung. Maximale Performance im Bereich der CPU-Leistung und eine hohe I/O-Rate schlossen eine Virtualisierung schnell aus, die vielen Komponenten aus denen das System bestehen sollte, sorgte schnell für eine größere Anzahl an sogenannten 2 HE-Systemen, gleichzeitig war die benötigte Anzahl an Festplatten aufgrund des geforderten Datenvolumens sehr gering, so dass wenige Festplatten zur Skalierung und Ausfallsicherheit reichten.

thomas_krenn_multinode_server
Der Multinode-Server der Thomas-Krenn.AG

Unser langjähriger Partner, die Thomas-Krenn.AG aus dem niederbayrischen Freyung, stellte auf der Cebit 2013 seine neuen Multinode-Systeme vor und endlich gab es einen sinnvollen Einsatzzweck. Vier vollwertige Dual-CPU-Systeme mit jeweils sechs dedizierten Festplatten auf 2 Höheneinheiten klingen sehr verlockend, immerhin können jetzt viermal so viele Systeme auf dem gleichen Raum verbaut werden. Jedes System verfügt über zwei Netzwerkanschlüsse und einen dedizierten IPMI-Port zum Remote Management, erstere können über die zusätzliche Netzwerkkarte erweitert werden. Zwei Netzteile versorgen alle vier Server redundant. Gleiche Power bei weniger Platzbedarf – war das in der IT nicht seit je her ein Garant für höhere Anschaffungskosten? Doch dann kam die Überraschung. Im konkreten Fall wurden vier RI8224M von der Thomas-Krenn.AG konfiguriert. Vom Single CPU-System mit 4 GB RAM als Proxy Server bis hin zum hochperformanten Datenbankserver mit 64 GB RAM und 2 6-Kerne-Prozessoren war alles in dem System dabei und am Ende standen ca. 30% weniger Anschaffungskosten auf dem Angebot. Betrachtete man die einzelnen Systeme im direkten Vergleich so konnten teilweise bis zu 45% der Kosten eingespart werden, selbst nach Umlage der Kosten für das Basischassis waren problemlos 40% Ersparnis möglich. Hinzu kommt die bessere Ausnutzung der Netzteile, weniger Platzbedarf im Rack und dadurch günstigere Betriebskosten – ein Traum für alle Seiten.

Der Intel Dual-CPU RI8224M ist nicht nur für komplexe Infrastrukturen für einzelne Kunden geeignet, sondern bietet auch eine gute Basis für den Betrieb von individuellen Virtualisierungs- oder Cloud-Lösungen im eigenen Rechenzentrum. Wem eine CPU pro System reicht, für den bietet der RI8316M eine ähnliche Lösung mit 8 Servern auf 3 Höhenheinheiten, die jeweils 2 Festplatten nutzen können.

Es werden nur drei Server gebraucht? Auch da gibt es eine Lösung – man nimmt das vierte Modul mit einer kostengünstigen Ausstattung und nutzt es zur Überwachung der anderen Module, denn die Serverexperten haben passend zum Linux-Tag mit TKmon ein auf der OpenSource-Lösung Icinga basierendes, intuitiv zu bedienendes Monitoringtool zur Verfügung gestellt.

Google Webmaster Tools: Sitelinks abwerten

Google Webmaster Tools Sitelinks abwerten

Die Sitelinks bilden die relevanten Navigationspunkte einer Website innerhalb des Suchergebnisses zu einem Webseitennamen ab. Die Sitelinks könnten nicht selbst definiert werden, sondern das übernimmt die Suchmaschine Google , indem sie die Seite analysiert und die wichtigsten Navigationspunkte für potentielle Besucher bereitstellt.

Sitelinks abwerten
Sitelinks abwerten

In den Suchergebnissen werden ausschließlich die Sitelinks angezeigt, die seitens Google für den Besucher als hilfreich erachtet werden. Inhalte, die als nicht relevant für den Besucher angesehen werden, sollten laut Google nicht angezeigt werden. Wobei die Erfahrung zeigt, dass auch Ergebnisse angezeigt werden, die eigentlich für den potentiellen Besucher keinen direkten Nutzen haben.

Sitelinks abwerten

Wenn Sitelinks angezeigt werden, die einem Besucher nach Auffassung des Seitenbetreibers nicht angezeigt werden sollen, besteht die Möglichkeit, bis zu 100 URLs abzuwerten – einziges Manko: die Anpassung bleibt in der Regel nur 90 Tage und nicht dauerhaft aktiv. Wer also in den Google Webmastertools nur unregelmäßig nach dem rechten schaut, dem kann es passieren, dass nach 90 Tagen in den Sitelinks wieder Inhalte präsentiert werden, die eigentlich nicht angezeigt werden sollen.

Google Webmaster Tools - Abwertung von Sitelinks
Google Webmaster Tools – Abwertung von Sitelinks

Zum Abwerten eines Sitelinks reicht es aus, den entsprechenden Link in die Maske der Google Webmaster Tools einzutragen. Es besteht sowohl die Möglichkeit einen relativen Pfad als auch einen absoluten Pfad einzutragen. (zu finden unter Website-Konfiguration -> Sitelinks.)

Es kann in der Regel ein paar Tage dauern, bis der Änderungswunsch durch die Suchmaschine übernommen wird.

Tipp – Sitelinks auch in Zukunft beobachten

Nachdem eine Abwertung durchgeführt wurde, sollte der Inhaber der Webseite die Sitelinks nach ein paar Tagen kontrollieren. Da die Suchmaschine Google keine Möglichkeit zur Bestimmung konkreter Sitelinks bereitstellt, besteht die Gefahr, dass alternativ ein ebenfalls unerwünschter Inhalt im Austausch mit dem abgewerteten Sitelink eingebunden wird.

Google Webmaster Tools: Geografische Zielausrichtung

Google Webmaster Tools Geografische Zielausrichtung

Die geografische Zielausrichtung erlaubt dem Websitenbetreiber direkt in den Google Webmaster Tools festzulegen, für welchen Sprachraum die Inhalte der Website geeignet sind.

Domains und Verzeichnisse zuordnen

Gerade wenn unter einer Domain mehrere Ländersprachen existieren und diese mithilfe von Verzeichnissen bzw. Hierarchie- Ebenen über die URL getrennt werden, können diese über die geografische Zielausrichtung einer Sprache zugeordnet werden. Dadurch erhält der Suchmaschinenbetreiber Google eine direkte Anordnung, dass die angegebene URL beispielsweise dem deutschen Sprachraum zugeordnet werden soll.

geografische Zielausrichtung einer URL
geografische Zielausrichtung einer URL

Das Ziel von Google ist es einem Nutzer die relevantesten und nützlichsten Suchergebnisse zu einer Suchanfrage zu liefern. Daher macht es in der Regel keinen Sinn, einem französischsprachigen Nutzer indische Inhalte anzubieten. Damit eine länderspezifische Zuordnung noch einfacher umgesetzt werden kann, nimmt Google mithilfe der geografischen Zielausrichtung die vom Webseitenbetreiber selbst eingetragenen Informationen zu Hilfe.

Grundsätzlich versucht Google jede Webseite zu kategorisieren und diese nebst einer Branche und verschiedenen Keywords auch einer Sprache zuzuordnen.

Generische Domains und die geografische Zielausrichtung

Gerade bei generischen Domain-Endungen wie z. B. „.org“, die grundsätzlich keinem Land direkt zugeordnet sind, kann der Webseitenbetreiber mit Hilfe der geografischen Zielausrichtung dem Suchmaschinenbetreiber Google mitteilen, zu welcher Sprachregion die Inhalte der Webseite passen, damit diese auch entsprechend in den Suchergebnissen dargestellt werden und die richtige Zielgruppe erreichen.