Alles geschrumpft – außer der Leistung

Die Anforderung

Maximale Performance und Ausfallsicherheit mit einem geringen Preis und minimalen Betriebskosten zu vereinen ist die Herausforderung, die jeder Infrastrukturconsultant von seinen Kunden (nahezu) jeden Tag aufs Neue von seinen Kunden gestellt bekommt. Besonders die laufenden Betriebskosten (Strom, Klimatisierung, Rack-Infrastruktur) stellen heute einen wesentlichen Kostenfaktor im Betrieb einer Serverlandschaft. Neben den Energiekosten müssen auch die Stellplatzkosten betrachtet werden – spätestens seit der bekannten Werbung des blauen Riesen („Wo sind unsere ganzen Server hin?“ – „Hier!“ – „Was ist das?“ – „Es ist ein Blade?“) ist allgemein bekannt, dass jeder das Ziel verfolgt möglichst viel Performance auf wenig Fläche unterzubringen. Denn nicht nur die Fläche, sondern auch die Anforderung an die Klimatisierung stellt eine Herausforderung dar, sobald mehr Fläche benötigt wird.

Die Lösung

Neulich stellte mich ein Kunde vor genau diese Herausforderung. Maximale Performance im Bereich der CPU-Leistung und eine hohe I/O-Rate schlossen eine Virtualisierung schnell aus, die vielen Komponenten aus denen das System bestehen sollte, sorgte schnell für eine größere Anzahl an sogenannten 2 HE-Systemen, gleichzeitig war die benötigte Anzahl an Festplatten aufgrund des geforderten Datenvolumens sehr gering, so dass wenige Festplatten zur Skalierung und Ausfallsicherheit reichten.

thomas_krenn_multinode_server
Der Multinode-Server der Thomas-Krenn.AG

Unser langjähriger Partner, die Thomas-Krenn.AG aus dem niederbayrischen Freyung, stellte auf der Cebit 2013 seine neuen Multinode-Systeme vor und endlich gab es einen sinnvollen Einsatzzweck. Vier vollwertige Dual-CPU-Systeme mit jeweils sechs dedizierten Festplatten auf 2 Höheneinheiten klingen sehr verlockend, immerhin können jetzt viermal so viele Systeme auf dem gleichen Raum verbaut werden. Jedes System verfügt über zwei Netzwerkanschlüsse und einen dedizierten IPMI-Port zum Remote Management, erstere können über die zusätzliche Netzwerkkarte erweitert werden. Zwei Netzteile versorgen alle vier Server redundant. Gleiche Power bei weniger Platzbedarf – war das in der IT nicht seit je her ein Garant für höhere Anschaffungskosten? Doch dann kam die Überraschung. Im konkreten Fall wurden vier RI8224M von der Thomas-Krenn.AG konfiguriert. Vom Single CPU-System mit 4 GB RAM als Proxy Server bis hin zum hochperformanten Datenbankserver mit 64 GB RAM und 2 6-Kerne-Prozessoren war alles in dem System dabei und am Ende standen ca. 30% weniger Anschaffungskosten auf dem Angebot. Betrachtete man die einzelnen Systeme im direkten Vergleich so konnten teilweise bis zu 45% der Kosten eingespart werden, selbst nach Umlage der Kosten für das Basischassis waren problemlos 40% Ersparnis möglich. Hinzu kommt die bessere Ausnutzung der Netzteile, weniger Platzbedarf im Rack und dadurch günstigere Betriebskosten – ein Traum für alle Seiten.

Der Intel Dual-CPU RI8224M ist nicht nur für komplexe Infrastrukturen für einzelne Kunden geeignet, sondern bietet auch eine gute Basis für den Betrieb von individuellen Virtualisierungs- oder Cloud-Lösungen im eigenen Rechenzentrum. Wem eine CPU pro System reicht, für den bietet der RI8316M eine ähnliche Lösung mit 8 Servern auf 3 Höhenheinheiten, die jeweils 2 Festplatten nutzen können.

Es werden nur drei Server gebraucht? Auch da gibt es eine Lösung – man nimmt das vierte Modul mit einer kostengünstigen Ausstattung und nutzt es zur Überwachung der anderen Module, denn die Serverexperten haben passend zum Linux-Tag mit TKmon ein auf der OpenSource-Lösung Icinga basierendes, intuitiv zu bedienendes Monitoringtool zur Verfügung gestellt.

Google Webmaster Tools: XML-Sitemap

Die Google Webmaster Tools erlauben beispielsweise die Einbindung einer sogenannten XML-Sitemap, mit dem der Suchmaschine Google eine Liste aller verfügbaren Inhalte bzw. URLs übermittelt wird. Für die meisten Websitebetreiber ist nach Einreichen der Sitemap dieses Kapitel auch beendet, doch in den Google Webmaster Tools werden relevante Statistiken über die Sitemap preisgegeben.

Einreichen der Google Sitemap
Eingereichte und Indexierte Inhalte

Gleich die erste Übersicht zeigt dem Websitebetreiber, dass die eingereichten Inhalte in Typ „Webseiten“ und Typ „Bilder“ unterteilt werden. Außerdem zeigt die Statistik, wie viele Inhalte eingereicht und im Anschluss von der Suchmaschine in den Index aufgenommen wurden. Schön und gut? Nein, bereits hier sollte der Inhaber der Website sich überlegen, ob es korrekt ist, dass beispielsweise von 312 eingereichten Webseiten lediglich 81 im Index sind. Selbiges gilt natürlich auch für Bilder. Hat die Website eventuell Indexierungsprobleme, die mir als Betreiber bis dato nicht bekannt sind?

Im der darunter liegenden Übersicht werden die eingereichten Sitemaps aufgelistet. Wie viele man einreicht und ob man diese beispielsweise in Kategorien, Artikel, Schlagworte und so weiter unterteilt, ist jedem selbst überlassen. Aktive WordPress Nutzer können zum Beispiel mittels dem Plugin WP SEO by Yoast die Sitemaps unterteilen und diese bei Bedarf einreichen. Der Vorteil einer Unterteilung begründet sich mit einer besseren Übersicht, auch in den Google Webmaster Tools.

Fehler und Potentiale erkennen

In der nachfolgenden Übersicht ist klar zu erkennen, dass vier Sitemaps eingereicht wurden. Zum einen für vorhandene Kategorien, Seiten, Artikel und Schlagworte. Relevant sind hierbei die Punkte: Wann wurde meine Sitemap zuletzt verarbeitet? Wie viele Inhalte wurden eingereicht und vor allem, wie viele Seiten sind im Index?

Übersicht der Google Sitemaps
Übersicht der Google Sitemaps

Im Anschluss gilt es bei Bedarf zu untersuchen, warum weniger Seiten im Index sind als von einem selbst eingereicht wurden.

  • Weist meine Website Fehler auf und Google kann daher die Inhalte nicht indexieren?
  • Sind URLs auf noindex eingestellt?
  • Ich habe neue Inhalte, aber die XML wurde noch nicht wieder bearbeitet?

Es gibt verschiedene Gründe, warum URLs nicht im Index sind. Es muss aber nicht zwangsläufig immer ein Fehler vorliegen. Wer beabsichtigt, dass gewisse Inhalte nicht indexiert werden sollen, der verwendet das Meta-Tag Robots mit einem „noindex“, logsicherweise wird diese URL dann als eingereicht dargestellt, aber nicht in den Index aufgenommen.

Ebenso kann es sein, dass ich gerade erst einen Artikel veröffentlicht habe, in der Zwischenzeit die Sitemap seitens Google noch nicht abgerufen wurde und dem entsprechend die Seite nicht im Index ist. Wiederum kann es auch sein, dass die Seite im Index ist, die obige Grafik aber bis dato noch nicht aktualisiert wurde.

Fazit: Auswertung von XML-Sitemap Daten mithilfe der Google Webmaster Tools

Die Daten, welche die „Google Webmaster Tools“ bieten, geben jedem Websitebetreiber die Möglichkeit ohne große Schwierigkeiten zu erkennen, wie viele der eingereichten URLs auch tatsächlich in den Google Suchindex aufgenommen wurden. Des Weiteren lassen sich über diese Daten eventuelle Probleme bei der Indexierung von Inhalten erkennen – wenn weniger Inhalte im Index sind, als tatsächlich eingereicht wurden, muss aber auch nicht zwangsläufig ein Fehler vorliegen, sondern es kann auch beabsichtigt sein, dass vorab definierte URLs nicht indexiert werden sollen.

Was ist eine Exact Match Domain?

Was ist eine Exact Match Domain

Eine Exact Match Domain ist im Endeffekt nichts anderes als eine sogenannte Keyword-Domain, in der das wichtigste Keyword einer Website enthalten ist.

Zur Einleitung ein sehr gutes Video von Dominik Wojcik, seines Zeichens Geschäftsführer der TA Trust Agents Internet GmbH, zum Thema „Das Google EMD Update erklärt„.

Eine Keyword Domain hat drei, vier signifikante Vorteile und durchaus noch weitere, die nachfolgend beschreiben werden.

Keyword im Domainnamen

Logischerweise ist einer der Vorteile, dass das relevante Keyword im Domainnamen enthalten ist. Ein Keyword im Domainnamen erlaubt Suchmaschinen eine Domain sehr einfach zu katalogisieren und diese einer Branche zuzuordnen.

Themenrelevanz einer Exact Match Domain

In der Regel kann bei einer Exact Match Domain davon ausgegangen werden, dass der Domainname den Website-Inhalt themenrelevant abbildet. Wenn die Domain beispielsweise auf den Namen Vogelkaefig.de getauft wird, so kann man davon ausgehen, dass auch exakt dieses Produkt behandelt wird. Die wenigsten werden auf die Idee kommen, sich diese Domain zu registrieren, um im Anschluss darüber Festplatten zu vertreiben.

Vertrauensbildung mithilfe einer Domain

Domainnamen, die für jeden Besucher klar zu erkennen sind, können Vertrauen aufbauen. Bekannte Begrifflichkeiten aus dem Alltag sind in vielen Fällen für potentielle Besucher bzw. Kunden vertrauenswürdiger als fiktive Domains wie z.B. V0g3lkäfig.de. Zusätzlich unterstützt eine Endung wie .de, .com, .net das Aufbauen von Vertrauen gegenüber einer klar zu erkennenden Domain.

Leicht zu merken

Eine Keyword-Domain muss nicht zwangsläufig ein Brand sein und dem entsprechend in aller Munde sein – ein Keyword wie z.B. Vogelkäfig ist aber in aller Munde und gehört zum allgemeinen Sprachgebrauch, ist weder exotisch noch ein selten genutztes Synonym und dem entsprechend einfach zu merken.

Durch einen einprägsamen Domainnamen können Domains einfacher und besser per Mundpropaganda am Telefon, per eMail oder Instant Messenger geteilt werden. Auch in Zeiten von sozialen Netzwerken, wo mithilfe eines Klicks Internetseiten an Freunde, Bekannte und Kollegen übermittelt werden, ist die Mundpropaganda immer noch ein relevanter Marketing-Faktor.

EMD-Update

Auch bei den Exact Match Domains versucht Google, es der Internetgemeinde deutlich schwerer zu machen. Mit dem sogenannten EMD-Update sollen Keywords-Domains abgewertet und mit „normalen“ Domains gleichgesetzt werden. Wie so häufig verlief das erste Google Update allem Anschein nach nicht reibungslos, nach dem ersten Aufschrei erholten sich eine Vielzahl von Keyword-Domains wieder und erreichten ähnliche Positionen wie vor dem Update.

Allgemein war aber der Anteil von Keyword-Domains, die vorerst tatsächlich abgerutscht sind, durchaus gering – was im Endeffekt auch immer wieder zeigt, dass andere Google Algorithmen weiterhin greifen und eine Website eben nicht auf eine einzige Domain oder einen einzigen Faktor zu beschränken ist. Das sogenannte EMD-Update ist lediglich eine Erweiterung der vorhandenen Algorithmen. Die inhaltliche Qualität einer Website setzt sich, unabhängig vom Domainnamen, nach wie vor durch.

Warum trotzdem eine Keyword-Domain verwenden?

Eine berichtigte Frage, wenn man lediglich davon ausgeht, dass nicht die Domain relevant ist, sondern der Inhalt einer Seite. Die Vorteile einer Keyword-Domain haben wir bereits angesprochen – der Name der Domain ist nebst Titel der Seite und Meta-Beschreibung auch das erste, was ein Besucher in den Suchergebnissen sieht. Ein passender Name und eine passende Endung schaffen Vertrauen und somit steigt die Wahrscheinlichkeit, dass eine Website über die Suchergebnisse aufgerufen wird.

Darstellung der Serps in Verbindung mit der Domain
Darstellung der Serps in Verbindung mit der Domain

Des Weiteren ist die Auswirkung des sogenannten EMD-Updates deutlich geringer ausgefallen als zunächst befürchtet und gravierende Veränderungen konnten bei einer Vielzahl der Domains nicht erkannt werden. Zudem gibt es immer wieder Veränderungen in den Suchergebnissen im Zusammenhang mit dem Panda Update sowie dem Penguin Update. So waren einige Websitenbetreiber tatsächlich von eben diesen Updates betroffen, suchten aufgrund des Zeitpunkts die Schuld aber beim EMD-Update.

Unabhängig von dieser Vielzahl an Google Updates in den vergangenen Wochen, Monaten und Jahren sind immer nur eine vergleichsweise geringe Anzahl von Websitebetreibern betroffen gewesen. Daher ist es ratsam, vorab seine Website auf Verstöße gegen die Google Webmaster Richtlinien (Artikel 1, Artikel 2, Artikel 3, Artikel 4) hin zu untersuchen. Außerdem sollte der Betreiber ehrlich zu sich selbst sein: Bietet die Website ausreichend fundierte Inhalte und damit einem Mehrwert für die Besucher, die Suchmaschinen und für einen selbst?

Die Wahl der richtigen Domain und Endung

Domain und Endung - Qual der Wahl

Recht häufig stellt sich dem Webmaster und Laien die Frage, welcher Domainname und vor allem welche Domain-Endung ist eigentlich die Richtige?

die Wahl der richtigen Domain
die Wahl der richtigen Domain

Ein Domainname sollte grundsätzlich mit der Thematik einer Webseite in Zusammenhang stehen. Wenn nach intensiver Suche und diversen Domainabfragen der passende Name für das Vorhaben gefunden wurde, stellen sich in der Regel weitere Fragen. Vor allem bei Begrifflichkeiten, die sowohl getrennt als auch zusammen geschrieben werden können, taucht häufig vor der Registrierung einer Domain die Frage auf: „Welche der beiden Domainnamen nehme ich jetzt?“.

Die Antwort ist immer: Beide.

Natürlich kosten zwei Domains mehr als eine, allerdings ist es grundsätzlich immer sinnvoll, die relevantesten Domains für sein Vorhaben zu registrieren und damit sein eigen zu nennen. Denn mal angenommen, man schafft sich eine Brand oder eine sehr gut besuchte Seite, so bietet man potentiellen Konkurrenten nicht die Chance, aus dem eigenen Namen einen Nutzen zu ziehen. Das gilt auch für getrennt und zusammen geschriebene Domains (www.do-main.de und www.domain.de).

Was gilt es weiterhin zu beachten?

  • Kunstwörter vermeiden
    Das Erschaffen einer Brand ist sicherlich toll und der Wunschtraum eines jeden Websitenbetreibers. Aber das Erschaffen einer Brand durch ein Kunstwort ist in der Regel sehr zeit- und kostenintensiv – Namen die keiner kennt, werden auch bei Suchmaschinen nur sehr selten gesucht.
  • Einzahl oder Mehrzahl?
    Auch hier gilt die Antwort „Beide“. Wer sich eine Domain mit dem Namen im Singular registriert, läuft Gefahr, dass er irgendwann Besucher an einen Konkurrenten verliert, der sich den Domainnamen im Plural registriert hat. Gerade Domainhändler sind darauf fixiert, sich solche Domains zu sichern, um diese im Anschluss selbst zu vermarkten oder diese für einen hohen Preis an Sie zu veräußern.
  • Leicht zu merken und so kurz wie möglich
    Bei der Wahl des Namens sollte darauf geachtet werden, dass dieser so kurz wie möglich ist, damit sich Kunden und Besucher diesen sehr leicht merken können und im besten Fall, aufgrund der Einfachheit, verbreiten.
  • Markenrecht
    Ja, auch Domainnamen unterliegen eventuell einem Markenrecht. Dem entsprechend vorab immer darauf achten, ob der Domainname geschützt wurde. Deshalb sollte man sich immer die 5 Min Zeit nehmen und vorab auf der Seite des deutschen Patent- und Markenamts den Domainnamen abfragen.

Welche Endung sollte genommen werden?

Natürlich könnten jetzt pauschal alle Endungen oder lediglich eine Endung registriert werden, allerdings sinnvoll sind Endungen wie .de für Deutschland (für Österreich .at, für die Schweiz .ch), .com, .net, .org, .info, .eu – nach wie vor gelten diese Domain-Endungen als deutlich vertrauenswürdiger im Vergleich zu unsympathischen Endungen wie zum Beispiel .biz.

In der Regel kriegt man im Anschluss die Antwort: Aber ich will doch nur eine Webseite erstellen und nicht vier bis fünf. Das ist auch richtig. Daher sucht man sich eine Hauptdomain aus und leitet die anderen Domains auf diese Hauptdomain weiter. Damit vermeidet man, dass andere Websitebetreiber sich die guten Domain-Endungen sichern.

Generische Domains und deren Zielausrichtung?

Ein Problem der generischen Domains ist dass diese in erster Linie nicht einem Land zuzuordnen sind.  Bei Domains mit der Endung .de ist davon auszugehen, dass diese sich auf den deutschen Sprachraum beziehen, Ausnahmen bestätigen die Regel. Bei Domain-Endungen wie zum Beispiel .org weiß man in der Regel nicht, in welchem Sprachraum sich die Website befindet. Daher ist es empfehlenswert, die Domain in die Google Webmaster Tools einzutragen, darüber die geografische Zielausrichtung anzusteuern und der Domain einschließlich Endung einen Sprachraum zuzuweisen.

10 Fragen zum CMS FirstSpirit im Video-Interview

10 Fragen zum CMS FirstSpirit

Auf der CeBIT hatten wir die Möglichkeit, dem Vorstand unseres CMS-Partners e-Spirit Jörn Bodemann und dem Mitglied unserer Geschäftsführung Michael Steinfort 10 Fragen zum Content Management System FirstSpirit zu stellen.

In 9 Minuten Video erfahren Sie:

  • Was zeigten e-Spirit und comspace auf der CeBIT 2013?
  • Michael Steinfort erläutert, warum sich comspace für FirstSpirit entschieden hat.
  • Was bietet FirstSpirit im Einsatz auf mobilen Devices?
  • Einsatzmöglichkeiten der mobilen Lösung für FirstSpirit, die comspace entwickelt hat.
  • die 3 aktuell spannendsten CMS Themen aus Hersteller- und Agentur-Sicht.
  • Was bringt die Zukunft für Content Management Systeme?

http://youtu.be/wiVtfI-ZfPI

Nächste Woche veröffentlichen wir ein weiteres Video, in dem unsere Kollegen aus Account Management und Entwicklung gemeinsam mit einer Kollegin von e-Spirit einige Features von FirstSpirit und unsere mobile Anwendung in Aktion demonstrieren.

Digitale Städte: New York und Bielefeld im Vergleich

Screenshot der Facebookpage der Stadt Bielefeld

Im Januar 2011 hat sich New York zum Ziel gesetzt, die weltführende digitale Stadt zu werden und gründet dieses Vorhaben auf 5 Säulen:

Die Roadmap der Stadt New York lässt sich bei Slideshare in diesem Dokument nachlesen: Becoming a Digital City with HootSuite. Der Themenschwerpunkt auf HootSuite rührt daher, weil es von den Mitarbeitern der Stadt New York als Social Media Management Tool eingesetzt wird. Welches Tool die Stadt Bielefeld genau nutzt, um all die weiter unten aufgeführten Kanäle zu bespielen konnte ich noch nicht heraus bekommen, werde die Info aber asap nachliefern. Hier bei comspace nutzen wir derzeit ebenfalls Hootsuite um Twitter, Facebook und unsere Google+ Seite mit Inhalten zu versorgen.
Screenshot der Facebookpage der Stadt Bielefeld
Screenshot der Facebookpage der Stadt Bielefeld

Zugegeben:

NYC und Bielefeld miteinander zu vergleichen ist schon etwas gewagt. Seit ich auf den Beitrag im Hootsuite Blog gestoßen bin frage ich mich, in wie weit die Digital Roadmap von New York wohl auch etwas für Bielefeld wäre, denn eine Digitale Stadt muss ja nicht gleich Weltmetropole sein. Dabei ist mir aufgefallen, dass Bielefeld schon sehr viel richtig macht:

Das ist schon eine ganze Menge, was Bielefeld anbietet und kann sich durchaus als Digital City bezeichnen – ob sie nun Hootsuite benutzt oder nicht 😉

Webtrekk veröffentlich die Deutsche Webstatistik für das 4. Quartal 2012

Webtrekk-Logo

Webtrekk hat die Deutsche Webstatistik für das 4. Quartal 2012 veröffentlicht aus denen einige interessante Zahlen hervorgehen:

  • Einer von acht Zugriffen auf das Internet erfolgt mit einem Smartphone oder Tablet
  • Apples mobile Geräte büßen im Langzeittrend Marktdominanz ein; Samsung Galaxy-Modelle knacken 10%-Hürde
  • Windows 7 ist meistgenutztes Betriebssystem im deutschen Web und stärker als XP und Vista zusammen
  • Seit Untersuchungsbeginn vor drei Jahren werden 9 von 10 Suchanfragen in Deutschland über Google-Suchschlitz gestartet

Die komplette Statistik gibt es auf der Webtrekk-Website.

CMS – das virtuelle Warenlager für Website-Inhalte

Die Warenlager Roboter von Kiva Systems bei Amazon in Aktion

In Content Management Systemen arbeiten wir mit Inhalten oder auch Assets. Einzelne Medien-Bestandteile wie Texte, Bilder, Videos, Produktdaten und so weiter, aus denen durch den Redakteur im CMS eine Webseite zusammen gestellt wird.

In der guten, alten Internet-Zeit gab es ja noch so etwas wie den „Webmaster“. Mir kommt als Metapher da immer der digitale Lagerist vors innere Auge, der nach Anfragen von Mitarbeitern aus Word-Dokumenten HTML-Seiten gemacht hat, Bilder auf FTPs hochlud oder Caching-Prozesse anstieß, durch die eine Webseite online geschaltet oder aktualisiert wurde.

Mittlerweile können diese Aufgaben bereits die einfachsten Systeme automatisch übernehmen und moderne CMS-Lösungen wie Sitecore und FirstSpirit warten mit Workflows und Features auf, die die Arbeit von Redakteuren und Content-Managern deutlich einfacher machen.

Die Warenlager Roboter von Kiva Systems bei Amazon in Aktion
Die Warenlager Roboter von Kiva Systems bei Amazon in Aktion (c) KIVA-Systems

Hochspannend finde ich dann Beispiele aus dem echten Leben mit anfassbaren Dingen, bei denen ganz ähnliche Prozesse und Techniken zum Einsatz kommen, wie ich schon im November von der Logistik-Lösung 2020 von Hettich berichtete.

Vor einiger Zeit hatte ich die Möglichkeit, mir die Lagerhaltung des Gütersloher Unternehmens Westaflex einmal anzusehen. Hier werden Produkte, Werkstoffe, Regale und sogar Rollwagen und deren Abstellplätze in den Werkshallen mit Barcodes versehen und jeder Mitarbeiter scannt zunächst den Artikel den er entnimmt, dann den Code der Kiste oder des Wagens wo er ihn ablegt und dann die Position des Wagens in der Halle. So weiß das Logistik-System immer wann sich welche „Assets“ wo im Unternehmen befinden.
Diese Übertragung von Prozessen für virtuelle Güter im Unternehmen auf anfassbare war seinerzeit für mich schon sehr beeindruckend.

Wo bei Westfaflex noch menschliche Muskelkraft die Rohstoffe und Produkte bewegt, geht die Logistik-Lösung das Unternehmens Kiva Systems, das Anfang des Jahres für 775 Mio. US-Dollar von Amazon gekauft wurde, noch einen Riesenschritt weiter:

Hier kommen die Waren zum Lageristen.
Roboter fahren nicht nur einzelne Artikel durch die Lagerhallen, sondern gleich ganze Regale. Laserpointer zeigen den Mitarbeitern welche Artikel aus dem mobilen Regal genommen werden sollen und in welche Kartons, die zum Kunden gehen sie gehören.

Schauen Sie sich das Video einmal an – das muss man in der Tat gesehen haben um es zu glauben. Ich kenne aus der Schulferienzeit ja durchaus noch die Arbeit auf einem Lager, wenn Staplerfahrer Hochregale befüllen, man selbst mit dem Hubwagen Paletten zur Arbeitsstation fährt und in Rollwagen Bestellungen kommissioniert. In diesen Zeiten habe ich einige Regalkilometer am Tag zurückgelegt.

Beim Versand-Karton schließt sich mein gedanklicher Kreis wieder Richtung CMS, wenn ich den Karton, der die einzelnen Produkte enthält mit einem Design-Template vergleiche, das die Webseiten-Inhalte anzeigt:
Größe und Form des Versandkartons wird nach den Maßen in den Artikeldaten passend ausgewählt um möglichst platz- und damit portosparend zu packen.
Ein modernes CMS kann bsw. anhand der Textmenge die der Redakteur eingegeben hat, kombiniert mit den Bildern aus dem Media Asset Management und den Produktdaten aus dem SAP besonders passende Template für die zu erstellende Seite vorschlagen. Stellen wir uns dann noch vor, dass das System auch noch Bilder passend zum Ausgabegerät skaliert, dabei aktuelle UX-Richtlinien berücksichtigt und automatisch referenzierbare Links vorschlägt, höre ich zwar ein bisschen Zukunftsmusik im Hintergrund spielen, sehe aber das Leben des Content Managers auch gleich ein wenig leichter werden.

Mindestens so leicht wie das des robotergestützten Lageristen bei Amazon 🙂

/via zwischendurch und Exciting Commerce

Was ist eigentlich das Leistungsschutzrecht?

Im Moment liest und hört man sehr viel über das Leistungschutzrecht. Die Verlage wollen es und viele andere lehnen es ab. D64, ein unabhängiger Verein, der die Wahrnehmung und Bedeutung digitaler Themen in Gesellschaft und Politik stärken will, hat hierzu ein schönes Video erstellt, das sehr verständlich die Thematik erklärt.

Leistungsschutzrecht stoppen! from D64 on Vimeo.

Dazu erklärt Nico Lumma, Co-Vorsitzender von D64:
“Das geplante Leistungsschutzrecht für Presseverlage ist purer Unsinn. Es wird den Verlagen keine neuen Einnahmequellen bescheren, weil die Verlinkungen zu Verlagsangeboten zurückgehen werden. Alle wissen das, aber am Leistungsschutzrecht wollen die Verleger einmal mehr demonstrieren, dass sie eine Meinungsmacht in Deutschland haben.” (Quelle: http://d-64.org/leistungsschutzrecht-ist-unsinn/)

Die Verlage argumentieren dagegen und weisen darauf hin, dass ein Leistungsschutzrecht erforderlich ist.

„Verlage können bislang nur aus abgeleiteten Rechten der Urheber gegen Rechtsverletzungen im Internet vorgehen. Da Verlage zum Teil mehrere tausend Journalisten, Fotografen, Grafiker etc. mit oft sehr unterschiedlichen Verträgen beschäftigen, erweist sich die Rechtsverfolgung mit abgeleiteten Rechten, insbesondere bei systematischer Ausnutzung der Presseinhalte durch Dritte, als unrealisierbar.“ (Quelle: http://www.bdzv.de/recht-und-politik/leistungsschutzrecht-verlage/leistungsschutzrecht-fakten/)

Wir beobachten weiter die Diskussion um das Thema und informieren aktuell auf Twitter und unserem Blog.

5 Tipps: Facebook für den Mittelstand

Auf dem gestrigen Onlinestammtisch OWL 5.0 hatten wir Dr. Gunnar Bender zu Gast, der in seiner Funktion als Director Policy bei Facebook Deutschland einen Impulsvortrag zum Thema „Facebook für den Mittelstand“ hielt.

Für alle, die gestern nicht dabei sein konnten, möchten wir hier 5 Tipps anbieten, die Dr. Gunnar Bender uns gestern mitgegeben hat.

Eine Umfrage der Bitkom Research GmbH vom Anfang des Jahres belegt ein Umsatzwachstum bei mehr als 1/3 der deutschen Mittelständler, die Facebook nutzen. 56% der Unternehmen haben neue Kunden durch den Einsatz von Facebook gewonnen und sogar 69% gaben an, den Bekanntheitsgrad ihres Unternehmens gesteigert zu haben. Hinzu kommen Innovationen, die aus offener Kommunikation mit Kunden über die Plattform Facebook entstehen, sowie Erfolge beim Erschließen neuer Märkte und ein positives Ergebnis bei der Mitarbeiter-Rekrutierung. Ein Unternehmen, dass sich offen darstellt und vor allem ansprechbar macht, ist als potenzieller Arbeitgeber attraktiv.

Eine der wichtigsten Erkenntnisse ist sicherlich, dass die reine Anzahl an gewonnenen Fans nicht der Maßstab für den Erfolg eines Facebook-Auftritts sein sollte. Vielmehr die Anzahl und Qualität der Interaktionen, die auf einer Unternehmens-Fanpage stattfinden, sind interessant. Die entsprechende Maßzahl lautet demnach in den Insight-Statistiken „Sprechen darüber“.

Laden Sie sich das angefügte PDF-Dokument mit den 5 Tipps für den Mittelstand hier herunter, das uns freundlicherweise von Facebook Deutschland zur Verfügung gestellt wurde! Darin finden Sie wertvolle Anregungen, wie und warum sich eine Präsenz auf Facebook für Ihr Unternehmen lohnt.

Sie erfahren unter anderem wie Sie:

  • Facebook-Seiten mit Social by Design anlegen
  • Soziale Umgebung schaffen
  • Mit den Kunden gemeinsam neue Produkte entwickeln
  • Neue Märkte erschließen
  • Günstig und relevant auf Facebook werben

Darüber hinaus erhalten Sie weitere Informationen zum Datenschutz bei Facebook

Und Sie lernen 3 kleine und mittelständische Unternehmen kennen, die auf Facebook aktiv sind:

Boarders München

  • Snow-, Surf- und Skateboards und dazu gehöriges Equipment
  • Eröffnet im August 2010, auf Facebook seit September 2010 (Facebook wird als einziges online Medium genutzt).
  • Binnen eines Jahres erhöhte sich der Umsatz des Unternehmens um 32%. Außerdem wurden im selben Zeitraum 33% mehr Snowboards verkauft.
  • Facebook-Seite: https://www.facebook.com/boarders.muenchen

Trachten Angermaier

  • Bayerische Trachten, Dirndl, Lederhosen und Accessoires
  • Gegründet 1949, auf Facebook seit März 2011
  • Seitdem wurden bei Trachten Angermaier acht neue Mitarbeiter eingestellt, der Umsatz erhöhte sich im letzten Jahr um knapp 20%
  • Facebook-Seite: https://www.facebook.com/AngermaierTrachten

Tarterie St. Pauli

  • Kleines Bistro im Hamburger Stadtteil St.Pauli, mit dem sich ein junger Hamburger im Frühjahr 2011 selbständig gemacht hat („Einmann-Betrieb“)
  • Facebook-Seite wird als kostengünstige Alternative zur eigenen Webseite genutzt, d.h. abgesehen von der Facebook-Seite besteht keine zusätzliche Internetpräsenz
  • Facebook-Seite: https://www.facebook.com/tarterie

 

Downloadlink – 5 Tipps zu Facebook für den Mittelstand