Google Penguin Update

Nach dem bereits im August 2011 das Google Panda Update die Suchergebnisse ein wenig durcheinander gewirbelt hat, folgte im April 2012 das Pinguin Update / Penguin Update.

Ähnlich wie bei dem Panda Update waren auch Websites und Webportale betroffen, die nicht gegen die Google Webmasterrichtlinien verstießen – wodurch vermutlich wiederum einige Existenzen ins Wanken gerieten. Kollateralschäden sind auch bei einem Google Update nicht auszuschließen, dem entsprechend wird es, wie bereits im Artikel zum Panda Update beschrieben, langfristig immer wichtiger, sich auf mehr als nur eine Traffic-Quelle zu konzentrieren.

Google Penguin Update

Auswirkungen des Penguin Updates

In erster Linie sollte sich das Google Penguin Update an Websites richten, die als überoptimiert gelten.

Zu Beginn war die Frage, worauf sich das überoptimiert bezieht:
Sind damit On-Page Maßnahmen gemeint, wurden zu oft Überschriften deklariert oder ist der Quellcode zu sauber/aufgeräumt? Oder bezieht sich dies auf externe Faktoren wie das Linkbuilding?

Ersteres kann eigentlich nur bedingt eine Ursache sein, schließlich schreibt Google selbst in den Webmaster Richtlinien, dass eine Website zwingend ausreichend strukturiert und technisch einwandfrei arbeiten muss. Bis dato werden durch diese Richtlinien keine Begrenzungen in Bezug auf den Einsatz bestimmter OnPage Elemente gesetzt, so dass hier jedem Websitebetreiber freigestellt wird, wie er seine Website strukturieren und aufbauen möchte. Ausgenommen sind natürlich Techniken wie das Cloaking, die explizit verboten sind. Zudem dürfte der Bereich der On-Page Optimierung mithilfe des Google Panda Updates bereits „abgedeckt“ sein.

Relativ schnell berichteten die Online Marketing Experten davon, dass die externen Faktoren (Offpage), also das Linkbuilding die Problemquelle darstellen. Links, auch Backlinks, fließen seit der Erschaffung des Google PageRank Algorithmus in die Bewertung von Websites mit ein.

Betroffene Ranking-Faktoren

In erster Linie bezieht sich das Update auf gekaufte und nicht organisch aufgebaute Links. Der Kauf wie auch der Handel mit Backlinks ist bereits seit einigen Jahren durch die Google Webmasterrichtlinien verboten – dennoch ist das Linkbuilding ein relevanter Faktor, gerade in umkämpften Nischen.

Frank Doerr berichtet unter dem Pseudonym Loewenherz auf seo-scene.de darüber,

dass primär Webseiten betroffen sind, die bei durchschnittlich mehr als 60 % der eingehenden Links ein Money-Keyword im Archnortext verwenden. In der Regel waren Websites mit weniger als 50 % Money Keywords bei eingehenden Backlinks nicht betroffen. Das lässt darauf schließen, dass das Pinguin Update ein Ankertext Penalty ist.

Bevor jetzt aber die Meinung entsteht, gute Websites dürften bis max. 59 % Money Keywords enthalten, sollte beachtet werden, dass auch Websites mit weniger als 50 % betroffen sind und es hier keine Gesetzmäßigkeit gibt, die dem Websitebetreiber einen Freibrief für 49 % oder 59 % Keyword Backlinks ausstellt. Der Suchmaschinenbetreiber Google wird in Zukunft immer genauer darauf achten, wie sowie mit welchen SEO relevanten Keywords Backlinks aufgebaut wurden und aus welchen Quellen eben diese entspringen.

Eine weitere Auswirkung des Pinguin Updates ist, dass ein gescheiter Linkmix aus themenrelevanten und nicht themenrelevanten Seiten existieren sollte. Dieser Punkt wird auch seit einigen Jahren im Zuge des organischen Linkaufbaus vermittelt.

Exkurs: Was ist ein organischer Link?

Organisch beschreibt in erster Linie, das ein Link natürlich sein sollte. Natürliche Links sind in der Regel Links die z.B. in Foren von Usern gesetzt werden, die anderen Personen mithilfe eines relevanten Links einen Tipp oder gar eine Problemlösung offerieren wollen.

In den seltensten Fällen werden natürliche Links mit einem SEO Keyword versehen, sondern durch Begriffe wie „hier“, „Link“, „schau mal hier“ oder der URL selbst gekennzeichnet.

Was kann getan werden, wenn eine Website betroffen ist?

Grundsätzlich wird es wohl einen Grund haben, warum eine Website von einem Google Penalty betroffen ist und diejenige Personen wird in den meisten Fällen auch wissen, warum die Website durch das Google Pinguin Update in seinen Rankings abgewertet wurde. Dennoch gibt es auch die Möglichkeiten, sein Ranking langfristig wieder zu verbessern.

Anmerkung: Ein Reinclusion-Antrag, also einen Antrag zur Wiederaufnahme in den Index, der in den Google WebmasterTools zur Verfügung gestellt wird, wird wahrscheinlich keinen Nutzen haben. Da dies Update eine Erweiterung des Google Algorithmus ist und kein (manueller) Filter.

Eine Möglichkeit ist es, die gekauften und selbst aufgebauten Backlinks abzubauen, dazu sollten die externen Links durch eine Backlink Analyse vorab durchleuchtet werden.

Der Abbau von Backlinks ist ein strittiges Thema im Online Marketing bzw. in der SEO-Welt. Die einen sind der Meinung, dass somit gegenüber Google gezeigt wird, dass Links, aus ggf. noch nicht bekannten Quellen aufgebaut, wurden – die anderen sehen es als logische Konsequenz um langfristig wieder Erfolge in den Rankings feiern zu dürfen.

Seit Mitte Oktober 2012 hat Google ein Tool in den Google WebmasterTools vorgestellt, womit die Linkkraft von Backlinks entwertet werden kann. Wer jetzt denkt – „super muss ich mir keine Arbeit mehr machen und entwerte die Links über das Tool“ dem sei gesagt, dass Google laut eigener Aussage dies nur zur Verfügung stellt, damit auch die Links entwertet werden können, die selbst nicht abgebaut werden können.

Auch dieses Tool gilt als heikles Thema – es gibt Marketing-Experten die hier von Verrat sprechen, da durch das Abbauen, Entwerten von Links Google Linkquellen und damit auch organisierte Linknetzwerke offenbart werden und kurz- bis langfristig nicht mehr nutzbar sind.

Blognetzwerke, Linknetzwerke und allgemein „kostenlose und günstige Linkquellen Netzwerke“ besitzen schon seit geraumer Zeit nicht mehr die gewünschte Backlink-Qualität. Quantität ist eben nicht gleich Qualität, auch wenn das immer noch nicht jeder wahrhaben möchte.

Bevor sich jetzt jemand an die Arbeit macht und fleißig Backlinks entwertet, die er ggf. gar nicht selbst gesetzt hat, sollte vorab überprüft werden, ob die Website wirklich durch das Pinguin Update betroffen ist – schließlich gibt es mit dem Panda-, Venice-, Freshness- und EMD-Update vier weitere Updates, welche die Google Rankings beeinflussen können.

Was versucht Google mit dem Pinguin Update?

Google versucht Ankertexte (Keywords / Schlagworte die Links kennzeichnen) zu entwerten. D.h. Google will weiterhin das Linkbuilding, den Linkhandel in allen Formen und Farben, entgegen zu wirken.

Was sagt Google offiziell zum Pinguin-Update?

(Quelle: www.website-boosting.de | Prof. Dr. Mario Fischer )

„to reduce webspam and promote high quality content“

Laut dem Suchmaschinenbetreiber Google selbst, waren von der ersten Variante des Pinguin Updates ca. 3 % aller Suchabfragen betroffen.

Literatur

Einen sehr interessanten Artikel zum Penguin-Update hat Hanns Kronenberg aus dem Hause der Sistrix Toolbox heute veröffentlicht. Dabei wurden 50 Domains/Websites überprüft, die durch das Penguin Update betroffen waren bzw. sind und wie sich eben diese Seiten in den vergangenen Monaten entwickelt haben.

Google PageRank Update (Februar 2013)

Es ist allem Anschein nach wieder soweit – Google spielt ein Update des sichtbaren PageRanks ein.

Einst galt der Google PageRank (Algorithmus) als das wichtigste Kriterium, um die Qualität von Websites bestimmten zu können. Die Grundlage war zugleich die Geburt der Suchmaschine Google im Jahre 1998.

Die Aufgabe des PageRank Algorithmus war bzw. ist es, die Qualität von Internetseiten anhand der Anzahl von Backlinks zu bestimmten und Webseiten anhand der daraus resultierenden Gewichtung in den Suchergebnissen zu positionieren. Der sichtbare Pagerank stellt sich in einer Skala von 0 bis 10 dar.

Google PageRank

Während vor Jahren noch diverse Webseitenbetreiber mit Popcorn und ausreichend Flüssignahrung darauf warteten, dass sich der Pagerank verbessert – so hat die Popularität deutlich abgenommen.

Warum der PageRank an Bedeutung verloren hat?

Im Verlauf der letzten 15 Jahren hatten Suchmaschinen wie Google Inc. ausreichend Zeit, nebst dem PageRank weitere Algorithmen (z.B. Google Panda Update), Filter und Extensions zu entwickeln, die zusätzlich die Wertigkeit und Qualität jener Webseiten, die einst nur durch den PageRank in den Suchergebnissen positioniert wurden, anhand von weiteren Kriterien und Muster bestimmen.

Das heißt, der Algorithmus von Suchmaschinen wie Google besteht nicht mehr aus einem Bewertungskriterium, sondern aus vergleichsweise vielen Kriterien, Mustern und Berechnungen. Zum Beispiel ist die Termgewichtung (w = WDF * IDF), die auf www.online-marketing.net sehr ausführlich von Karl Kratz beschrieben wird, ein sehr spannendes Thema.

Ich bin dennoch neugierig und möchte meinen PageRank messen?

Es gibt viele Möglichkeiten, den PageRank zu ermitteln. Mittlerweile gibt es für jeden Browser ausreichend Extensions / Plugins die eine Abfrage erlauben. Alternativ gibt es auch Tools, wie von www.seo-ranking-tools.de, mit denen der PageRank Online abgefragt werden kann.

Google Panda Update

Mit dem sogenannten Google Panda Update hat Google seinem Algorithmus ein Update spendiert, das langfristig die Qualität der Suchergebnisse verbessern soll – demnach ein weiterer Schritt in Richtung „qualitativ hochwertige Suchergebnisse und Websites“.

Google Panda Update in DeutschlandMithilfe des Panda Updates wird seit dem ersten Update im August 2011 die Qualität des Inhalts bewertet und diese Bewertung fließt in das Ranking einer Website ein. Bevor das Update in Deutschland eingespielt wurde, war es im Bereich des Online-Marketings schon länger Gesprächsthema Nr. 1 – zu Beginn lief das Update noch unter dem Namen Farmer Update.

Das Grundproblem, welches die Suchmaschinen sehen ist, dass es immer noch eine Reihe von Websites gibt, die keinen Mehrwert für Besucher liefern und im Endeffekt sinnbefreite Text- und Werbewüsten offerieren.  Denn analog zur Qualität des Inhalts, sollen beim Panda Update auch die eingesetzten Werbeflächen analysiert und bewertet werden – dadurch sollen Websites die zu viel Werbung und wenig nützlichen Inhalt bieten, in den Suchergebnissen abgewertet werden.

Aktuell liegt das Google Panda Update (laut SEOWetter.de) in der Version / Modifikation Nr. 24, vom 23.01.2013, vor.

Kurz zusammengefasst: Das Ziel des Google Panda Updates ist es, die Qualität in den Suchergebnissen mithilfe der Relevanz des Inhaltes stetig zu verbessern.

Auswirkungen des Google Panda Updates

Die Auswirkungen des Panda-Updates im August 2011 waren zum Teil verheerend und einige Internetunternehmen wie auch Privatleute fürchteten um ihre Existenzen. Bekannte wie auch unbekanntere Websites rutschten aufgrund des Updates sehr stark in den Suchergebnissen nach unten und büßten massiv Besucher ein.

Wie bei jedem Update ist es nicht unwahrscheinlich, dass ein Update auch Websites trifft, die es im Endeffekt nicht verdient hätten – genau aus diesem Grund arbeitet der Suchmaschinenbetreiber Google stetig an der Weiterentwicklung seiner Algorithmen.

Die ersten Auswertungen zeigen, dass primär reine Blognetzwerke, RSS-Verzeichnisse, Social News Seiten wie auch Preisvergleichsseiten durch das Update betroffen waren. Mittlerweile hat sich das durch die diversen Optimierungen etwas gelegt. Des Weiteren verloren auch Websites mit Massentexten die fast ausschließlich aus Seo Keywords bestanden und zum Zwecke des Linktauschs gezüchtet wurden – dem entsprechend keinerlei Mehrwert boten, deutlich an Positionen bis hin zur De-Indexierung.

Kurz zusammengefasst: Websites die Lesern einen echten Mehrwert bieten, sind in der Regel nicht von dem Update betroffen. Content-Farmen die nur aus Massentexten und wenig eigene Inhalte bieten werden es auch in Zukunft nicht einfach haben, gewünschte Positionen zu erreichen.

Optimierungspotentiale nach Panda Update erkennen und umsetzen

In Zukunft sollten Webseitenbetreiber versuchen mehr Traffic-Quellen aufzubauen. Zwar besitzt Google in Deutschland einen sehr hohen Marktanteil, dass schließt dennoch, gerade in Social Media Zeiten, nicht aus, dass keine weiteren relevanten Traffic-Quellen erschlossen werden können. Als Traffic-Quellen eignen sich natürlich Facebook, Twitter, Flicker wie auch Pinterest. Langfristig sollte jeder Websitebetreiber versuchen, die Risiken eines wegbrechenden Traffic-Kanals zu verteilen.

Neben der Steigerung der Traffic-Quellen sollte auch ein Augenmerk auf die eigene Website gelegt werden.  Grundsätzlich sollte die Qualität des Inhalts gesteigert werden, in dem diese auch explizit für die Leserschaft und nicht für etwaige Suchmaschinen geschrieben werden.

Zusätzlich eignen sich einige On-Page Optimierungsmöglichkeiten für die Verbesserung der eigenen Webseite, d.h. saubere Strukturierung, Verwendung von Bild- und Bildunterschriften. Zusätzlich sollten mit Analyse-Programmen Absprungraten und Ladezeiten bestimmt werden, um so eigene Fehler zu erkennen und diese bei Bedarf zu beheben.

Digitale Städte: New York und Bielefeld im Vergleich

Screenshot der Facebookpage der Stadt Bielefeld

Im Januar 2011 hat sich New York zum Ziel gesetzt, die weltführende digitale Stadt zu werden und gründet dieses Vorhaben auf 5 Säulen:

Die Roadmap der Stadt New York lässt sich bei Slideshare in diesem Dokument nachlesen: Becoming a Digital City with HootSuite. Der Themenschwerpunkt auf HootSuite rührt daher, weil es von den Mitarbeitern der Stadt New York als Social Media Management Tool eingesetzt wird. Welches Tool die Stadt Bielefeld genau nutzt, um all die weiter unten aufgeführten Kanäle zu bespielen konnte ich noch nicht heraus bekommen, werde die Info aber asap nachliefern. Hier bei comspace nutzen wir derzeit ebenfalls Hootsuite um Twitter, Facebook und unsere Google+ Seite mit Inhalten zu versorgen.
Screenshot der Facebookpage der Stadt Bielefeld
Screenshot der Facebookpage der Stadt Bielefeld

Zugegeben:

NYC und Bielefeld miteinander zu vergleichen ist schon etwas gewagt. Seit ich auf den Beitrag im Hootsuite Blog gestoßen bin frage ich mich, in wie weit die Digital Roadmap von New York wohl auch etwas für Bielefeld wäre, denn eine Digitale Stadt muss ja nicht gleich Weltmetropole sein. Dabei ist mir aufgefallen, dass Bielefeld schon sehr viel richtig macht:

Das ist schon eine ganze Menge, was Bielefeld anbietet und kann sich durchaus als Digital City bezeichnen – ob sie nun Hootsuite benutzt oder nicht 😉

Wenn PR-Leute den Beruf kurzerhand zum Hobby machen

Dann werden sie Teilzeit-Herausgeber wie Marcus Bond, der im „richtigen Leben“ als PR-Berater unseren Partner Sitecore Deutschland betreut. Ich kann gut verstehen, dass Herr Bond seinen Job als Text-Schaffender zum Feierabend nicht einfach so an der Garderobe aufhängen kann. Also hat er sich gedacht: Während alle dort draußen „Print ist tot“ rufen und ein iPad-magazin nach dem anderen erscheint:

„Mache ich doch mal was auf Papier!“

Das vorliegende und (hoffentlich nicht!) einmalig erschienene Magazin ist eine wunderbare Zusammenstellung interessanter Themen und ein haptisches Erlebnis. So sehr ich Fan von digitalen Inhalten bin, so sehr freue ich mich über Produkte, die mit Liebe, Verstand und Sinn für Details erstellt wurden.

Und das geht schon beim Cover los, das einen direkten Bezug zum Namensgeber der Figur des James Bond hat (warum, müssen Sie schon selber weiter unten nachlesen *g*):

Cover „Bonds bunte Welt“

Das Inhaltsverzeichnis liest sich dann gleich mehr wie die Übersichtsseite eines Blogs, in dem jemand über all das schreibt, was den Autoren interessiert oder ihm Spaß macht. Denn genau das ist „Bond’s bunte Welt“: Ein Papier gewordenes Blog für Familie, Freunde, Bekannte und sein Netzwerk, in dem neben den eigenen Artikeln auch einige Gastbeiträge auftauchen wie z.B. vom großartigen Gunter Dueck, über dessen Podcast ich hier auch schon einmal schrieb.

Manche von Ihnen mögen nun denken „Ach, ein PRler, der ein eigenes Magazin herausbringt – das kann doch nur eine Lobhudelei an die eigenen Kunden sein.“ – Mitnichten! Neben eher leichten Themen wie das Wunderwesen Aal, eine wunderschöne Bilderstrecke vom Tag am Meer oder das BIER (ok, hier geht es dann doch um ein Produkt. Aber hey! Es ist schließlich Bier ;)) hat Marcus Bond auch durchaus nachdenklich stimmende Kost mit ins Magazin genommen wie zum Beispiel einen Reisebericht durch Tschernobyl von Christiane Flechtner oder Daniel Simons Erklärungen, warum wir mit Meinungen über China vorsichtig sein sollten:

Bond’s bunte Welt – Inhaltsverzeichnis

Ob es noch Echtwelt-Exemplare von „Bond’s bunter Welt“ gibt, kann ich nicht sagen. Wer aber jetzt direkt reinlesen möchte, kann das hier bei issuu.com online tun:

 

Neue Marketing und SEO Konferenzen im Jahr 2013

SEOcruise - Meer Marketing

Wie in jedem Jahr stehen auch für das Jahr 2013 interessante Online Marketing Konferenzen an. Im vergangenen Jahr hatten wir bereits im Vorfeld über die SEO-Campixx im Berliner Hotel am Müggelsee berichtet und anschließend einen entsprechenden Recap über die besuchten SEO Workshops verfasst.

In diesem Jahr lohnt es sich, zwei neue Konferenzen hervorzuheben.

M3 Campixx

Mit der M3 Campixx, also quasi der Schwester der SEO-Campixx, hat das Team der SEO Agentur Sumago von Marco Janck eine weitere Konferenz ins Leben gerufen. Im Gegensatz zur SEO Campixx werden weitere Felder des Marketings (z.B. Neuromarketing, Web 3.0) abgedeckt, um einen Blick über den Tellerrand zu wagen.

Der Veranstaltungsort ist wie gewohnt das Hotel Müggelsee in Berlin, das sich nicht nur aus Sicht der Veranstalter, sondern auch aus Sicht der Teilnehmer bewährt hat. Die M3 Campixx findet vom 15. bis 16 Juni statt – gerechnet wird laut www.m3-campixx.de mit rund 250 Teilnehmern.

SEOCruise – Meer Marketing

SEOCruise - Onlinemarketing Konferenz auf internationalen GewässernEinen sehr interessanten und ungewohnten Veranstaltungsort hat sich das Team rund um Maximilian Euler einfallen lassen. Bei der SEO Konferenz wird SEO international, denn es geht auf einem Kreuzfahrtschiff von Kiel nach Oslo und zurück. Stattfinden wird die SEOCruise vom 13. bis 15. Mai 2013.

Die Teilnehmer dürfen sich auf eine Reihe von namhaften Sprecher/innen, wie z.B. Karl Kratz (karlkratz.de), Johannes Beus (Sistrix.de) und Astrid Jacobi (Staats Consult), freuen.

Weitere Informationen zu dieser Konferenz und den angebotenen SEO Seminaren und Marketing Workshops gibt es auf: www.seocruise.de

Konferenzen im Jahr 2013

Auf dem SEO Blog (www.seo-book.de) der CONTENTmanufaktur GmbH von Eric Kubitz kann die komplette Liste der anstehenden Konferenzen für 2013 eingesehen werden.

Webtrekk veröffentlich die Deutsche Webstatistik für das 4. Quartal 2012

Webtrekk-Logo

Webtrekk hat die Deutsche Webstatistik für das 4. Quartal 2012 veröffentlicht aus denen einige interessante Zahlen hervorgehen:

  • Einer von acht Zugriffen auf das Internet erfolgt mit einem Smartphone oder Tablet
  • Apples mobile Geräte büßen im Langzeittrend Marktdominanz ein; Samsung Galaxy-Modelle knacken 10%-Hürde
  • Windows 7 ist meistgenutztes Betriebssystem im deutschen Web und stärker als XP und Vista zusammen
  • Seit Untersuchungsbeginn vor drei Jahren werden 9 von 10 Suchanfragen in Deutschland über Google-Suchschlitz gestartet

Die komplette Statistik gibt es auf der Webtrekk-Website.

Termin-Kalender SEO, Online-Marketing und Kommunikation 2013

Kalender 2013 cc Flickruser Joe Lanman

Das Jahr ist gerade 3 Tage jung, der Maya-Kalender hat sich nicht ansatzweise so drastisch ausgewirkt wie angenommen – da gibt es schon eine exzellente Sammlung der wichtigsten Konferenzen, Barcamps und Events, die die Online Welt bewegen und unseren Termin-Kalender füllen werden:

Calendar Card - January 2013 Joe Lanman
Kalender 2013 cc Flickruser Joe Lanman

M.C. Schindler fasst zusmmen: Das läuft 2013: Kongresse, Symposien und BarCamps rund um Online-Kommunikation in Europa

Suchradar hat die weltweiten Termine zum Thema SEO zusammen gestellt

Björn Tantau geht neben SEO und Online Marketing auch auf einige IT-Termine ein

Für uns gesetzte Termine dieses Jahr sind schon einmal diese:

Und besonders freuen wir uns auf die Veranstaltungen unserer Partner und natürlich die OSO Online-Stammtische OWL.

CMS – das virtuelle Warenlager für Website-Inhalte

Die Warenlager Roboter von Kiva Systems bei Amazon in Aktion

In Content Management Systemen arbeiten wir mit Inhalten oder auch Assets. Einzelne Medien-Bestandteile wie Texte, Bilder, Videos, Produktdaten und so weiter, aus denen durch den Redakteur im CMS eine Webseite zusammen gestellt wird.

In der guten, alten Internet-Zeit gab es ja noch so etwas wie den „Webmaster“. Mir kommt als Metapher da immer der digitale Lagerist vors innere Auge, der nach Anfragen von Mitarbeitern aus Word-Dokumenten HTML-Seiten gemacht hat, Bilder auf FTPs hochlud oder Caching-Prozesse anstieß, durch die eine Webseite online geschaltet oder aktualisiert wurde.

Mittlerweile können diese Aufgaben bereits die einfachsten Systeme automatisch übernehmen und moderne CMS-Lösungen wie Sitecore und FirstSpirit warten mit Workflows und Features auf, die die Arbeit von Redakteuren und Content-Managern deutlich einfacher machen.

Die Warenlager Roboter von Kiva Systems bei Amazon in Aktion
Die Warenlager Roboter von Kiva Systems bei Amazon in Aktion (c) KIVA-Systems

Hochspannend finde ich dann Beispiele aus dem echten Leben mit anfassbaren Dingen, bei denen ganz ähnliche Prozesse und Techniken zum Einsatz kommen, wie ich schon im November von der Logistik-Lösung 2020 von Hettich berichtete.

Vor einiger Zeit hatte ich die Möglichkeit, mir die Lagerhaltung des Gütersloher Unternehmens Westaflex einmal anzusehen. Hier werden Produkte, Werkstoffe, Regale und sogar Rollwagen und deren Abstellplätze in den Werkshallen mit Barcodes versehen und jeder Mitarbeiter scannt zunächst den Artikel den er entnimmt, dann den Code der Kiste oder des Wagens wo er ihn ablegt und dann die Position des Wagens in der Halle. So weiß das Logistik-System immer wann sich welche „Assets“ wo im Unternehmen befinden.
Diese Übertragung von Prozessen für virtuelle Güter im Unternehmen auf anfassbare war seinerzeit für mich schon sehr beeindruckend.

Wo bei Westfaflex noch menschliche Muskelkraft die Rohstoffe und Produkte bewegt, geht die Logistik-Lösung das Unternehmens Kiva Systems, das Anfang des Jahres für 775 Mio. US-Dollar von Amazon gekauft wurde, noch einen Riesenschritt weiter:

Hier kommen die Waren zum Lageristen.
Roboter fahren nicht nur einzelne Artikel durch die Lagerhallen, sondern gleich ganze Regale. Laserpointer zeigen den Mitarbeitern welche Artikel aus dem mobilen Regal genommen werden sollen und in welche Kartons, die zum Kunden gehen sie gehören.

Schauen Sie sich das Video einmal an – das muss man in der Tat gesehen haben um es zu glauben. Ich kenne aus der Schulferienzeit ja durchaus noch die Arbeit auf einem Lager, wenn Staplerfahrer Hochregale befüllen, man selbst mit dem Hubwagen Paletten zur Arbeitsstation fährt und in Rollwagen Bestellungen kommissioniert. In diesen Zeiten habe ich einige Regalkilometer am Tag zurückgelegt.

Beim Versand-Karton schließt sich mein gedanklicher Kreis wieder Richtung CMS, wenn ich den Karton, der die einzelnen Produkte enthält mit einem Design-Template vergleiche, das die Webseiten-Inhalte anzeigt:
Größe und Form des Versandkartons wird nach den Maßen in den Artikeldaten passend ausgewählt um möglichst platz- und damit portosparend zu packen.
Ein modernes CMS kann bsw. anhand der Textmenge die der Redakteur eingegeben hat, kombiniert mit den Bildern aus dem Media Asset Management und den Produktdaten aus dem SAP besonders passende Template für die zu erstellende Seite vorschlagen. Stellen wir uns dann noch vor, dass das System auch noch Bilder passend zum Ausgabegerät skaliert, dabei aktuelle UX-Richtlinien berücksichtigt und automatisch referenzierbare Links vorschlägt, höre ich zwar ein bisschen Zukunftsmusik im Hintergrund spielen, sehe aber das Leben des Content Managers auch gleich ein wenig leichter werden.

Mindestens so leicht wie das des robotergestützten Lageristen bei Amazon 🙂

/via zwischendurch und Exciting Commerce

Analytics Summit 2012 – Recap – Erste Google Analytics Konferenz in Deutschland

Am 29.11.12 war es in Hamburg soweit: Die erste reine Google Analytics Konferenz (Analytics Summit) wurde gestartet. Als Location wurde für die von Timo Aden organisierte Konferenz mit ca. 250 Teilnehmern das alte Hauptzollamt in der Hamburger Speicherstadt genutzt.

Nach ca. 50 Min. Verspätung, bedingt durch einen Stau in der Garderobe, ging die Konferenz nach einer kurzen Ansprache von Timo Aden dann los.

 

ROI-Optimierung im Internet. Früher, heute und morgen

Moritz Habermann (Senior Key Account Manager bei Google Germany)

Moritz Habermann Google Analytics
Moritz Habermann Google Analytics

Moritz Habermann legte los mit der Geschichte der Webanalyse und der Entwicklung von Google Analytics. Dass es Google Analytics erst seit 7 Jahren gibt, war mir auch noch nicht so bewusst. Gefühlt bin ich von 10 Jahren ausgegangen. Auch auf die Entwicklung für das nächste Jahr wurde eingegangen. 2013 steht im Zeichen von Universal Analytics. Weiterhin wurden noch auf Themen wie das Attribution Modeling Tool und die 90/10 Regel eingegangen.

Zum Schluss gab‘s noch die Aussage, dass die jetzige Definition zu Web Analytics (ein Analyst analysiert Daten über Besuche zu einer Webseite) zugunsten der zukünftigen Marketing Analytics Definition (ein Unternehmen trifft Entscheidungen basierend auf dem Kundenverhalten) weichen sollte.

 

Case (ProSiebenSat.1): Web Analyse und Datenmanagement auf Portalen

Jürgen Popp (Director Business Intelligence bei der ProSiebenSat.1 Digital GmbH)

Jürgen Popp - Web Analyse und Datenmanagement auf Portalen
Jürgen Popp – Web Analyse und Datenmanagement auf Portalen

Ein interessanter Einblick in die ProSiebenSat.1 Digital GmbH wurde uns von Jürgen Popp gewährt. Zum Beispiel wird Myvideo als eigener Sender gesehen wie ProSieben, SAT1 oder Kabel1 auch. Zusammen mit den Fernsehsendern und den Portalen (sevenload, zatoo) gehört ProSiebenSat.1 Digital zu den Top Vermarktern im Bereich von Bewegtbild-Inhalten im Internet.
Um die Heterogenität bei den Webbesuchern in der Analyse herauszunehmen wird bei ProSiebenSat.1 Digital mit dem Einsatz von erweiterten Segmenten gearbeitet.

 

Content Experiments (Testing)

Christian Böhme (Geschäftsführer bei e-wolff)

Christian Böhme - Content Experiments
Christian Böhme – Content Experiments

Bei diesem Vortrag ging es darum wie User erneut auf die Webseite zu bekommen sind, welche Testing Möglichkeiten und Prozesse es gibt um dieses zu erreichen. Ein Weg um die User zum Bestellen oder Reservierung zu bringen, wäre die Verknappung von Produkten oder Dienstleistungen. Wenn auf einer Reiseseite steht, dass nur noch 5 Plätze frei sind, diese Seite gerade von 14 weiteren Personen angesehen wird und die letzte Reservierung vor 4 min. in Saudi-Arabien getätigt wurde kann das zu einem schnelleren Abschluss führen. Mit einem A/B Test könnte dann die Wirksamkeit der Maßnahme überprüft werden. Wichtig ist bei allen Testings dass diese über einen längeren Zeitraum laufen und nicht zu früh abgebrochen werden.

 

Case (Zalando-Lounge): Google Analytics und Ecommerce

Martin Rost (Mitgründer und CMO von Zalando Lounge)

Martin Rost - Zalando Lounge
Martin Rost – Zalando Lounge

Martin Rost erzählte in seinem Vortrag dass nach der responsive Webdesign Umsetzung der Seite die Nutzer in den verschiedenen responsive Stufen getrackt wurden.

Ziel war es herauszufinden, wie die User in den einzelnen Stufen agieren. Um Affiliates auf Domain Dropping zu überprüfen, nutzt Zalando Lounge die Daten aus dem Kampagnentracking.

 

Future Trends

Nick Sohnemann (Global Innovation Advisor bei TrendONE)

Nick Sohnemann - Future Trends
Nick Sohnemann – Future Trends

Weiter ging‘s nach dem Lunch mit Nick Sohnemann und dem Thema Future Trends. Der Vortrag war sehr energiegeladen und kurzweilig. Es ging weniger um Webanalyse, sondern vielmehr um die technische Entwicklung in der Zukunft und wie sich diese auf uns auswirkt z.B. biegsame Bildschirme, Google Glasses, selbstfahrende Autos, Gesichtserkennung, Echtzeit Übersetzung von Texten auf Schildern und Plakate, Gamification, etc.

 

Social Media Tracking

Tim Sebastian (Web Analyse und Conversion Optimierung  beiTrakken Web Services)

Tim Sebastian - Social Media Tracking
Tim Sebastian – Social Media Tracking

Vor dem Vortrag war mir gar nicht bewusst, wie schwierig es ist, Daten von Facebook Apps zu tracken. Tim Sebastian hat einige Lösungswege aufgezeigt, um die Zugriffe auf Facebook Apps zu tracken.

Interessant fand ich, dass Foren zu den am längsten bestehenden Social Mediakanälen zählen und auch getrackt werden sollten. Auch hierzu wurde eine mögliche Lösung geliefert.

 

SEO mit Google Analytics

David Richter (Consultant bei der takevalue Consulting GmbH)

David Richter - SEO mit Google Analytics
David Richter – SEO mit Google Analytics

Um SEO Prozesse und die Nutzung von Webanalyse zur Kontrolle und Überprüfung der Prozesse ging es bei dem Vortrag von David Richter. Dabei ist er auf einzelne Punkte wie Zieldefinition, IT-SEO, Informationsarchitektur, Contentoptimierung, Internet Popularity und Controlling eingegangen. Interessant fand ich die Möglichkeit, über Google Analytics Trendthemen zu identifizieren. War ein guter Vortrag, um sein Wissen aufzufrischen und einige neue Anreize mitzunehmen.

 

Universal Analytics

Nick Mihailovski (Engineer im Google Analytics Team)

Nick Mihailovski - Universal-Analytics
Nick Mihailovski – Universal-Analytics

Einen schönen Einblick zu Universal Analytics gab es zum Abschluss von Nick Mihailovski. Es wird demnächst einen neuen Google Analytics Code geben, mit dem dann die User mit einer User-ID geräteübergreifend erkannt und getrackt werden können/sollen – egal ob PC, Tablet, TV oder Smartphone. In die Analyse soll mehr und mehr der Offline-Bereich mit einbezogen werden. Wird sicherlich interessant, wie die Datenschützer in Deutschland darauf reagieren werden.

 

Fazit

Die Analytics Summit 2012 war eine interessante und gelungene Konferenz. Wie bei den meisten Konferenzen konnten viele bekannte Punkte wieder aufgefrischt und einige neue mitgenommen werden. Außer dem verspäteten Start und den zu tief hängenden Leinwänden (in den hinteren Sitzreihen konnte nicht immer alles gesehen werden) gibt’s nicht zu beanstanden. Vielen Dank an Timo Aden für den ersten Analytics Summit in Deutschland.

 

Bildergalerie


Weitere Recaps zur Analytics Summit 2012:
http://ganalyticsblog.de/analytics-allgemein/recap-zum-analytics-summit/
http://www.sem-deutschland.de/web-analytics/analytics-summit-recap/
http://www.projecter.de/blog/allgemein/recap-analytics-summit-2012.html
http://andiministrator.de/google-analytics-summit-2012/