Vorwort zur SEO Campixx 2013

Wie in den vergangenen Jahren findet auch 2013 die SEO Campixx im Hotel am Müggelsee statt. Ab Freitag besuchen wieder rund 550 Teilnehmer die Unkonferenz, die durch Marco Janck ins Leben gerufen wurde.

Offizieller Trailer zur SEO-Campixx 2013

Der SEO-Tool Day, in dem es in erster Linie um Tools rund um SEO ging, wird in diesem Jahr durch den Next Level Day ersetzt.

Next Level Day – der Tag 0

Der Next Level Day hat das Ziel den Horizont der Teilnehmer zu erweitert, in dem nicht ausschließlich SEO und klassische Marketing-Themen vorgestellt werden. Der Next Level Day ähnelt dem Programm der M3 Campixx, die im Sommer stattfinden wird. Aufgrund der Vielzahl an Workshops hat man natürlich die Qual der Wahl. Nachfolgende Vorträge haben wir für uns herausgepickt.

Tag 1 der SEO-Campixx 2013

Der erste Campixx-Tag beginnt in der Regel mit einer Begrüßung, v.a. für die Teilnehmer die am Next Level Day nicht teilgenommen haben. Marco Janck wird die SEO-Campixx offiziell eröffnen und im Anschluss gegen 10:30 Uhr beginnen die ersten Workshops.

Natürlich werden wir nicht alle Workshops in Anspruch nehmen können, da es einfach nicht möglich ist, eine solche Vielzahl an Workshops zu besuchen. Somit ist aber bereits für Tag 1 eine gewisse Vorauswahl getroffen worden und die Möglichkeit gegeben, spontan den ein oder anderen Workshop dazwischen zu schieben.

Der Vorteil der SEO-Campixx ist natürlich das Netzwerken mit anderen Teilnehmern, so dass auch in den Pausen die ein oder andere nützliche Information aus nicht besuchten Workshops erworben werden kann.

Tag 2 der SEO Campixx 2013

Am zweiten Tag der SEO-Campixx stehen wieder spannende und lehrreiche Workshops auf dem Plan. Ein besonderes Augenmerk haben wir dabei auf die nachfolgenden Vorträge gelegt.

  • Linkbuilding mit der Wikipedia
    Master: Pierre Kurby
  • Wikipedia-Links auf Affiliate-Projekte
    Master: Michael Antrag
  • WDF/IDF in der Praxis – perfekter Wiederaufbau von Expireds
    Master: Lambertus Kobes
  • Relevante SEO Metriken
    Master: Marcus Tober
  • Einmal Pinguin und zurück – Erfahrungen aus unseren E-Commerce-Projekten
    Master: Thomas Kilian
  • Kundenzufriedenheit vs. SEO
  • Master: Markus Laue

Noch ein nettes Video zur Seo-Campixx mit dem Titel „SEO Campixx 2013 – Die Ruhe vor dem Sturm!“

So – das soll es erstmal gewesen sein, bis zum Recap für die SEO Campixx 2013.

Von „I like“ zum strafbaren Handeln – Datenschutzbehörden gegen Facebook

Es ist ein seit langem schwelender Konflikt in Deutschland, der nun in eine neue Phase getreten ist. Aktueller Auslöser ist die schleswig-holsteinische Aufsichtsbehörde Unabhängiges Landeszentrum für Datenschutz (ULD). Diese hat am 19. August 2011 nach eingehender technischer Analyse, wie es heißt, alle schleswig-holsteinischen Stellen aufgefordert, ihre Facebook-Seiten sowie die Social Media Plugins – speziell den „Gefällt mir“-Button – abzuschalten.

„Von „I like“ zum strafbaren Handeln – Datenschutzbehörden gegen Facebook“ weiterlesen

Inxmail – der t3n Web Award Sieger im E-Mail Marketing stellt sich vor

Über 20.000 Nominierungsvorschläge, mehr als 60.000 Votes beim t3n Web Award. …and the winner is: die E-Mail Marketing Lösung Inxmail Professional! Erfahren Sie mehr über die ausgezeichnete Profisoftware und die Partnerschaft zwischen comspace und dem E-Mail Marketing Experten Inxmail.

„Inxmail – der t3n Web Award Sieger im E-Mail Marketing stellt sich vor“ weiterlesen

Google Update Check für die Webseite von Sistrix

Aus dem Hause Sistrix gibt es nun einen öffentlichen Google Update Checker, womit jeder Website-Betreiber prüfen kann, ob er durch eines der vielen Google Updates betroffen ist und welche Veränderungen im Sistrix Sichtbarkeitsindex entstanden sind.

Sistrix Google Update Check

Die Überprüfung ist dabei recht simpel, einfach die gewünschte Domain eintragen und sofern Sistrix ausreichend historische Informationen über jene Domain besitzt, werden die Sichtbarkeitsveränderungen in der Zeitskala angezeigt. Anzumerken ist, dass der Sichtbarkeitsindex in erster Linie eine Tendenz darstellt und die Veränderungen einzelner Keywordpositionen genauer betrachtet werden sollten.

Google Updates am Beispiel von comspace.de

In der nachfolgenden Grafik ist zu erkennen, dass sich der Sistrix Sichtbarkeitsindex zu der Domain comspace.de während den vergangenen drei Panda Updates geringfügig verbessert hat.

Sistrix Google Updates Checker Sichtbarkeitsindex

Sistrix Smart

Ebenfalls hat Sistrix vor einigen Wochen eine kostenlose Variante der Sistrix Toolbox an den Markt gebracht. Mit Sistrix Smart haben auch Hobby-Webseitenbetreiber die Möglichkeit erste Informationen über eine Domain zu sammeln, zu analysieren und auszuwerten. (Sistrix Smart)

sistrix smart - die kleine toolbox

Google Penguin Update

Nach dem bereits im August 2011 das Google Panda Update die Suchergebnisse ein wenig durcheinander gewirbelt hat, folgte im April 2012 das Pinguin Update / Penguin Update.

Ähnlich wie bei dem Panda Update waren auch Websites und Webportale betroffen, die nicht gegen die Google Webmasterrichtlinien verstießen – wodurch vermutlich wiederum einige Existenzen ins Wanken gerieten. Kollateralschäden sind auch bei einem Google Update nicht auszuschließen, dem entsprechend wird es, wie bereits im Artikel zum Panda Update beschrieben, langfristig immer wichtiger, sich auf mehr als nur eine Traffic-Quelle zu konzentrieren.

Google Penguin Update

Auswirkungen des Penguin Updates

In erster Linie sollte sich das Google Penguin Update an Websites richten, die als überoptimiert gelten.

Zu Beginn war die Frage, worauf sich das überoptimiert bezieht:
Sind damit On-Page Maßnahmen gemeint, wurden zu oft Überschriften deklariert oder ist der Quellcode zu sauber/aufgeräumt? Oder bezieht sich dies auf externe Faktoren wie das Linkbuilding?

Ersteres kann eigentlich nur bedingt eine Ursache sein, schließlich schreibt Google selbst in den Webmaster Richtlinien, dass eine Website zwingend ausreichend strukturiert und technisch einwandfrei arbeiten muss. Bis dato werden durch diese Richtlinien keine Begrenzungen in Bezug auf den Einsatz bestimmter OnPage Elemente gesetzt, so dass hier jedem Websitebetreiber freigestellt wird, wie er seine Website strukturieren und aufbauen möchte. Ausgenommen sind natürlich Techniken wie das Cloaking, die explizit verboten sind. Zudem dürfte der Bereich der On-Page Optimierung mithilfe des Google Panda Updates bereits „abgedeckt“ sein.

Relativ schnell berichteten die Online Marketing Experten davon, dass die externen Faktoren (Offpage), also das Linkbuilding die Problemquelle darstellen. Links, auch Backlinks, fließen seit der Erschaffung des Google PageRank Algorithmus in die Bewertung von Websites mit ein.

Betroffene Ranking-Faktoren

In erster Linie bezieht sich das Update auf gekaufte und nicht organisch aufgebaute Links. Der Kauf wie auch der Handel mit Backlinks ist bereits seit einigen Jahren durch die Google Webmasterrichtlinien verboten – dennoch ist das Linkbuilding ein relevanter Faktor, gerade in umkämpften Nischen.

Frank Doerr berichtet unter dem Pseudonym Loewenherz auf seo-scene.de darüber,

dass primär Webseiten betroffen sind, die bei durchschnittlich mehr als 60 % der eingehenden Links ein Money-Keyword im Archnortext verwenden. In der Regel waren Websites mit weniger als 50 % Money Keywords bei eingehenden Backlinks nicht betroffen. Das lässt darauf schließen, dass das Pinguin Update ein Ankertext Penalty ist.

Bevor jetzt aber die Meinung entsteht, gute Websites dürften bis max. 59 % Money Keywords enthalten, sollte beachtet werden, dass auch Websites mit weniger als 50 % betroffen sind und es hier keine Gesetzmäßigkeit gibt, die dem Websitebetreiber einen Freibrief für 49 % oder 59 % Keyword Backlinks ausstellt. Der Suchmaschinenbetreiber Google wird in Zukunft immer genauer darauf achten, wie sowie mit welchen SEO relevanten Keywords Backlinks aufgebaut wurden und aus welchen Quellen eben diese entspringen.

Eine weitere Auswirkung des Pinguin Updates ist, dass ein gescheiter Linkmix aus themenrelevanten und nicht themenrelevanten Seiten existieren sollte. Dieser Punkt wird auch seit einigen Jahren im Zuge des organischen Linkaufbaus vermittelt.

Exkurs: Was ist ein organischer Link?

Organisch beschreibt in erster Linie, das ein Link natürlich sein sollte. Natürliche Links sind in der Regel Links die z.B. in Foren von Usern gesetzt werden, die anderen Personen mithilfe eines relevanten Links einen Tipp oder gar eine Problemlösung offerieren wollen.

In den seltensten Fällen werden natürliche Links mit einem SEO Keyword versehen, sondern durch Begriffe wie „hier“, „Link“, „schau mal hier“ oder der URL selbst gekennzeichnet.

Was kann getan werden, wenn eine Website betroffen ist?

Grundsätzlich wird es wohl einen Grund haben, warum eine Website von einem Google Penalty betroffen ist und diejenige Personen wird in den meisten Fällen auch wissen, warum die Website durch das Google Pinguin Update in seinen Rankings abgewertet wurde. Dennoch gibt es auch die Möglichkeiten, sein Ranking langfristig wieder zu verbessern.

Anmerkung: Ein Reinclusion-Antrag, also einen Antrag zur Wiederaufnahme in den Index, der in den Google WebmasterTools zur Verfügung gestellt wird, wird wahrscheinlich keinen Nutzen haben. Da dies Update eine Erweiterung des Google Algorithmus ist und kein (manueller) Filter.

Eine Möglichkeit ist es, die gekauften und selbst aufgebauten Backlinks abzubauen, dazu sollten die externen Links durch eine Backlink Analyse vorab durchleuchtet werden.

Der Abbau von Backlinks ist ein strittiges Thema im Online Marketing bzw. in der SEO-Welt. Die einen sind der Meinung, dass somit gegenüber Google gezeigt wird, dass Links, aus ggf. noch nicht bekannten Quellen aufgebaut, wurden – die anderen sehen es als logische Konsequenz um langfristig wieder Erfolge in den Rankings feiern zu dürfen.

Seit Mitte Oktober 2012 hat Google ein Tool in den Google WebmasterTools vorgestellt, womit die Linkkraft von Backlinks entwertet werden kann. Wer jetzt denkt – „super muss ich mir keine Arbeit mehr machen und entwerte die Links über das Tool“ dem sei gesagt, dass Google laut eigener Aussage dies nur zur Verfügung stellt, damit auch die Links entwertet werden können, die selbst nicht abgebaut werden können.

Auch dieses Tool gilt als heikles Thema – es gibt Marketing-Experten die hier von Verrat sprechen, da durch das Abbauen, Entwerten von Links Google Linkquellen und damit auch organisierte Linknetzwerke offenbart werden und kurz- bis langfristig nicht mehr nutzbar sind.

Blognetzwerke, Linknetzwerke und allgemein „kostenlose und günstige Linkquellen Netzwerke“ besitzen schon seit geraumer Zeit nicht mehr die gewünschte Backlink-Qualität. Quantität ist eben nicht gleich Qualität, auch wenn das immer noch nicht jeder wahrhaben möchte.

Bevor sich jetzt jemand an die Arbeit macht und fleißig Backlinks entwertet, die er ggf. gar nicht selbst gesetzt hat, sollte vorab überprüft werden, ob die Website wirklich durch das Pinguin Update betroffen ist – schließlich gibt es mit dem Panda-, Venice-, Freshness- und EMD-Update vier weitere Updates, welche die Google Rankings beeinflussen können.

Was versucht Google mit dem Pinguin Update?

Google versucht Ankertexte (Keywords / Schlagworte die Links kennzeichnen) zu entwerten. D.h. Google will weiterhin das Linkbuilding, den Linkhandel in allen Formen und Farben, entgegen zu wirken.

Was sagt Google offiziell zum Pinguin-Update?

(Quelle: www.website-boosting.de | Prof. Dr. Mario Fischer )

„to reduce webspam and promote high quality content“

Laut dem Suchmaschinenbetreiber Google selbst, waren von der ersten Variante des Pinguin Updates ca. 3 % aller Suchabfragen betroffen.

Literatur

Einen sehr interessanten Artikel zum Penguin-Update hat Hanns Kronenberg aus dem Hause der Sistrix Toolbox heute veröffentlicht. Dabei wurden 50 Domains/Websites überprüft, die durch das Penguin Update betroffen waren bzw. sind und wie sich eben diese Seiten in den vergangenen Monaten entwickelt haben.

Google PageRank Update (Februar 2013)

Es ist allem Anschein nach wieder soweit – Google spielt ein Update des sichtbaren PageRanks ein.

Einst galt der Google PageRank (Algorithmus) als das wichtigste Kriterium, um die Qualität von Websites bestimmten zu können. Die Grundlage war zugleich die Geburt der Suchmaschine Google im Jahre 1998.

Die Aufgabe des PageRank Algorithmus war bzw. ist es, die Qualität von Internetseiten anhand der Anzahl von Backlinks zu bestimmten und Webseiten anhand der daraus resultierenden Gewichtung in den Suchergebnissen zu positionieren. Der sichtbare Pagerank stellt sich in einer Skala von 0 bis 10 dar.

Google PageRank

Während vor Jahren noch diverse Webseitenbetreiber mit Popcorn und ausreichend Flüssignahrung darauf warteten, dass sich der Pagerank verbessert – so hat die Popularität deutlich abgenommen.

Warum der PageRank an Bedeutung verloren hat?

Im Verlauf der letzten 15 Jahren hatten Suchmaschinen wie Google Inc. ausreichend Zeit, nebst dem PageRank weitere Algorithmen (z.B. Google Panda Update), Filter und Extensions zu entwickeln, die zusätzlich die Wertigkeit und Qualität jener Webseiten, die einst nur durch den PageRank in den Suchergebnissen positioniert wurden, anhand von weiteren Kriterien und Muster bestimmen.

Das heißt, der Algorithmus von Suchmaschinen wie Google besteht nicht mehr aus einem Bewertungskriterium, sondern aus vergleichsweise vielen Kriterien, Mustern und Berechnungen. Zum Beispiel ist die Termgewichtung (w = WDF * IDF), die auf www.online-marketing.net sehr ausführlich von Karl Kratz beschrieben wird, ein sehr spannendes Thema.

Ich bin dennoch neugierig und möchte meinen PageRank messen?

Es gibt viele Möglichkeiten, den PageRank zu ermitteln. Mittlerweile gibt es für jeden Browser ausreichend Extensions / Plugins die eine Abfrage erlauben. Alternativ gibt es auch Tools, wie von www.seo-ranking-tools.de, mit denen der PageRank Online abgefragt werden kann.

Google Panda Update

Mit dem sogenannten Google Panda Update hat Google seinem Algorithmus ein Update spendiert, das langfristig die Qualität der Suchergebnisse verbessern soll – demnach ein weiterer Schritt in Richtung „qualitativ hochwertige Suchergebnisse und Websites“.

Google Panda Update in DeutschlandMithilfe des Panda Updates wird seit dem ersten Update im August 2011 die Qualität des Inhalts bewertet und diese Bewertung fließt in das Ranking einer Website ein. Bevor das Update in Deutschland eingespielt wurde, war es im Bereich des Online-Marketings schon länger Gesprächsthema Nr. 1 – zu Beginn lief das Update noch unter dem Namen Farmer Update.

Das Grundproblem, welches die Suchmaschinen sehen ist, dass es immer noch eine Reihe von Websites gibt, die keinen Mehrwert für Besucher liefern und im Endeffekt sinnbefreite Text- und Werbewüsten offerieren.  Denn analog zur Qualität des Inhalts, sollen beim Panda Update auch die eingesetzten Werbeflächen analysiert und bewertet werden – dadurch sollen Websites die zu viel Werbung und wenig nützlichen Inhalt bieten, in den Suchergebnissen abgewertet werden.

Aktuell liegt das Google Panda Update (laut SEOWetter.de) in der Version / Modifikation Nr. 24, vom 23.01.2013, vor.

Kurz zusammengefasst: Das Ziel des Google Panda Updates ist es, die Qualität in den Suchergebnissen mithilfe der Relevanz des Inhaltes stetig zu verbessern.

Auswirkungen des Google Panda Updates

Die Auswirkungen des Panda-Updates im August 2011 waren zum Teil verheerend und einige Internetunternehmen wie auch Privatleute fürchteten um ihre Existenzen. Bekannte wie auch unbekanntere Websites rutschten aufgrund des Updates sehr stark in den Suchergebnissen nach unten und büßten massiv Besucher ein.

Wie bei jedem Update ist es nicht unwahrscheinlich, dass ein Update auch Websites trifft, die es im Endeffekt nicht verdient hätten – genau aus diesem Grund arbeitet der Suchmaschinenbetreiber Google stetig an der Weiterentwicklung seiner Algorithmen.

Die ersten Auswertungen zeigen, dass primär reine Blognetzwerke, RSS-Verzeichnisse, Social News Seiten wie auch Preisvergleichsseiten durch das Update betroffen waren. Mittlerweile hat sich das durch die diversen Optimierungen etwas gelegt. Des Weiteren verloren auch Websites mit Massentexten die fast ausschließlich aus Seo Keywords bestanden und zum Zwecke des Linktauschs gezüchtet wurden – dem entsprechend keinerlei Mehrwert boten, deutlich an Positionen bis hin zur De-Indexierung.

Kurz zusammengefasst: Websites die Lesern einen echten Mehrwert bieten, sind in der Regel nicht von dem Update betroffen. Content-Farmen die nur aus Massentexten und wenig eigene Inhalte bieten werden es auch in Zukunft nicht einfach haben, gewünschte Positionen zu erreichen.

Optimierungspotentiale nach Panda Update erkennen und umsetzen

In Zukunft sollten Webseitenbetreiber versuchen mehr Traffic-Quellen aufzubauen. Zwar besitzt Google in Deutschland einen sehr hohen Marktanteil, dass schließt dennoch, gerade in Social Media Zeiten, nicht aus, dass keine weiteren relevanten Traffic-Quellen erschlossen werden können. Als Traffic-Quellen eignen sich natürlich Facebook, Twitter, Flicker wie auch Pinterest. Langfristig sollte jeder Websitebetreiber versuchen, die Risiken eines wegbrechenden Traffic-Kanals zu verteilen.

Neben der Steigerung der Traffic-Quellen sollte auch ein Augenmerk auf die eigene Website gelegt werden.  Grundsätzlich sollte die Qualität des Inhalts gesteigert werden, in dem diese auch explizit für die Leserschaft und nicht für etwaige Suchmaschinen geschrieben werden.

Zusätzlich eignen sich einige On-Page Optimierungsmöglichkeiten für die Verbesserung der eigenen Webseite, d.h. saubere Strukturierung, Verwendung von Bild- und Bildunterschriften. Zusätzlich sollten mit Analyse-Programmen Absprungraten und Ladezeiten bestimmt werden, um so eigene Fehler zu erkennen und diese bei Bedarf zu beheben.

Digitale Städte: New York und Bielefeld im Vergleich

Screenshot der Facebookpage der Stadt Bielefeld

Im Januar 2011 hat sich New York zum Ziel gesetzt, die weltführende digitale Stadt zu werden und gründet dieses Vorhaben auf 5 Säulen:

Die Roadmap der Stadt New York lässt sich bei Slideshare in diesem Dokument nachlesen: Becoming a Digital City with HootSuite. Der Themenschwerpunkt auf HootSuite rührt daher, weil es von den Mitarbeitern der Stadt New York als Social Media Management Tool eingesetzt wird. Welches Tool die Stadt Bielefeld genau nutzt, um all die weiter unten aufgeführten Kanäle zu bespielen konnte ich noch nicht heraus bekommen, werde die Info aber asap nachliefern. Hier bei comspace nutzen wir derzeit ebenfalls Hootsuite um Twitter, Facebook und unsere Google+ Seite mit Inhalten zu versorgen.

Screenshot der Facebookpage der Stadt Bielefeld
Screenshot der Facebookpage der Stadt Bielefeld

Zugegeben:

NYC und Bielefeld miteinander zu vergleichen ist schon etwas gewagt. Seit ich auf den Beitrag im Hootsuite Blog gestoßen bin frage ich mich, in wie weit die Digital Roadmap von New York wohl auch etwas für Bielefeld wäre, denn eine Digitale Stadt muss ja nicht gleich Weltmetropole sein. Dabei ist mir aufgefallen, dass Bielefeld schon sehr viel richtig macht:

Das ist schon eine ganze Menge, was Bielefeld anbietet und kann sich durchaus als Digital City bezeichnen – ob sie nun Hootsuite benutzt oder nicht 😉

Webtrekk veröffentlich die Deutsche Webstatistik für das 4. Quartal 2012

Webtrekk-Logo

Webtrekk hat die Deutsche Webstatistik für das 4. Quartal 2012 veröffentlicht aus denen einige interessante Zahlen hervorgehen:

  • Einer von acht Zugriffen auf das Internet erfolgt mit einem Smartphone oder Tablet
  • Apples mobile Geräte büßen im Langzeittrend Marktdominanz ein; Samsung Galaxy-Modelle knacken 10%-Hürde
  • Windows 7 ist meistgenutztes Betriebssystem im deutschen Web und stärker als XP und Vista zusammen
  • Seit Untersuchungsbeginn vor drei Jahren werden 9 von 10 Suchanfragen in Deutschland über Google-Suchschlitz gestartet

Die komplette Statistik gibt es auf der Webtrekk-Website.

Analytics Summit 2012 – Recap – Erste Google Analytics Konferenz in Deutschland

Am 29.11.12 war es in Hamburg soweit: Die erste reine Google Analytics Konferenz (Analytics Summit) wurde gestartet. Als Location wurde für die von Timo Aden organisierte Konferenz mit ca. 250 Teilnehmern das alte Hauptzollamt in der Hamburger Speicherstadt genutzt.

Nach ca. 50 Min. Verspätung, bedingt durch einen Stau in der Garderobe, ging die Konferenz nach einer kurzen Ansprache von Timo Aden dann los.

 

ROI-Optimierung im Internet. Früher, heute und morgen

Moritz Habermann (Senior Key Account Manager bei Google Germany)

Moritz Habermann Google Analytics
Moritz Habermann Google Analytics

Moritz Habermann legte los mit der Geschichte der Webanalyse und der Entwicklung von Google Analytics. Dass es Google Analytics erst seit 7 Jahren gibt, war mir auch noch nicht so bewusst. Gefühlt bin ich von 10 Jahren ausgegangen. Auch auf die Entwicklung für das nächste Jahr wurde eingegangen. 2013 steht im Zeichen von Universal Analytics. Weiterhin wurden noch auf Themen wie das Attribution Modeling Tool und die 90/10 Regel eingegangen.

Zum Schluss gab‘s noch die Aussage, dass die jetzige Definition zu Web Analytics (ein Analyst analysiert Daten über Besuche zu einer Webseite) zugunsten der zukünftigen Marketing Analytics Definition (ein Unternehmen trifft Entscheidungen basierend auf dem Kundenverhalten) weichen sollte.

 

Case (ProSiebenSat.1): Web Analyse und Datenmanagement auf Portalen

Jürgen Popp (Director Business Intelligence bei der ProSiebenSat.1 Digital GmbH)

Jürgen Popp - Web Analyse und Datenmanagement auf Portalen
Jürgen Popp – Web Analyse und Datenmanagement auf Portalen

Ein interessanter Einblick in die ProSiebenSat.1 Digital GmbH wurde uns von Jürgen Popp gewährt. Zum Beispiel wird Myvideo als eigener Sender gesehen wie ProSieben, SAT1 oder Kabel1 auch. Zusammen mit den Fernsehsendern und den Portalen (sevenload, zatoo) gehört ProSiebenSat.1 Digital zu den Top Vermarktern im Bereich von Bewegtbild-Inhalten im Internet.
Um die Heterogenität bei den Webbesuchern in der Analyse herauszunehmen wird bei ProSiebenSat.1 Digital mit dem Einsatz von erweiterten Segmenten gearbeitet.

 

Content Experiments (Testing)

Christian Böhme (Geschäftsführer bei e-wolff)

Christian Böhme - Content Experiments
Christian Böhme – Content Experiments

Bei diesem Vortrag ging es darum wie User erneut auf die Webseite zu bekommen sind, welche Testing Möglichkeiten und Prozesse es gibt um dieses zu erreichen. Ein Weg um die User zum Bestellen oder Reservierung zu bringen, wäre die Verknappung von Produkten oder Dienstleistungen. Wenn auf einer Reiseseite steht, dass nur noch 5 Plätze frei sind, diese Seite gerade von 14 weiteren Personen angesehen wird und die letzte Reservierung vor 4 min. in Saudi-Arabien getätigt wurde kann das zu einem schnelleren Abschluss führen. Mit einem A/B Test könnte dann die Wirksamkeit der Maßnahme überprüft werden. Wichtig ist bei allen Testings dass diese über einen längeren Zeitraum laufen und nicht zu früh abgebrochen werden.

 

Case (Zalando-Lounge): Google Analytics und Ecommerce

Martin Rost (Mitgründer und CMO von Zalando Lounge)

Martin Rost - Zalando Lounge
Martin Rost – Zalando Lounge

Martin Rost erzählte in seinem Vortrag dass nach der responsive Webdesign Umsetzung der Seite die Nutzer in den verschiedenen responsive Stufen getrackt wurden.

Ziel war es herauszufinden, wie die User in den einzelnen Stufen agieren. Um Affiliates auf Domain Dropping zu überprüfen, nutzt Zalando Lounge die Daten aus dem Kampagnentracking.

 

Future Trends

Nick Sohnemann (Global Innovation Advisor bei TrendONE)

Nick Sohnemann - Future Trends
Nick Sohnemann – Future Trends

Weiter ging‘s nach dem Lunch mit Nick Sohnemann und dem Thema Future Trends. Der Vortrag war sehr energiegeladen und kurzweilig. Es ging weniger um Webanalyse, sondern vielmehr um die technische Entwicklung in der Zukunft und wie sich diese auf uns auswirkt z.B. biegsame Bildschirme, Google Glasses, selbstfahrende Autos, Gesichtserkennung, Echtzeit Übersetzung von Texten auf Schildern und Plakate, Gamification, etc.

 

Social Media Tracking

Tim Sebastian (Web Analyse und Conversion Optimierung  beiTrakken Web Services)

Tim Sebastian - Social Media Tracking
Tim Sebastian – Social Media Tracking

Vor dem Vortrag war mir gar nicht bewusst, wie schwierig es ist, Daten von Facebook Apps zu tracken. Tim Sebastian hat einige Lösungswege aufgezeigt, um die Zugriffe auf Facebook Apps zu tracken.

Interessant fand ich, dass Foren zu den am längsten bestehenden Social Mediakanälen zählen und auch getrackt werden sollten. Auch hierzu wurde eine mögliche Lösung geliefert.

 

SEO mit Google Analytics

David Richter (Consultant bei der takevalue Consulting GmbH)

David Richter - SEO mit Google Analytics
David Richter – SEO mit Google Analytics

Um SEO Prozesse und die Nutzung von Webanalyse zur Kontrolle und Überprüfung der Prozesse ging es bei dem Vortrag von David Richter. Dabei ist er auf einzelne Punkte wie Zieldefinition, IT-SEO, Informationsarchitektur, Contentoptimierung, Internet Popularity und Controlling eingegangen. Interessant fand ich die Möglichkeit, über Google Analytics Trendthemen zu identifizieren. War ein guter Vortrag, um sein Wissen aufzufrischen und einige neue Anreize mitzunehmen.

 

Universal Analytics

Nick Mihailovski (Engineer im Google Analytics Team)

Nick Mihailovski - Universal-Analytics
Nick Mihailovski – Universal-Analytics

Einen schönen Einblick zu Universal Analytics gab es zum Abschluss von Nick Mihailovski. Es wird demnächst einen neuen Google Analytics Code geben, mit dem dann die User mit einer User-ID geräteübergreifend erkannt und getrackt werden können/sollen – egal ob PC, Tablet, TV oder Smartphone. In die Analyse soll mehr und mehr der Offline-Bereich mit einbezogen werden. Wird sicherlich interessant, wie die Datenschützer in Deutschland darauf reagieren werden.

 

Fazit

Die Analytics Summit 2012 war eine interessante und gelungene Konferenz. Wie bei den meisten Konferenzen konnten viele bekannte Punkte wieder aufgefrischt und einige neue mitgenommen werden. Außer dem verspäteten Start und den zu tief hängenden Leinwänden (in den hinteren Sitzreihen konnte nicht immer alles gesehen werden) gibt’s nicht zu beanstanden. Vielen Dank an Timo Aden für den ersten Analytics Summit in Deutschland.

 

Bildergalerie


Weitere Recaps zur Analytics Summit 2012:
http://ganalyticsblog.de/analytics-allgemein/recap-zum-analytics-summit/
http://www.sem-deutschland.de/web-analytics/analytics-summit-recap/
http://www.projecter.de/blog/allgemein/recap-analytics-summit-2012.html
http://andiministrator.de/google-analytics-summit-2012/