Google Update Check für die Webseite von Sistrix

Aus dem Hause Sistrix gibt es nun einen öffentlichen Google Update Checker, womit jeder Website-Betreiber prüfen kann, ob er durch eines der vielen Google Updates betroffen ist und welche Veränderungen im Sistrix Sichtbarkeitsindex entstanden sind.

Sistrix Google Update Check

Die Überprüfung ist dabei recht simpel, einfach die gewünschte Domain eintragen und sofern Sistrix ausreichend historische Informationen über jene Domain besitzt, werden die Sichtbarkeitsveränderungen in der Zeitskala angezeigt. Anzumerken ist, dass der Sichtbarkeitsindex in erster Linie eine Tendenz darstellt und die Veränderungen einzelner Keywordpositionen genauer betrachtet werden sollten.

Google Updates am Beispiel von comspace.de

In der nachfolgenden Grafik ist zu erkennen, dass sich der Sistrix Sichtbarkeitsindex zu der Domain comspace.de während den vergangenen drei Panda Updates geringfügig verbessert hat.

Sistrix Google Updates Checker Sichtbarkeitsindex

Sistrix Smart

Ebenfalls hat Sistrix vor einigen Wochen eine kostenlose Variante der Sistrix Toolbox an den Markt gebracht. Mit Sistrix Smart haben auch Hobby-Webseitenbetreiber die Möglichkeit erste Informationen über eine Domain zu sammeln, zu analysieren und auszuwerten. (Sistrix Smart)

sistrix smart - die kleine toolbox

Google Penguin Update

Nach dem bereits im August 2011 das Google Panda Update die Suchergebnisse ein wenig durcheinander gewirbelt hat, folgte im April 2012 das Pinguin Update / Penguin Update.

Ähnlich wie bei dem Panda Update waren auch Websites und Webportale betroffen, die nicht gegen die Google Webmasterrichtlinien verstießen – wodurch vermutlich wiederum einige Existenzen ins Wanken gerieten. Kollateralschäden sind auch bei einem Google Update nicht auszuschließen, dem entsprechend wird es, wie bereits im Artikel zum Panda Update beschrieben, langfristig immer wichtiger, sich auf mehr als nur eine Traffic-Quelle zu konzentrieren.

Google Penguin Update

Auswirkungen des Penguin Updates

In erster Linie sollte sich das Google Penguin Update an Websites richten, die als überoptimiert gelten.

Zu Beginn war die Frage, worauf sich das überoptimiert bezieht:
Sind damit On-Page Maßnahmen gemeint, wurden zu oft Überschriften deklariert oder ist der Quellcode zu sauber/aufgeräumt? Oder bezieht sich dies auf externe Faktoren wie das Linkbuilding?

Ersteres kann eigentlich nur bedingt eine Ursache sein, schließlich schreibt Google selbst in den Webmaster Richtlinien, dass eine Website zwingend ausreichend strukturiert und technisch einwandfrei arbeiten muss. Bis dato werden durch diese Richtlinien keine Begrenzungen in Bezug auf den Einsatz bestimmter OnPage Elemente gesetzt, so dass hier jedem Websitebetreiber freigestellt wird, wie er seine Website strukturieren und aufbauen möchte. Ausgenommen sind natürlich Techniken wie das Cloaking, die explizit verboten sind. Zudem dürfte der Bereich der On-Page Optimierung mithilfe des Google Panda Updates bereits „abgedeckt“ sein.

Relativ schnell berichteten die Online Marketing Experten davon, dass die externen Faktoren (Offpage), also das Linkbuilding die Problemquelle darstellen. Links, auch Backlinks, fließen seit der Erschaffung des Google PageRank Algorithmus in die Bewertung von Websites mit ein.

Betroffene Ranking-Faktoren

In erster Linie bezieht sich das Update auf gekaufte und nicht organisch aufgebaute Links. Der Kauf wie auch der Handel mit Backlinks ist bereits seit einigen Jahren durch die Google Webmasterrichtlinien verboten – dennoch ist das Linkbuilding ein relevanter Faktor, gerade in umkämpften Nischen.

Frank Doerr berichtet unter dem Pseudonym Loewenherz auf seo-scene.de darüber,

dass primär Webseiten betroffen sind, die bei durchschnittlich mehr als 60 % der eingehenden Links ein Money-Keyword im Archnortext verwenden. In der Regel waren Websites mit weniger als 50 % Money Keywords bei eingehenden Backlinks nicht betroffen. Das lässt darauf schließen, dass das Pinguin Update ein Ankertext Penalty ist.

Bevor jetzt aber die Meinung entsteht, gute Websites dürften bis max. 59 % Money Keywords enthalten, sollte beachtet werden, dass auch Websites mit weniger als 50 % betroffen sind und es hier keine Gesetzmäßigkeit gibt, die dem Websitebetreiber einen Freibrief für 49 % oder 59 % Keyword Backlinks ausstellt. Der Suchmaschinenbetreiber Google wird in Zukunft immer genauer darauf achten, wie sowie mit welchen SEO relevanten Keywords Backlinks aufgebaut wurden und aus welchen Quellen eben diese entspringen.

Eine weitere Auswirkung des Pinguin Updates ist, dass ein gescheiter Linkmix aus themenrelevanten und nicht themenrelevanten Seiten existieren sollte. Dieser Punkt wird auch seit einigen Jahren im Zuge des organischen Linkaufbaus vermittelt.

Exkurs: Was ist ein organischer Link?

Organisch beschreibt in erster Linie, das ein Link natürlich sein sollte. Natürliche Links sind in der Regel Links die z.B. in Foren von Usern gesetzt werden, die anderen Personen mithilfe eines relevanten Links einen Tipp oder gar eine Problemlösung offerieren wollen.

In den seltensten Fällen werden natürliche Links mit einem SEO Keyword versehen, sondern durch Begriffe wie „hier“, „Link“, „schau mal hier“ oder der URL selbst gekennzeichnet.

Was kann getan werden, wenn eine Website betroffen ist?

Grundsätzlich wird es wohl einen Grund haben, warum eine Website von einem Google Penalty betroffen ist und diejenige Personen wird in den meisten Fällen auch wissen, warum die Website durch das Google Pinguin Update in seinen Rankings abgewertet wurde. Dennoch gibt es auch die Möglichkeiten, sein Ranking langfristig wieder zu verbessern.

Anmerkung: Ein Reinclusion-Antrag, also einen Antrag zur Wiederaufnahme in den Index, der in den Google WebmasterTools zur Verfügung gestellt wird, wird wahrscheinlich keinen Nutzen haben. Da dies Update eine Erweiterung des Google Algorithmus ist und kein (manueller) Filter.

Eine Möglichkeit ist es, die gekauften und selbst aufgebauten Backlinks abzubauen, dazu sollten die externen Links durch eine Backlink Analyse vorab durchleuchtet werden.

Der Abbau von Backlinks ist ein strittiges Thema im Online Marketing bzw. in der SEO-Welt. Die einen sind der Meinung, dass somit gegenüber Google gezeigt wird, dass Links, aus ggf. noch nicht bekannten Quellen aufgebaut, wurden – die anderen sehen es als logische Konsequenz um langfristig wieder Erfolge in den Rankings feiern zu dürfen.

Seit Mitte Oktober 2012 hat Google ein Tool in den Google WebmasterTools vorgestellt, womit die Linkkraft von Backlinks entwertet werden kann. Wer jetzt denkt – „super muss ich mir keine Arbeit mehr machen und entwerte die Links über das Tool“ dem sei gesagt, dass Google laut eigener Aussage dies nur zur Verfügung stellt, damit auch die Links entwertet werden können, die selbst nicht abgebaut werden können.

Auch dieses Tool gilt als heikles Thema – es gibt Marketing-Experten die hier von Verrat sprechen, da durch das Abbauen, Entwerten von Links Google Linkquellen und damit auch organisierte Linknetzwerke offenbart werden und kurz- bis langfristig nicht mehr nutzbar sind.

Blognetzwerke, Linknetzwerke und allgemein „kostenlose und günstige Linkquellen Netzwerke“ besitzen schon seit geraumer Zeit nicht mehr die gewünschte Backlink-Qualität. Quantität ist eben nicht gleich Qualität, auch wenn das immer noch nicht jeder wahrhaben möchte.

Bevor sich jetzt jemand an die Arbeit macht und fleißig Backlinks entwertet, die er ggf. gar nicht selbst gesetzt hat, sollte vorab überprüft werden, ob die Website wirklich durch das Pinguin Update betroffen ist – schließlich gibt es mit dem Panda-, Venice-, Freshness- und EMD-Update vier weitere Updates, welche die Google Rankings beeinflussen können.

Was versucht Google mit dem Pinguin Update?

Google versucht Ankertexte (Keywords / Schlagworte die Links kennzeichnen) zu entwerten. D.h. Google will weiterhin das Linkbuilding, den Linkhandel in allen Formen und Farben, entgegen zu wirken.

Was sagt Google offiziell zum Pinguin-Update?

(Quelle: www.website-boosting.de | Prof. Dr. Mario Fischer )

„to reduce webspam and promote high quality content“

Laut dem Suchmaschinenbetreiber Google selbst, waren von der ersten Variante des Pinguin Updates ca. 3 % aller Suchabfragen betroffen.

Literatur

Einen sehr interessanten Artikel zum Penguin-Update hat Hanns Kronenberg aus dem Hause der Sistrix Toolbox heute veröffentlicht. Dabei wurden 50 Domains/Websites überprüft, die durch das Penguin Update betroffen waren bzw. sind und wie sich eben diese Seiten in den vergangenen Monaten entwickelt haben.

Google PageRank Update (Februar 2013)

Es ist allem Anschein nach wieder soweit – Google spielt ein Update des sichtbaren PageRanks ein.

Einst galt der Google PageRank (Algorithmus) als das wichtigste Kriterium, um die Qualität von Websites bestimmten zu können. Die Grundlage war zugleich die Geburt der Suchmaschine Google im Jahre 1998.

Die Aufgabe des PageRank Algorithmus war bzw. ist es, die Qualität von Internetseiten anhand der Anzahl von Backlinks zu bestimmten und Webseiten anhand der daraus resultierenden Gewichtung in den Suchergebnissen zu positionieren. Der sichtbare Pagerank stellt sich in einer Skala von 0 bis 10 dar.

Google PageRank

Während vor Jahren noch diverse Webseitenbetreiber mit Popcorn und ausreichend Flüssignahrung darauf warteten, dass sich der Pagerank verbessert – so hat die Popularität deutlich abgenommen.

Warum der PageRank an Bedeutung verloren hat?

Im Verlauf der letzten 15 Jahren hatten Suchmaschinen wie Google Inc. ausreichend Zeit, nebst dem PageRank weitere Algorithmen (z.B. Google Panda Update), Filter und Extensions zu entwickeln, die zusätzlich die Wertigkeit und Qualität jener Webseiten, die einst nur durch den PageRank in den Suchergebnissen positioniert wurden, anhand von weiteren Kriterien und Muster bestimmen.

Das heißt, der Algorithmus von Suchmaschinen wie Google besteht nicht mehr aus einem Bewertungskriterium, sondern aus vergleichsweise vielen Kriterien, Mustern und Berechnungen. Zum Beispiel ist die Termgewichtung (w = WDF * IDF), die auf www.online-marketing.net sehr ausführlich von Karl Kratz beschrieben wird, ein sehr spannendes Thema.

Ich bin dennoch neugierig und möchte meinen PageRank messen?

Es gibt viele Möglichkeiten, den PageRank zu ermitteln. Mittlerweile gibt es für jeden Browser ausreichend Extensions / Plugins die eine Abfrage erlauben. Alternativ gibt es auch Tools, wie von www.seo-ranking-tools.de, mit denen der PageRank Online abgefragt werden kann.

Google Panda Update

Mit dem sogenannten Google Panda Update hat Google seinem Algorithmus ein Update spendiert, das langfristig die Qualität der Suchergebnisse verbessern soll – demnach ein weiterer Schritt in Richtung „qualitativ hochwertige Suchergebnisse und Websites“.

Google Panda Update in DeutschlandMithilfe des Panda Updates wird seit dem ersten Update im August 2011 die Qualität des Inhalts bewertet und diese Bewertung fließt in das Ranking einer Website ein. Bevor das Update in Deutschland eingespielt wurde, war es im Bereich des Online-Marketings schon länger Gesprächsthema Nr. 1 – zu Beginn lief das Update noch unter dem Namen Farmer Update.

Das Grundproblem, welches die Suchmaschinen sehen ist, dass es immer noch eine Reihe von Websites gibt, die keinen Mehrwert für Besucher liefern und im Endeffekt sinnbefreite Text- und Werbewüsten offerieren.  Denn analog zur Qualität des Inhalts, sollen beim Panda Update auch die eingesetzten Werbeflächen analysiert und bewertet werden – dadurch sollen Websites die zu viel Werbung und wenig nützlichen Inhalt bieten, in den Suchergebnissen abgewertet werden.

Aktuell liegt das Google Panda Update (laut SEOWetter.de) in der Version / Modifikation Nr. 24, vom 23.01.2013, vor.

Kurz zusammengefasst: Das Ziel des Google Panda Updates ist es, die Qualität in den Suchergebnissen mithilfe der Relevanz des Inhaltes stetig zu verbessern.

Auswirkungen des Google Panda Updates

Die Auswirkungen des Panda-Updates im August 2011 waren zum Teil verheerend und einige Internetunternehmen wie auch Privatleute fürchteten um ihre Existenzen. Bekannte wie auch unbekanntere Websites rutschten aufgrund des Updates sehr stark in den Suchergebnissen nach unten und büßten massiv Besucher ein.

Wie bei jedem Update ist es nicht unwahrscheinlich, dass ein Update auch Websites trifft, die es im Endeffekt nicht verdient hätten – genau aus diesem Grund arbeitet der Suchmaschinenbetreiber Google stetig an der Weiterentwicklung seiner Algorithmen.

Die ersten Auswertungen zeigen, dass primär reine Blognetzwerke, RSS-Verzeichnisse, Social News Seiten wie auch Preisvergleichsseiten durch das Update betroffen waren. Mittlerweile hat sich das durch die diversen Optimierungen etwas gelegt. Des Weiteren verloren auch Websites mit Massentexten die fast ausschließlich aus Seo Keywords bestanden und zum Zwecke des Linktauschs gezüchtet wurden – dem entsprechend keinerlei Mehrwert boten, deutlich an Positionen bis hin zur De-Indexierung.

Kurz zusammengefasst: Websites die Lesern einen echten Mehrwert bieten, sind in der Regel nicht von dem Update betroffen. Content-Farmen die nur aus Massentexten und wenig eigene Inhalte bieten werden es auch in Zukunft nicht einfach haben, gewünschte Positionen zu erreichen.

Optimierungspotentiale nach Panda Update erkennen und umsetzen

In Zukunft sollten Webseitenbetreiber versuchen mehr Traffic-Quellen aufzubauen. Zwar besitzt Google in Deutschland einen sehr hohen Marktanteil, dass schließt dennoch, gerade in Social Media Zeiten, nicht aus, dass keine weiteren relevanten Traffic-Quellen erschlossen werden können. Als Traffic-Quellen eignen sich natürlich Facebook, Twitter, Flicker wie auch Pinterest. Langfristig sollte jeder Websitebetreiber versuchen, die Risiken eines wegbrechenden Traffic-Kanals zu verteilen.

Neben der Steigerung der Traffic-Quellen sollte auch ein Augenmerk auf die eigene Website gelegt werden.  Grundsätzlich sollte die Qualität des Inhalts gesteigert werden, in dem diese auch explizit für die Leserschaft und nicht für etwaige Suchmaschinen geschrieben werden.

Zusätzlich eignen sich einige On-Page Optimierungsmöglichkeiten für die Verbesserung der eigenen Webseite, d.h. saubere Strukturierung, Verwendung von Bild- und Bildunterschriften. Zusätzlich sollten mit Analyse-Programmen Absprungraten und Ladezeiten bestimmt werden, um so eigene Fehler zu erkennen und diese bei Bedarf zu beheben.

Digitale Städte: New York und Bielefeld im Vergleich

Screenshot der Facebookpage der Stadt Bielefeld

Im Januar 2011 hat sich New York zum Ziel gesetzt, die weltführende digitale Stadt zu werden und gründet dieses Vorhaben auf 5 Säulen:

Die Roadmap der Stadt New York lässt sich bei Slideshare in diesem Dokument nachlesen: Becoming a Digital City with HootSuite. Der Themenschwerpunkt auf HootSuite rührt daher, weil es von den Mitarbeitern der Stadt New York als Social Media Management Tool eingesetzt wird. Welches Tool die Stadt Bielefeld genau nutzt, um all die weiter unten aufgeführten Kanäle zu bespielen konnte ich noch nicht heraus bekommen, werde die Info aber asap nachliefern. Hier bei comspace nutzen wir derzeit ebenfalls Hootsuite um Twitter, Facebook und unsere Google+ Seite mit Inhalten zu versorgen.
Screenshot der Facebookpage der Stadt Bielefeld
Screenshot der Facebookpage der Stadt Bielefeld

Zugegeben:

NYC und Bielefeld miteinander zu vergleichen ist schon etwas gewagt. Seit ich auf den Beitrag im Hootsuite Blog gestoßen bin frage ich mich, in wie weit die Digital Roadmap von New York wohl auch etwas für Bielefeld wäre, denn eine Digitale Stadt muss ja nicht gleich Weltmetropole sein. Dabei ist mir aufgefallen, dass Bielefeld schon sehr viel richtig macht:

Das ist schon eine ganze Menge, was Bielefeld anbietet und kann sich durchaus als Digital City bezeichnen – ob sie nun Hootsuite benutzt oder nicht 😉

Webtrekk veröffentlich die Deutsche Webstatistik für das 4. Quartal 2012

Webtrekk-Logo

Webtrekk hat die Deutsche Webstatistik für das 4. Quartal 2012 veröffentlicht aus denen einige interessante Zahlen hervorgehen:

  • Einer von acht Zugriffen auf das Internet erfolgt mit einem Smartphone oder Tablet
  • Apples mobile Geräte büßen im Langzeittrend Marktdominanz ein; Samsung Galaxy-Modelle knacken 10%-Hürde
  • Windows 7 ist meistgenutztes Betriebssystem im deutschen Web und stärker als XP und Vista zusammen
  • Seit Untersuchungsbeginn vor drei Jahren werden 9 von 10 Suchanfragen in Deutschland über Google-Suchschlitz gestartet

Die komplette Statistik gibt es auf der Webtrekk-Website.

Analytics Summit 2012 – Recap – Erste Google Analytics Konferenz in Deutschland

Am 29.11.12 war es in Hamburg soweit: Die erste reine Google Analytics Konferenz (Analytics Summit) wurde gestartet. Als Location wurde für die von Timo Aden organisierte Konferenz mit ca. 250 Teilnehmern das alte Hauptzollamt in der Hamburger Speicherstadt genutzt.

Nach ca. 50 Min. Verspätung, bedingt durch einen Stau in der Garderobe, ging die Konferenz nach einer kurzen Ansprache von Timo Aden dann los.

 

ROI-Optimierung im Internet. Früher, heute und morgen

Moritz Habermann (Senior Key Account Manager bei Google Germany)

Moritz Habermann Google Analytics
Moritz Habermann Google Analytics

Moritz Habermann legte los mit der Geschichte der Webanalyse und der Entwicklung von Google Analytics. Dass es Google Analytics erst seit 7 Jahren gibt, war mir auch noch nicht so bewusst. Gefühlt bin ich von 10 Jahren ausgegangen. Auch auf die Entwicklung für das nächste Jahr wurde eingegangen. 2013 steht im Zeichen von Universal Analytics. Weiterhin wurden noch auf Themen wie das Attribution Modeling Tool und die 90/10 Regel eingegangen.

Zum Schluss gab‘s noch die Aussage, dass die jetzige Definition zu Web Analytics (ein Analyst analysiert Daten über Besuche zu einer Webseite) zugunsten der zukünftigen Marketing Analytics Definition (ein Unternehmen trifft Entscheidungen basierend auf dem Kundenverhalten) weichen sollte.

 

Case (ProSiebenSat.1): Web Analyse und Datenmanagement auf Portalen

Jürgen Popp (Director Business Intelligence bei der ProSiebenSat.1 Digital GmbH)

Jürgen Popp - Web Analyse und Datenmanagement auf Portalen
Jürgen Popp – Web Analyse und Datenmanagement auf Portalen

Ein interessanter Einblick in die ProSiebenSat.1 Digital GmbH wurde uns von Jürgen Popp gewährt. Zum Beispiel wird Myvideo als eigener Sender gesehen wie ProSieben, SAT1 oder Kabel1 auch. Zusammen mit den Fernsehsendern und den Portalen (sevenload, zatoo) gehört ProSiebenSat.1 Digital zu den Top Vermarktern im Bereich von Bewegtbild-Inhalten im Internet.
Um die Heterogenität bei den Webbesuchern in der Analyse herauszunehmen wird bei ProSiebenSat.1 Digital mit dem Einsatz von erweiterten Segmenten gearbeitet.

 

Content Experiments (Testing)

Christian Böhme (Geschäftsführer bei e-wolff)

Christian Böhme - Content Experiments
Christian Böhme – Content Experiments

Bei diesem Vortrag ging es darum wie User erneut auf die Webseite zu bekommen sind, welche Testing Möglichkeiten und Prozesse es gibt um dieses zu erreichen. Ein Weg um die User zum Bestellen oder Reservierung zu bringen, wäre die Verknappung von Produkten oder Dienstleistungen. Wenn auf einer Reiseseite steht, dass nur noch 5 Plätze frei sind, diese Seite gerade von 14 weiteren Personen angesehen wird und die letzte Reservierung vor 4 min. in Saudi-Arabien getätigt wurde kann das zu einem schnelleren Abschluss führen. Mit einem A/B Test könnte dann die Wirksamkeit der Maßnahme überprüft werden. Wichtig ist bei allen Testings dass diese über einen längeren Zeitraum laufen und nicht zu früh abgebrochen werden.

 

Case (Zalando-Lounge): Google Analytics und Ecommerce

Martin Rost (Mitgründer und CMO von Zalando Lounge)

Martin Rost - Zalando Lounge
Martin Rost – Zalando Lounge

Martin Rost erzählte in seinem Vortrag dass nach der responsive Webdesign Umsetzung der Seite die Nutzer in den verschiedenen responsive Stufen getrackt wurden.

Ziel war es herauszufinden, wie die User in den einzelnen Stufen agieren. Um Affiliates auf Domain Dropping zu überprüfen, nutzt Zalando Lounge die Daten aus dem Kampagnentracking.

 

Future Trends

Nick Sohnemann (Global Innovation Advisor bei TrendONE)

Nick Sohnemann - Future Trends
Nick Sohnemann – Future Trends

Weiter ging‘s nach dem Lunch mit Nick Sohnemann und dem Thema Future Trends. Der Vortrag war sehr energiegeladen und kurzweilig. Es ging weniger um Webanalyse, sondern vielmehr um die technische Entwicklung in der Zukunft und wie sich diese auf uns auswirkt z.B. biegsame Bildschirme, Google Glasses, selbstfahrende Autos, Gesichtserkennung, Echtzeit Übersetzung von Texten auf Schildern und Plakate, Gamification, etc.

 

Social Media Tracking

Tim Sebastian (Web Analyse und Conversion Optimierung  beiTrakken Web Services)

Tim Sebastian - Social Media Tracking
Tim Sebastian – Social Media Tracking

Vor dem Vortrag war mir gar nicht bewusst, wie schwierig es ist, Daten von Facebook Apps zu tracken. Tim Sebastian hat einige Lösungswege aufgezeigt, um die Zugriffe auf Facebook Apps zu tracken.

Interessant fand ich, dass Foren zu den am längsten bestehenden Social Mediakanälen zählen und auch getrackt werden sollten. Auch hierzu wurde eine mögliche Lösung geliefert.

 

SEO mit Google Analytics

David Richter (Consultant bei der takevalue Consulting GmbH)

David Richter - SEO mit Google Analytics
David Richter – SEO mit Google Analytics

Um SEO Prozesse und die Nutzung von Webanalyse zur Kontrolle und Überprüfung der Prozesse ging es bei dem Vortrag von David Richter. Dabei ist er auf einzelne Punkte wie Zieldefinition, IT-SEO, Informationsarchitektur, Contentoptimierung, Internet Popularity und Controlling eingegangen. Interessant fand ich die Möglichkeit, über Google Analytics Trendthemen zu identifizieren. War ein guter Vortrag, um sein Wissen aufzufrischen und einige neue Anreize mitzunehmen.

 

Universal Analytics

Nick Mihailovski (Engineer im Google Analytics Team)

Nick Mihailovski - Universal-Analytics
Nick Mihailovski – Universal-Analytics

Einen schönen Einblick zu Universal Analytics gab es zum Abschluss von Nick Mihailovski. Es wird demnächst einen neuen Google Analytics Code geben, mit dem dann die User mit einer User-ID geräteübergreifend erkannt und getrackt werden können/sollen – egal ob PC, Tablet, TV oder Smartphone. In die Analyse soll mehr und mehr der Offline-Bereich mit einbezogen werden. Wird sicherlich interessant, wie die Datenschützer in Deutschland darauf reagieren werden.

 

Fazit

Die Analytics Summit 2012 war eine interessante und gelungene Konferenz. Wie bei den meisten Konferenzen konnten viele bekannte Punkte wieder aufgefrischt und einige neue mitgenommen werden. Außer dem verspäteten Start und den zu tief hängenden Leinwänden (in den hinteren Sitzreihen konnte nicht immer alles gesehen werden) gibt’s nicht zu beanstanden. Vielen Dank an Timo Aden für den ersten Analytics Summit in Deutschland.

 

Bildergalerie


Weitere Recaps zur Analytics Summit 2012:
http://ganalyticsblog.de/analytics-allgemein/recap-zum-analytics-summit/
http://www.sem-deutschland.de/web-analytics/analytics-summit-recap/
http://www.projecter.de/blog/allgemein/recap-analytics-summit-2012.html
http://andiministrator.de/google-analytics-summit-2012/

5 Tipps: Facebook für den Mittelstand

Auf dem gestrigen Onlinestammtisch OWL 5.0 hatten wir Dr. Gunnar Bender zu Gast, der in seiner Funktion als Director Policy bei Facebook Deutschland einen Impulsvortrag zum Thema „Facebook für den Mittelstand“ hielt.

Für alle, die gestern nicht dabei sein konnten, möchten wir hier 5 Tipps anbieten, die Dr. Gunnar Bender uns gestern mitgegeben hat.

Eine Umfrage der Bitkom Research GmbH vom Anfang des Jahres belegt ein Umsatzwachstum bei mehr als 1/3 der deutschen Mittelständler, die Facebook nutzen. 56% der Unternehmen haben neue Kunden durch den Einsatz von Facebook gewonnen und sogar 69% gaben an, den Bekanntheitsgrad ihres Unternehmens gesteigert zu haben. Hinzu kommen Innovationen, die aus offener Kommunikation mit Kunden über die Plattform Facebook entstehen, sowie Erfolge beim Erschließen neuer Märkte und ein positives Ergebnis bei der Mitarbeiter-Rekrutierung. Ein Unternehmen, dass sich offen darstellt und vor allem ansprechbar macht, ist als potenzieller Arbeitgeber attraktiv.

Eine der wichtigsten Erkenntnisse ist sicherlich, dass die reine Anzahl an gewonnenen Fans nicht der Maßstab für den Erfolg eines Facebook-Auftritts sein sollte. Vielmehr die Anzahl und Qualität der Interaktionen, die auf einer Unternehmens-Fanpage stattfinden, sind interessant. Die entsprechende Maßzahl lautet demnach in den Insight-Statistiken „Sprechen darüber“.

Laden Sie sich das angefügte PDF-Dokument mit den 5 Tipps für den Mittelstand hier herunter, das uns freundlicherweise von Facebook Deutschland zur Verfügung gestellt wurde! Darin finden Sie wertvolle Anregungen, wie und warum sich eine Präsenz auf Facebook für Ihr Unternehmen lohnt.

Sie erfahren unter anderem wie Sie:

  • Facebook-Seiten mit Social by Design anlegen
  • Soziale Umgebung schaffen
  • Mit den Kunden gemeinsam neue Produkte entwickeln
  • Neue Märkte erschließen
  • Günstig und relevant auf Facebook werben

Darüber hinaus erhalten Sie weitere Informationen zum Datenschutz bei Facebook

Und Sie lernen 3 kleine und mittelständische Unternehmen kennen, die auf Facebook aktiv sind:

Boarders München

  • Snow-, Surf- und Skateboards und dazu gehöriges Equipment
  • Eröffnet im August 2010, auf Facebook seit September 2010 (Facebook wird als einziges online Medium genutzt).
  • Binnen eines Jahres erhöhte sich der Umsatz des Unternehmens um 32%. Außerdem wurden im selben Zeitraum 33% mehr Snowboards verkauft.
  • Facebook-Seite: https://www.facebook.com/boarders.muenchen

Trachten Angermaier

  • Bayerische Trachten, Dirndl, Lederhosen und Accessoires
  • Gegründet 1949, auf Facebook seit März 2011
  • Seitdem wurden bei Trachten Angermaier acht neue Mitarbeiter eingestellt, der Umsatz erhöhte sich im letzten Jahr um knapp 20%
  • Facebook-Seite: https://www.facebook.com/AngermaierTrachten

Tarterie St. Pauli

  • Kleines Bistro im Hamburger Stadtteil St.Pauli, mit dem sich ein junger Hamburger im Frühjahr 2011 selbständig gemacht hat („Einmann-Betrieb“)
  • Facebook-Seite wird als kostengünstige Alternative zur eigenen Webseite genutzt, d.h. abgesehen von der Facebook-Seite besteht keine zusätzliche Internetpräsenz
  • Facebook-Seite: https://www.facebook.com/tarterie

 

Downloadlink – 5 Tipps zu Facebook für den Mittelstand

 

 

Tool-Tip: SocialBench – Analyse und Vergleich von Facebook-Fanseiten

Ein Bekannter von mir – Sven Wiesner – arbeitet an SocialBench mit und schickte mir letztens einen Testzugang für das Analyse Programm für Facebook-Fanpages. Ich muss sagen, ich bin schwer begeistert von SocialBench.

Was kann Social Bench?

Ob Sie nun Ihre eigenen Fanseiten monitoren und analysieren oder auch einen dauerhaften Blick auf die Wettbewerber haben möchten: SocialBench kann beides.

Social Bench Dashboard

Sie stellen sich in Listen die Facebook-Pages zusammen, die Sie beobachten wollen und SocialBench macht den Rest und analysiert den Verlauf von Likes, die hinzugekommen sind, Interaktionen, Freundeszuwachs oder -Abgang uvm. Das besonders Aufschlussreiche ist eben die Gegenüberstellungsmöglichkeit von mehreren Seiten.

Mein Test-Objekt waren die deutschsprachigen Webseiten der Autohersteller in Deutschland. Ich habe nur die deutschsprachigen ausgewählt ,um eine Vergleichbarkeit herstellen zu können. Eine aktuelle Übersicht über die Top3 (die man wöchentlich per E-Mail erhält) sieht so aus:

Top3 Facebookseiten deutscher Autohersteller

 

Gut zu sehen sind hier die aktuellen Entwicklungen im Vergleich zur Vorwoche individuell und im Vergleich zum Wettbewerb. Bspw. lassen sich so wertvolle Informationen darüber erhalten, durch welche Aktionen auf Facebook eher mehr oder eher weniger Erfolg erzielt wurde.

Bereits 2011 haben die Kollegen bei SocialBench 2500 Fanseiten analysiert und ihre Erkenntnisse in einer Infografik festgehalten:

Infografik Deuschte Beiträge auf Facebook von SocialBench

Im Blog von SocialBench werden wöchentlich die Top25 Facebook-Seiten in Deutschland vorgestellt – ein längerfristiges Ranking der deutschen Facebokopages gibt es hier.

Weitere Monitoring und Analyse Tools für Facebook finden Sie in diesem Blog-Artikel hier.

Google SEO: Ist Suchmaschinenoptimierung für Google böse?

Google SEO - Ist Suchmaschinenoptimierung für Google böse

Es kommt nicht selten vor, dass Personen die Suchmaschinenoptimierung pauschal als ein negatives Instrument im Online Marketing ansehen. Gerade in Bezug auf das sogenannte Google SEO ist relativ viel Negatives zu hören. Die Frage, die es sich dabei zu stellen gilt ist in erster Linie, was ist Suchmaschinenoptimierung und widerspricht sie den Google Webmaster Richtlinien?

Was ist eigentlich SEO?

Google SEO - Ist Suchmaschinenoptimierung für Google böse

SEO steht in erster Linie für den englischen Begriff „search engine optimization“, was übersetzt Suchmaschinenoptimierung bedeutet und ist ein Teilbereich des Suchmaschinenmarketings. Die Suchmaschinenoptimierung wird in die Teilbereiche OnPage und Offpage unterteilt. Während OnPage sämtliche Optimierungsmaßnahmen beschreibt, die an einer Website direkt vorgenommen werden können, bezieht sich Offpage auf externe Faktoren wie z.B. Backlinks.

Allgemein zielt die Suchmaschinenoptimierung darauf ab, dass Websites insbesondere deren Inhalte unter bestimmten Keywords (Schlagworten) in den Suchergebnissen (SERPS) besser positioniert werden. Die Aufgabe dabei ist, bestehende Websites anhand ihres Aufbaus, ihrer Struktur und ihren Inhalten zu analysieren und die vorhandenen Optimierungspotentiale herauszufiltern. Diese werden anschließend in Verbindung mit dem Websitebetreiber gezielt umgesetzt.

Es kommt gelegentlich vor, dass bereits bei den Begriffen „Optimierungspotentiale herausfiltern“ und „Optimierungspotentiale umsetzen“ die ersten Personen von Voodoo, schwarzer Magie und bösartigem Manipulieren der Suchergebnisse sprechen.

Frage: Ist das Optimieren und Verbessern der eigenen Website schwarze Magie oder gar böse?

Eigentlich nicht, schließlich sollte es das Ziel eines jeden Websitebetreibers sein, den potentiellen Besuchern die bestmögliche Qualität zu bieten. Und warum sollten diese Inhalte ggf. aufgrund von mangelnder Optimierung dem potentiellen Kunden verborgen bleiben?!

Ist die Suchmaschinenoptimierung im Sinne der Suchmaschinen böse?

Die Suchmaschinen wie zum Beispiel Google oder Bing verbieten die Optimierung der Website nicht. Das bedeutet aber nicht, dass es nicht auch Verfahren gibt, die den Suchmaschinenbetreibern ein deutliches Dorn im Auge sind.

Dem entsprechend ist auch in den Webmaster Richtlinien von Google explizit definiert, dass manipulative Verfahren wie z.B. das Cloaking nicht erwünscht sind und zur Abwertung im Google Ranking bis hin zur Deindexierung von Webseiten führen können (Google Penalty). Ebenso ist das aktive Linkbuilding (Link Building) /der aktive Linkaufbau, d.h. der Kauf oder Linktausch von Links seitens der Suchmaschinen nicht gewünscht.

Im Klartext bedeutet das – ja, es gibt Verfahren, die von Suchmaschinen als negativ eingestuft werden, aber wer sich im Rahmen der Google Richtlinien bewegt, hat die Möglichkeit, seine Website entsprechend zu optimieren.

Zusammenfassung: SEO dient der Optimierung!

Suchmaschinenoptimierung ist weder ein böses Instrument noch schwarze Magie. Sondern dient der Optimierung und Verbesserung von Websites einschließlich deren Inhalte. Es gibt Verfahren, die von den Suchmaschinen strikt verboten sind und dem entsprechend auch nicht zum Einsatz kommen sollten. Wer sich aber im Rahmen der Webmaster Richtlinien der Suchmaschinen bewegt, hat die Erlaubnis als auch die Möglichkeit seine Potentiale auszuschöpfen und die Website entsprechend zu optimieren.