Tool-Tip: SocialBench – Analyse und Vergleich von Facebook-Fanseiten

Ein Bekannter von mir – Sven Wiesner – arbeitet an SocialBench mit und schickte mir letztens einen Testzugang für das Analyse Programm für Facebook-Fanpages. Ich muss sagen, ich bin schwer begeistert von SocialBench.

Was kann Social Bench?

Ob Sie nun Ihre eigenen Fanseiten monitoren und analysieren oder auch einen dauerhaften Blick auf die Wettbewerber haben möchten: SocialBench kann beides.

Social Bench Dashboard

Sie stellen sich in Listen die Facebook-Pages zusammen, die Sie beobachten wollen und SocialBench macht den Rest und analysiert den Verlauf von Likes, die hinzugekommen sind, Interaktionen, Freundeszuwachs oder -Abgang uvm. Das besonders Aufschlussreiche ist eben die Gegenüberstellungsmöglichkeit von mehreren Seiten.

Mein Test-Objekt waren die deutschsprachigen Webseiten der Autohersteller in Deutschland. Ich habe nur die deutschsprachigen ausgewählt ,um eine Vergleichbarkeit herstellen zu können. Eine aktuelle Übersicht über die Top3 (die man wöchentlich per E-Mail erhält) sieht so aus:

Top3 Facebookseiten deutscher Autohersteller

 

Gut zu sehen sind hier die aktuellen Entwicklungen im Vergleich zur Vorwoche individuell und im Vergleich zum Wettbewerb. Bspw. lassen sich so wertvolle Informationen darüber erhalten, durch welche Aktionen auf Facebook eher mehr oder eher weniger Erfolg erzielt wurde.

Bereits 2011 haben die Kollegen bei SocialBench 2500 Fanseiten analysiert und ihre Erkenntnisse in einer Infografik festgehalten:

Infografik Deuschte Beiträge auf Facebook von SocialBench

Im Blog von SocialBench werden wöchentlich die Top25 Facebook-Seiten in Deutschland vorgestellt – ein längerfristiges Ranking der deutschen Facebokopages gibt es hier.

Weitere Monitoring und Analyse Tools für Facebook finden Sie in diesem Blog-Artikel hier.

Richtlinien zum technischen Aufbau von Webinhalten: Webcrawler, Aktualität und Geschwindigkeit (Teil 2)

Auch bei den technischen Richtlinien gibt es einige Vorgaben, die in den Google Webmaster Richtlinien Erwähnung finden und nebst den Webmasterrichtlinien zur Gestaltung von Webinhalten als Unterstützung für die Optimierung der eigenen Webseite dienen.

Überprüfung der Webseite durch einen textbasierten Browser

Lynx Viewer vom Comspace Blog
Lynx-Abbild von Comspace Blog

In erster Linie darf man sich einen Crawler, der Webseiten erfasst und ausliest, wie einen einfachen Textbrowser vorstellen. Gängige Browser wie der Mozilla Firefox, Google Chrome, Apple Safari oder den bekannten Microsoft Internet Explorer sind in der heutigen Zeit in der Lage, Webseiten in voller Pracht anzuzeigen, das heißt vorhandene Grafiken oder auch Flash-Videos werden nach dem Wunsch der Seitenbetreiber dargestellt. Textbrowser, wie beispielsweise Lynx, stellen Webseiten – wie der Name es schon sagt – in reiner Textform dar. Bilder und andere Elemente wie zum Beispiel Videos werden in einem Textbrowser nicht angezeigt.

Des Weiteren sind in einem Textbrowser diverse Funktionen wie JavaScripte, Cookies und Session-IDs nicht nutzbar bzw. können für Probleme sorgen. Ähnlich agieren auch Webcrawler – auch wenn diese mittlerweile weiterentwickelt wurden und relativ leistungsfähig sind, kann ein Webcrawler mit den oben genannten Elementen auf einer Webseite Probleme haben.

Pauschal lassen sich natürlich nicht alle Elemente auf einer Webseite entfernen – ein Onlineshop ohne entsprechende Bilder oder Produktvideos wäre im Jahre 2012 undenkbar. Dem entsprechend ist hier die technische Aufgabe des Webseitenbetreibers dafür zu sorgen, dass die Crawler der Suchmaschinen es möglichst einfach haben, die Inhalte der Webseite zu crawlen.

Zum einen hat der Webseitenbetreiber die Möglichkeit, seine Internetpublikation mithilfe des eben erwähnen Lynx Textbrowsers zu prüfen – zum anderen bieten aber auch die Google Webmaster Tools die Möglichkeit, eine Webseite durch einen Crawler abzurufen und sich das Ergebnis ausgeben zu lassen.

Exkurs: Cloaking und ungeeignete Techniken

Die obigen Gründe und die anfänglichen Schwierigkeiten hatten zur Folge, dass in der Anfangszeit des kommerziellen World Wide Webs diverse Techniken entwickelt wurden, die dafür sorgten, dass Suchmaschinen wie Google beim Besuch einer Webseite komplett andere Inhalte angezeigt wurden als dem Endverbraucher. Die Technik war dabei relativ einfach: Wenn eine Webseite besucht wurde, wurde zu Beginn abgefragt, ob es sich um einen realen Besucher handelt oder ob hier ein Suchmaschinencrawler unterwegs ist – sobald ein Suchmaschinencrawler erkannt wurde, zeigte man diesem einfach die Webseite in einer anderen Form.

Mittlerweile sind solche Techniken seitens der Suchmaschinen nicht sonderlich gern gesehen und können im Ranking zu Abwertungen führen. Diese Technik machten sich natürlich auch andere Personen zu Nutze und verschleierten somit Inhalte, die nicht zwangsläufig in Suchergebnissen auftauchen sollten bzw. die seitens der Suchmaschine erst gar nicht erkannt werden sollten.

Suchmaschinen die Aktualität der Seite präsentieren

Im ersten Teil „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts“ wurde bereits angesprochen, dass die Qualität des Inhalts eine wichtige Rolle für ein positives Ranking innerhalb der Suchmaschinen spielt. Nebst der Qualität des Inhalts ist auch die Aktualität, sprich wie oft neue Inhalte publiziert oder ältere Inhalte aktualisiert werden, relevant und sorgt natürlich auch dafür, dass Crawler eine Webseite regelmäßiger besuchen könnten. Wenn ein Crawler bemerkt, dass eine Webseite regelmäßig bzw. täglich neue Inhalte veröffentlicht, wird auch der Crawling-Rhythmus automatisch angepasst.

Um dem Crawler relativ schnell mitzuteilen, ob neue Inhalte verfügbar sind, empfehlen die Google Webmaster Richtlinien die Verwendung des http-Headers “If-Modifies-Since“. Anhand dieser Funktion teilt der Webserver dem Crawler mit, wann neue Inhalte auf der Internetseite veröffentlicht wurden – natürlich kann dies auch anhand der Webseite an sich geschehen, wenn beispielsweise eine Zeitangabe für die Erstellung des Artikels existiert. Im Gegensatz zu der Zeitangabe auf der Webseite besitzt die Lösung des http-Headers den Vorteil, dass Bandbreite eingespart werden kann.

Inhalte vor dem Crawler schützen

robots-txt - Alle Suchmaschinen dürfen Inhalte durchsuchen und indexieren
Suchmaschinen ist das Durchsuchen/Indexieren der Webinhalte erlaubt

Selbst in der heutigen Zeit sind für viele Webseiten-Betreiber Begriffe wie Robots.txt und Meta-Robot ein Fremdwort. Doch dabei ist es nicht verkehrt, dem Suchmaschinen-Crawler mithilfe einer Robots.txt mitzuteilen, welche Verzeichnisse durchsucht werden sollen und welche eben nicht durchsucht werden sollen – schließlich muss nicht jeder Inhalt oder gar jedes Bild im Index der Suchmaschinen dargestellt werden.

Besonders wichtig ist dabei, dass der Webseitenbetreiber selbst die vorgenommenen Anweisungen in der eigenen Robots.txt kontrolliert, da es auch passieren kann, dass Suchmaschinen-Crawler komplett ausgeschlossen werden. Als Hilfsmittel für die Kontrolle eigenen sich die Google Webmaster Tools, womit zum einen die Robots.txt geprüft werden kann und zum anderen die Seite durch einen Crawler abgerufen werden kann. An den Resultaten lässt sich erkennen, wie der Google-Bot die Webseite sieht und natürlich welche Inhalte der Bot abgreifen kann und welche nicht.

Das Tool aus den Google Webmaster-Tools nennt sich übrigens „robots.txt“-Analyse Tool.

Informationen zur Erstellung einer Robots.txt finden sich auf nachfolgenden Seiten:

Neben der Erstellung einer Robots.txt gibt es auch die Möglichkeit für einzelne HTML-Seiten mittels dem Meta-Tag „<meta name=“robots“ content=“index,follow“ />“ bestimmte Einstellungen vorzunehmen, die einem Suchmaschinen-Crawler mitteilen, ob die Inhalte indexiert werden dürfen („index“) oder nicht indexiert werden dürfen („noindex“). Zudem kann angegeben werden, ob den Links auf der einzelnen Seite gefolgt („follow“) oder nicht gefolgt („nofollow“) werden sollen.

Die Webseite auf Herz und Nieren testen (Teil 2.1)

Aufgrund des Themenumfangs behandle ich diesen Punkt in einem separaten Artikel. Lesen Sie die Fortsetzung in „Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Weitere Artikel zum Thema Google Webmaster Richtlinien

Seo Poster 2012: Gewinnspiel von Martin Missfeldt

Seo Poster 2011 - Neuauflage für 2012

Bereits im vergangenen Jahr hat Martin Missfeldt sein sogenanntes Seo Poster erschaffen und für eine Vielzahl von Personen sehr schöne Avatare im Comic-Stil gezeichnet. Da laut eigener Aussage sich die Anfragen häufen, bietet  Martin auch in diesem Jahr seine Fähigkeiten an.

Nebst dem konventionellen Weg zum Erwerb eines solchen Avatars, gibt es fünf Comic-Avatare zu gewinnen.

Wie sieht ein Comic-Avatar aus?

Die meisten Leser werden sich nun fragen, wie so ein Comic-Avatar ausschaut. Ein Bild vom Stil der Avatare kann man sich wunderbar durch das Seo Poster 2011 machen.

Als Grundlage für die Zeichnung dient ein Profil-Foto, das natürlich eine gewisse Aussagekraft besitzen sollte. Das bedeutet, das Gesicht derjenigen Person sollte klar zu erkennen sein – dem entsprechend eignet sich für die Bestellung bspw. ein Passfoto.

Seo Poster 2011 - Neuauflage für 2012

Ich möchte am Gewinnspiel teilnehmen…

Bis zum kommenden Dienstag, den 22.05.2012, besteht die Möglichkeit an dem Gewinnspiel teilzunehmen. Die Teilnahme ist denkbar einfach, dazu reicht es beispielsweise den Hauptartikel von Martin per Twitter zu verteilen und dies mit dem Hashtag #comicavatar zu versehen.

Auch andere Möglichkeiten für die Teilnahme durch den Einsatz von Google Plus und auch Facebook sind gegeben. Diese können im Artikel von Martin nachgelesen werden.

Kein Erfolg beim Gewinnspiel gehabt…

Sicherlich nehmen eine Vielzahl von Personen an dem Gewinnspiel teil, so bietet Martin auch die Möglichkeit ein passendes Avatar zu erwerben – mit rund 25 € zzgl. 7 % Mwst. kann sich jeder ein Avatar zaubern lassen.

Wofür sich ein Avatar eignet?

Ein solches Avatar eignet sich hervorragend für die Nutzung im Social Media Bereich, sei es bei Facebook, Google Plus oder Twitter. Gerade für Blogger kann ein Avatar in Verbindung mit dem Dienst Gravatar genutzt werden.

Vorwort zum SEO-Tool Day und zur SEO-Campixx

Wie bereits berichtet, nehmen wir auch in diesem Jahr an der SEO-Campixx (als Teilnehmer und Sponsor) teil. Die Erwartungen, gerade an den SEO-Tool Day, der bereits am Freitag vor der eigentlichen Konferenz stattfindet, sind natürlich groß.

Der SEO-Tool Day

SEO Campixx 2012 TooldayAm SEO-Tool Day geht es nicht darum, sich einen Überblick über aktuelle SEO-Tools zu verschaffen, sondern vielmehr darum, interessante Tools zu vergleichen und natürlich die Erfahrung mitzunehmen, wie die Entwickler selbst mit dem Tool arbeiten.

Den SEO-Tool Day werden wir zum größten Teil im Saal verbringen, um die Tools Searchmetrics Essentials, Link Research Tool und natürlich Sistrix Toolbox im Produktiveinsatz anzuschauen. Besonders interessant an den Tools ist zum einen die gebotene Leistung wie auch die Möglichkeit der Kombination dieser Tools.

Tag 1 der SEO-Campixx

Der erste Tag beginnt üblicherweise mit der Begrüßung und kleinen Vorstellungsrunden der Teilnehmer. Im Anschluss gegen 10:30 Uhr beginnen auch die ersten Vorträge.

Aufgrund der Vielzahl an Vorträgen, knapp 60 pro Tag und meist 12 zur gleichen Zeit, hat man natürlich die Qual der Wahl. Nachfolgende Vorträge haben wir für uns herausgepickt.

    • WP Amazon Affiliate Blogs from the scratch
      Master: Jens Ole Korting
    • Google News Debusting und Best/Worst Practice
      Master: Johan Hülsen, Sebastian Carlo
    • Linkaufbau Trampelpfade – Effektive Generierung hochwertiger BL abseits des Mainstreams
      Master: Björn Tantau
    • Monetarisierung: Mehr Umsatz für Content Seiten
      Master: Arthur Mai
    • Innovatives Linkbuilding mit FlickR, RSS, Copyscape & Tynt
      Master: Marco Verch
    • Mit Minisites in Nischen und im Longtail Geld verdienen
      Master: Alexander Hacker, David Reisner
    • Erfolgreicher Linkaufbau an echten Beispielen
      Master: Sasa Ebach
  • Live „wie projektierte ich eine neue Expired Domain in einer Campixx Session“
    Master: Oliver Hauser

Die obige Liste ist natürlich noch sehr lang und die Wahrscheinlichkeit, dass alle Workshops mitgenommen werden können, ist leider gering. Allerdings ist für Tag 1 eine gewisse Vorauswahl getroffen und somit kann kurzfristig noch überlegt werden, welche dieser Workshops auch wahrgenommen werden. Der Vorteil der SEO-Campixx ist die Möglichkeit des Netzwerkens und somit ist auch die Möglichkeit gegeben mit anderen Personen in ein Gesprach zu kommen, auch wenn der Workshop nicht besucht werden konnte.

Tag 2 der SEO-Campixx

Auch am 2ten und zugleich letzten Tag der SEO-Campixx im Jahre 2012 erwarten uns spannende und hoffentlich lehrreiche Workshops – ein besonderes Augenmerk haben wir auf die nachfolgenden Workshops gelegt.

    • SEO Potentialprognosen – Vom Glaskugelblick zur Wissenschaft
      Master: Johannes Reimann, Siwen Zhang
    • Wenn visuelle Aspekte und Trust neben Social Signals auf Link Ressourcen immer wichtiger werden
      Master: Carsten Riemer
    • Prozessoptimierung beim Aufbau von Linknetzten mit Expired Domains
      Master: Nicolas Sacotte
    • SEO und UGC?
      Master: Sebastian Sälzle
    • Automatisierung mit UBot Studio
      Master: Stefan Oversberg
    • Linkaufbau automatisieren – Macht der Macros
      Master: Christian Schmidt
    • Content Syndication: Mit Duplicate Content Geld verdienen
      Master: Niels Dahnke
    • Scrapebox – Ein Einstieg abseits von bloßen Kommentarspam
      Master: Daniel Schramm
  • Fallstudie: Linkaufbau mit Presseverteilern
    Master: Frank Doerr

Abschließend gibt es noch eine Auswertung, wo die Teilnehmer der Campixx die spannenden zwei bzw. drei Tage Revue passieren lassen können – gegen 17:30 Uhr ist die Veranstaltung offiziell beendet.

Ein kurzes Fazit

Wir sind natürlich schon jetzt voller Vorfreude auf die 3-Tage SEO Campixx in Berlin und sind gespannt darauf, welche Workshops wir mitnehmen werden und welche interessanten Persönlichkeiten, wie zum Beispiel Soeren Eisenschmidt, wir antreffen werden.

Content Marketing – The next big thing?

Ok, ich gebe zu: Die Überschrift ist ein bisschen arg reißerisch. Content Marketing hat es in unterschiedlichen Ausprägungen schon immer gegeben: Kundenzeitschriften, Advertorials, Informationssendungen usw. kann man auch als klassisches Content Marketing bezeichnen.

Die wesentliche Funktion von Content Marketing ist es, den Kunden zu informieren. Es geht weniger um werbliche Inhalte oder um die reine Produkt-Vorstellung, als dem Kunden zu zeigen, was er wie mit bestimmten Produkten oder Dienstleistungen tun kann.

Online Content Marketing

Bei diesem Blog handelt es sich bsw. ebenfalls um Content Marketing. Wir bieten Ihnen hier Informationen über unser Unternehmen, unsere Mitarbeiter, was uns beschäftigt und natürlich auch, was wir für Sie tun können. In manchen Beiträgen werden wir sicherlich auch einmal ein Produkt vorstellen, das Sie direkt aus diesem Blog heraus buchen können.

Unsere eigentliche Intention ist dabei viel mehr, Sie einen Blick hinter die Kulissen werfen zu lassen. Mit aktuellen, spannenden Inhalten – Content eben – möchten wir Ihnen zeigen, was wir alles für Sie tun können. Wenn Sie in diesem Blog etwas entdecken, bei dem Sie sich denken „Das können wir in unserem Unternehmen auch gut gebrauchen!“ Dann nehmen Sie einfach Kontakt zu uns auf.

Der Unternehmens-Content – das KnowHow zahlt somit direkt ins Firmen-Marketing ein.

Marketing für den Content

Der Begriff kann natürlich auch anders herum verstanden werden: Bestimmte Inhalte werden vermarktet. Marketing für den Content also. Das kann das persönliche Gespräch auf dem Messestand sein, bei dem Werbe-Unterlagen überreicht werden.

Ebensogut können Web-Services verwendet werden, um Online-Content in entsprechenden Kanälen zu bewerben.

Ob es sich dabei um digitalte Güter und Dienstleistungen oder auch kostenlose Materialien handelt, bei denen die Wertschöpfung erst später im Prozess entsteht ist dabei relativ unerheblich. Eines der wichtigsten Kriterien ist vielmehr die Conversion-Rate. Also wie viele der Menschen, die ein bestimmtes Angebot zu sehen bekommen, nehmen dieses Angebot auch an?

Die Ideal-Lösung in diesem Fall ist selbst verständlich Content, der für sich selbst spricht und durch seinen hohen Wert für den Nutzer (Unterhaltung, Service, Information usw) weiter empfohlen wird.

Beispiel aus unserer Praxis

Getreu dem alten Motto Eat your own dogfood: Letzte Woche haben wir in unserem Newsletter auf eine Installations-Anleitung für Open Text – eines unserer CMS Produkte – hingewiesen. Damit konnten wir 3 Fliegen mit einer Klappe… Sie wissen schon:

  1. Service für unsere Kunden über den Inhalt
  2. Der Inhalt als Marketing für unser CMS-Portfolio
  3. Der Newsletter als Marketing für den Inhalt

Wir betrachten es nicht nur als unseren Job, Content Management Systeme zu integrieren, sondern kümmern uns auch darum, wie ein CMS und der darin enthaltene Content effektiv eingesetzt werden kann.