WordPress 3.4 „Green“ veröffentlicht

Neue Version von Wordpress

Die Entwickler der begehrten Blog-Software WordPress haben die neue Version 3.4 für den Download freigegeben. Eigentlich wurde diese Version bereits im Monat April/Mai erwartet – durfte aber erst jetzt, nach den letzten finalen Tests, das Licht der Welt erblicken.

Die neue WordPress Version hat den Beinamen bzw. Codenamen „Green“ – Der Beiname „Green“ ist eine Widmung an dem im Januar 1979 verstorbenen Jazzgitarristen und Komponisten Grant Green.

Wordpress 3.4 - Green

Die Neuerungen im Überblick

Die neue Version 3.4 von WordPress bietet eine Reihe von interessanten Neuerungen für die Blogger-Community.

Theme Live-Vorschau

Die größte Neuerung ist wahrscheinlich die Theme-Vorschau, mit der sich Themes vor dem aktivieren anpassen und sich das Resultat in einer Live-Vorschau anzeigen lassen kann. Gerade für Einsteiger, die das erste Mal mit WordPress oder einem Content-Management-System arbeiten, stellt die Theme-Vorschau eine sinnvolle und hilfreiche Erweiterung dar.

WordPress Themes in Version 1.4

Nebst der Erweiterung der Theme-Vorschau erhielten die WordPress eigenen Themes „Twenty Eleven“ und „Twenty Ten“ ein Facelift und können anhand der neuen Vorschaufunktion komplett individuell angepasst werden.

Dies bezüglich gibt WordPress z.B. bei der Größe von Header-Bildern nur noch Empfehlungen vor und lässt somit dem Anwender die Möglichkeit die Größenverhältnisse der Themes selbst zu bestimmen.

Tweets in Artikel integrieren

https://twitter.com/comspace/status/212821962249080832

Ganz neu ist das Feature der Integration von Twitter-Tweets in WordPress-Artikel, welche dann automatisch mit entsprechenden Links zum „retweeten“ eingebunden werden. Auch wenn Twitter-Ausgaben auf Blogs in der Regel nichts Neues sind, so wurde dies meist mithilfe von Plugins gelöst, die durch die neue Funktion ggf. abgelöst werden.

Bildunterschriften endlich einfach erstellen

Bildunterschrift in WordPress 3.4
Ich bin eine Bildunterschrift

Das Thema „Bildunterschriften“ war schon länger ein Thema in der WordPress Community, da die vorhandenen Möglichkeiten nicht sonderlich angenehm waren und gerade für den Laien ein Hindernis  waren.

Die Version „Green“ erlaubt nun die Verwendung von HTML, so dass sehr simpel Copyrighthinweise oder zusätzliche alternative Inhalte für Bilder eingebunden werden können. Gerade in Bezug auf die Usability ist dies ein Fortschritt.

Diverse kleine Updates

Wie üblich gibt es auch bei einem relativ großen Versions Update auch viele kleinere Updates die gemacht werden. Beispielsweise werden Sicherheitslücken geschlossen, sofern welche vorhanden sind oder auch die Performance der Software optimiert. Der komplette Changelog kann hier eingesehen werden.

Download- und Installationsinformationen

Die neue WordPressversion 3.4 steht in der Originalsprachversion (WordPress 3.4) und in der deutschen Sprachversion (WordPress 3.4 DE) zum Download bereit.Wer hilfe bei der Installation und Konfiguration benötigt, findet diese auf den Seiten von wpDE.org unter FAQ sowie eine Anleitung zur Installation von WordPress.

 

Der gute alte Google PageRank

PageRank von Comspace

Jedes Mal aufs Neue, sobald sich die Anzeige des Google PageRanks verändert, diskutieren die Seo- und Marketingexperten darüber, welche Wertigkeit der PageRank in der heutigen Zeit besitzt.

Rückblick in die Anfangszeit des PageRank Algorithmus

Der Google PageRank-Algorithmus stammt, wie der Name eigentlich schon sagt, aus dem Hause von Google und diente als Grundlage der modernen Suchmaschine.

Die Aufgabe des PageRank-Algorithmus war die Qualität von Internetseiten anhand ihrer Linkpopularität, also Links die auf eine Webseite verweisen, zu gewichten und Webseiten anhand der Bewertung in den Serps (Suchergebnissen) zu positionieren. Im Hinterkopf sollten wir dabei aber behalten, dass der Algorithmus weitaus komplexer ist, als wir ihn hier dargestellt haben.

PageRank von Comspace

Der öffentliche PageRank wird in einer Skala von 0 bis 10 dargestellt. Webseiten mit einem hohen PageRank wurde lange Zeit nachgesagt, dass diese von der Qualität besser sind als Webseiten, die einen niedrigeren PageRank besitzen. Das Problem dabei war nur, dass der PageRank aufgrund des Linkhandels manipuliert werden konnte und deshalb kein ausreichendes Qualitätsmerkmal für gute Inhalte darstellte.

Linkhandel – Linktausch und Linkverkauf

Aufgrund dessen, dass relativ schnell klar war, welche Bedeutung der PageRank hat, erlebte der Linkhandel einen Aufschwung und Links/Backlinks wurden in verschiedenen Formen gehandelt.

Dem entsprechend wurde auch viel Kritik an dem PageRank laut, da finanzkräftige Unternehmen in der Lage waren Backlinks zu kaufen. Mittlerweile verstößt der Handel mit Links, ob Kauf oder Tausch, gegen die Google Webmasterrichtlinien.

Google hat sich nicht nur als Unternehmen durch viele seiner Dienste wie GoogleMail oder GooglePlus weiterentwickelt, auch der Google Algorithmus ist mittlerweile deutlich größer und facettenreicher als zu Zeiten, wo der PageRank einer der wenigen Qualitätsmerkmale war. Besonders durch diverse Algorithmus Updates wie zum Beispiel das Panda Update (einst auch Farmer Update) und Pinguin Update versucht Google auf Basis der eigenen Webmasterrichtlinien den Handel mit Links zu unterbinden und die Qualität in den Vordergrund zu rücken.

Warum Google an dem PageRank festhält

Im Online Marketing wird häufig die Frage gestellt, warum Google überhaupt an dem PageRank festhält, wenn doch bekannt ist, dass dieser sich ggf. auch noch heute manipulieren lässt und dadurch der Linktausch gefördert wird.

Google wird sicherlich nicht aus dem Grund des Linkhandels an dem PageRank festhalten – sondern weil der PageRank noch ein Teil eines großen Algorithmus zur Bewertung von Webseiten und eben nicht mehr das Alleinstellungsmerkmal für qualitative Webseiten ist, aber dennoch als ein Kriterium von sehr vielen in die Bewertung von Webseiten einfließt.

Trotz aller Theorien – ohne eine 100 %ige konkrete Aussage von Google wird diese Frage nie zur vollsten Zufriedenheit aller beantwortet werden können.

Aktualität des sichtbaren PageRanks

Ein weiteres Problem ist die Aktualität des PageRanks – während sich Suchmaschinenoptimierer oder Suchmaschinenmarketing-Experten stets auf aktuelle Daten verlassen wollen bzw. sogar müssen, so ist der sichtbare PageRank, im Gegensatz zum internen PageRank, nie wirklich aktuell.

PageRank Updates werden in der Regel alle drei bis sechs Monate durchgeführt und viele Webseitenbetreiber erfreuen sich daran, dass sich der PageRank ihrer Seite ggf. verbessert oder überhaupt einen bekommen hat.

Doch gerade im Update-Intervall liegt das Problem – ist der PageRank am Tage des Updates tatsächlich aktuell oder hat der Google Algorithmus den PageRank bereits Wochen zuvor berechnet und diesen erst am Tage des Updates sichtbar für alle Webseitenbetreiber gemacht?

Google Panda und Google Pinguin Update

Wie bereits im Abschnitt “Linkhandel – Linktausch und Linkverkauf” beschrieben, arbeitet der Suchmaschinenbetreiber Google stets daran, die Qualität seiner Suchergebnisse zu verbessern. Dem entsprechend gab es in den vergangenen Wochen und Monaten einige Updates wie zum Beispiel das Panda Update und das Pinguin Update.

Des Weiteren hat Google viele Linknetzwerke, die einzig und allein zum Zweck des Backlinkhandels hochgezüchtet wurden, deutlich abgewertet und teilweise deindexiert.

Ist der PageRank tot?

Beim Google PageRank kommt ein Spruch besonders zum Tragen: „Tot Gesagte leben länger.“  In der Vergangenheit wurde der PageRank immer mal wieder tot geredet – doch ist der PageRank tatsächlich tot?

Meines Ermessens ist der PageRank nicht tot, sondern er ist zum einen ein Bestandteil eines großen Algorithmus zur Verbesserung der Qualität in der Suchergebnissen und zum anderen kann ich mir gut vorstellen, dass der PageRank aufgrund der Deindexierung und Abwertung von Blocknetzwerken eine Wiedergeburt erlebt.

Wenn Google in der Lage ist, sogenannte Blognetzwerke zu erkennen und diese entsprechend aus der Bewertung von Webseiten herauszufiltern, so erlaube ich mir die Theorie aufzustellen, dass der PageRank nicht tot ist, sondern aus seinem langen „Winterschlaf“ erwacht.

Die vergangenen fünf PageRank Updates

  • PageRank Update am 03.05.2012
  • PageRank Update am 07.02.2012
  • PageRank Update am 07.11.2011
  • PageRank Update am 22.07.2011
  • PageRank Update am 27.06.2011

Eine komplette Historie der PageRank Updates findet sich hier.

Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Zu einer Webseite gehört auch die regelmäßige Prüfung, ob diese entsprechend den eigenen Vorstellungen funktioniert und seitens der Besucher sowie den Suchmaschinen-Crawlern abgerufen werden kann.

404 Fehler - Webseite - Inhalt nicht gefundenBesonders wichtig ist dabei zum Beispiel das Prüfen von internen und externen Links und eben das Vermeiden von 404-Fehlerseiten. Denn sowohl für den Besucher wie auch für Suchmaschinen ist es nicht von Vorteil, wenn Inhalte aufgrund fehlerhafter Links nicht erreichbar sind – der Besucher erhält somit den gewünschten Mehrwert nicht und verlässt die Webseite mit dem Gedanken „die Webseite ist unbrauchbar und funktioniert nicht“ und Suchmaschinen können den brandaktuellen und wichtigen Inhalt nicht in die Suchergebnisse aufnehmen, da dieser nicht verfügbar ist und mit hoher Wahrscheinlichkeit einen 404-Fehler liefert. Ebenfalls sollte auch eine hohe Anzahl von 404-Fehlern vermieden werden – dazu ist es einfach wichtig, regelmäßig, z.B. einmal im Monat, die Verlinkungen durch Programme wie Xenu’s Link Sleuth und durch Inanspruchnahme der Google Webmaster Tools zu prüfen und eventuelle Fehler zu begradigen.

Häufig verstecken sich aber auch Fehler im Detail – wie bereits im vorigen Artikel zum Thema „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ angesprochen sollten Webseiten einer regelmäßigen Prüfung auf Syntax-Fehler unterzogen werden. Dies sollte durch einen sogenannten W3-Validator geschehen – neben der rein technischen Überprüfungen des HTML / CSS Quellcodes ist eine Überprüfung der verschiedenen Webbrowser einschließlich ihrer unterschiedlichen Versionen eine durchaus sinnvolle Maßnahme. Beispielsweise kann eine Webseite im Internet Explorer 6 anders aussehen als im Internet Explorer 9, denn es gibt Unterschiede zwischen den einzelnen Browseranbietern wie z.B. Mozilla Firefox, Microsoft Internet Explorer oder den Safari von Apple. Der Grund für die unterschiedlichen Darstellungen von Webseiten in verschiedenen Browsern liegt in der Interpretation von HTML/CSS Elementen. Beispielsweise kann es sein, dass ein Mozilla Firefox ein HTML-Element anders interpretiert als der Internet Explorer. Eine gute Übersicht zu den Unterschieden einzelner HTML-Elemente und CSS-Elemente sind auf der Webseite css4you.de zu finden. Des Weiteren kann die Darstellung einer Webseite in verschiedenen Browsern sehr einfach auf Browsershots.org überprüft werden.

Ein weiteres Kriterium, dass durchaus im Auge behalten werden sollte, ist die Ladezeit einer Webseite – es ist bereits länger bekannt, dass die Ladezeit ein Kriterium für das Ranking einer Webseite ist und auch Google hat den Pagespeed bereits in die Google Webmaster Tools aufgenommen. In den Google Webmaster Richtlinien sagt Google selbst zum Pagespeed, dass schnelle Webseiten die Zufriedenheit der Nutzer und die Gesamtqualität des Internets steigern. Lange Ladezeiten sorgen allgemein dafür, dass Besucher schnell abspringen und selbst in der heutigen Zeit gibt es noch die einen oder anderen Internetnutzer, die aufgrund von ländlichen Begebenheiten nicht in der Lage sind, mit DSL-Geschwindigkeit das Internet zu erleben. Auch hier sollte eine regelmäßige Überprüfung der Webseiten-Geschwindigkeit erfolgen. Dazu eignen sich nachfolgende Tools aus dem Hause vn Google.

Unsere Empfehlung ist das Tool von GTMetrix, da dieses eine sehr angenehme und v.a. verständliche und strukturierte Übersicht bietet. Des Weiteren lassen sich schnell Optimierungspotentiale, wie z.B. die Optimierung von Bildgrößen/Dateigrößen, erkennen.

Weitere Artikel zum Thema Google Webmaster Richtlinien

Richtlinien zum technischen Aufbau von Webinhalten: Webcrawler, Aktualität und Geschwindigkeit (Teil 2)

Auch bei den technischen Richtlinien gibt es einige Vorgaben, die in den Google Webmaster Richtlinien Erwähnung finden und nebst den Webmasterrichtlinien zur Gestaltung von Webinhalten als Unterstützung für die Optimierung der eigenen Webseite dienen.

Überprüfung der Webseite durch einen textbasierten Browser

Lynx Viewer vom Comspace Blog
Lynx-Abbild von Comspace Blog

In erster Linie darf man sich einen Crawler, der Webseiten erfasst und ausliest, wie einen einfachen Textbrowser vorstellen. Gängige Browser wie der Mozilla Firefox, Google Chrome, Apple Safari oder den bekannten Microsoft Internet Explorer sind in der heutigen Zeit in der Lage, Webseiten in voller Pracht anzuzeigen, das heißt vorhandene Grafiken oder auch Flash-Videos werden nach dem Wunsch der Seitenbetreiber dargestellt. Textbrowser, wie beispielsweise Lynx, stellen Webseiten – wie der Name es schon sagt – in reiner Textform dar. Bilder und andere Elemente wie zum Beispiel Videos werden in einem Textbrowser nicht angezeigt.

Des Weiteren sind in einem Textbrowser diverse Funktionen wie JavaScripte, Cookies und Session-IDs nicht nutzbar bzw. können für Probleme sorgen. Ähnlich agieren auch Webcrawler – auch wenn diese mittlerweile weiterentwickelt wurden und relativ leistungsfähig sind, kann ein Webcrawler mit den oben genannten Elementen auf einer Webseite Probleme haben.

Pauschal lassen sich natürlich nicht alle Elemente auf einer Webseite entfernen – ein Onlineshop ohne entsprechende Bilder oder Produktvideos wäre im Jahre 2012 undenkbar. Dem entsprechend ist hier die technische Aufgabe des Webseitenbetreibers dafür zu sorgen, dass die Crawler der Suchmaschinen es möglichst einfach haben, die Inhalte der Webseite zu crawlen.

Zum einen hat der Webseitenbetreiber die Möglichkeit, seine Internetpublikation mithilfe des eben erwähnen Lynx Textbrowsers zu prüfen – zum anderen bieten aber auch die Google Webmaster Tools die Möglichkeit, eine Webseite durch einen Crawler abzurufen und sich das Ergebnis ausgeben zu lassen.

Exkurs: Cloaking und ungeeignete Techniken

Die obigen Gründe und die anfänglichen Schwierigkeiten hatten zur Folge, dass in der Anfangszeit des kommerziellen World Wide Webs diverse Techniken entwickelt wurden, die dafür sorgten, dass Suchmaschinen wie Google beim Besuch einer Webseite komplett andere Inhalte angezeigt wurden als dem Endverbraucher. Die Technik war dabei relativ einfach: Wenn eine Webseite besucht wurde, wurde zu Beginn abgefragt, ob es sich um einen realen Besucher handelt oder ob hier ein Suchmaschinencrawler unterwegs ist – sobald ein Suchmaschinencrawler erkannt wurde, zeigte man diesem einfach die Webseite in einer anderen Form.

Mittlerweile sind solche Techniken seitens der Suchmaschinen nicht sonderlich gern gesehen und können im Ranking zu Abwertungen führen. Diese Technik machten sich natürlich auch andere Personen zu Nutze und verschleierten somit Inhalte, die nicht zwangsläufig in Suchergebnissen auftauchen sollten bzw. die seitens der Suchmaschine erst gar nicht erkannt werden sollten.

Suchmaschinen die Aktualität der Seite präsentieren

Im ersten Teil „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts“ wurde bereits angesprochen, dass die Qualität des Inhalts eine wichtige Rolle für ein positives Ranking innerhalb der Suchmaschinen spielt. Nebst der Qualität des Inhalts ist auch die Aktualität, sprich wie oft neue Inhalte publiziert oder ältere Inhalte aktualisiert werden, relevant und sorgt natürlich auch dafür, dass Crawler eine Webseite regelmäßiger besuchen könnten. Wenn ein Crawler bemerkt, dass eine Webseite regelmäßig bzw. täglich neue Inhalte veröffentlicht, wird auch der Crawling-Rhythmus automatisch angepasst.

Um dem Crawler relativ schnell mitzuteilen, ob neue Inhalte verfügbar sind, empfehlen die Google Webmaster Richtlinien die Verwendung des http-Headers “If-Modifies-Since“. Anhand dieser Funktion teilt der Webserver dem Crawler mit, wann neue Inhalte auf der Internetseite veröffentlicht wurden – natürlich kann dies auch anhand der Webseite an sich geschehen, wenn beispielsweise eine Zeitangabe für die Erstellung des Artikels existiert. Im Gegensatz zu der Zeitangabe auf der Webseite besitzt die Lösung des http-Headers den Vorteil, dass Bandbreite eingespart werden kann.

Inhalte vor dem Crawler schützen

robots-txt - Alle Suchmaschinen dürfen Inhalte durchsuchen und indexieren
Suchmaschinen ist das Durchsuchen/Indexieren der Webinhalte erlaubt

Selbst in der heutigen Zeit sind für viele Webseiten-Betreiber Begriffe wie Robots.txt und Meta-Robot ein Fremdwort. Doch dabei ist es nicht verkehrt, dem Suchmaschinen-Crawler mithilfe einer Robots.txt mitzuteilen, welche Verzeichnisse durchsucht werden sollen und welche eben nicht durchsucht werden sollen – schließlich muss nicht jeder Inhalt oder gar jedes Bild im Index der Suchmaschinen dargestellt werden.

Besonders wichtig ist dabei, dass der Webseitenbetreiber selbst die vorgenommenen Anweisungen in der eigenen Robots.txt kontrolliert, da es auch passieren kann, dass Suchmaschinen-Crawler komplett ausgeschlossen werden. Als Hilfsmittel für die Kontrolle eigenen sich die Google Webmaster Tools, womit zum einen die Robots.txt geprüft werden kann und zum anderen die Seite durch einen Crawler abgerufen werden kann. An den Resultaten lässt sich erkennen, wie der Google-Bot die Webseite sieht und natürlich welche Inhalte der Bot abgreifen kann und welche nicht.

Das Tool aus den Google Webmaster-Tools nennt sich übrigens „robots.txt“-Analyse Tool.

Informationen zur Erstellung einer Robots.txt finden sich auf nachfolgenden Seiten:

Neben der Erstellung einer Robots.txt gibt es auch die Möglichkeit für einzelne HTML-Seiten mittels dem Meta-Tag „<meta name=“robots“ content=“index,follow“ />“ bestimmte Einstellungen vorzunehmen, die einem Suchmaschinen-Crawler mitteilen, ob die Inhalte indexiert werden dürfen („index“) oder nicht indexiert werden dürfen („noindex“). Zudem kann angegeben werden, ob den Links auf der einzelnen Seite gefolgt („follow“) oder nicht gefolgt („nofollow“) werden sollen.

Die Webseite auf Herz und Nieren testen (Teil 2.1)

Aufgrund des Themenumfangs behandle ich diesen Punkt in einem separaten Artikel. Lesen Sie die Fortsetzung in „Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Weitere Artikel zum Thema Google Webmaster Richtlinien

Seo Poster 2012: Gewinnspiel von Martin Missfeldt

Seo Poster 2011 - Neuauflage für 2012

Bereits im vergangenen Jahr hat Martin Missfeldt sein sogenanntes Seo Poster erschaffen und für eine Vielzahl von Personen sehr schöne Avatare im Comic-Stil gezeichnet. Da laut eigener Aussage sich die Anfragen häufen, bietet  Martin auch in diesem Jahr seine Fähigkeiten an.

Nebst dem konventionellen Weg zum Erwerb eines solchen Avatars, gibt es fünf Comic-Avatare zu gewinnen.

Wie sieht ein Comic-Avatar aus?

Die meisten Leser werden sich nun fragen, wie so ein Comic-Avatar ausschaut. Ein Bild vom Stil der Avatare kann man sich wunderbar durch das Seo Poster 2011 machen.

Als Grundlage für die Zeichnung dient ein Profil-Foto, das natürlich eine gewisse Aussagekraft besitzen sollte. Das bedeutet, das Gesicht derjenigen Person sollte klar zu erkennen sein – dem entsprechend eignet sich für die Bestellung bspw. ein Passfoto.

Seo Poster 2011 - Neuauflage für 2012

Ich möchte am Gewinnspiel teilnehmen…

Bis zum kommenden Dienstag, den 22.05.2012, besteht die Möglichkeit an dem Gewinnspiel teilzunehmen. Die Teilnahme ist denkbar einfach, dazu reicht es beispielsweise den Hauptartikel von Martin per Twitter zu verteilen und dies mit dem Hashtag #comicavatar zu versehen.

Auch andere Möglichkeiten für die Teilnahme durch den Einsatz von Google Plus und auch Facebook sind gegeben. Diese können im Artikel von Martin nachgelesen werden.

Kein Erfolg beim Gewinnspiel gehabt…

Sicherlich nehmen eine Vielzahl von Personen an dem Gewinnspiel teil, so bietet Martin auch die Möglichkeit ein passendes Avatar zu erwerben – mit rund 25 € zzgl. 7 % Mwst. kann sich jeder ein Avatar zaubern lassen.

Wofür sich ein Avatar eignet?

Ein solches Avatar eignet sich hervorragend für die Nutzung im Social Media Bereich, sei es bei Facebook, Google Plus oder Twitter. Gerade für Blogger kann ein Avatar in Verbindung mit dem Dienst Gravatar genutzt werden.

Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)

Google Webmaster Tools und Google Webmaster Richtlinien

Dies ist der erste Artikel zu einer dreiteiligen Artikelserie zu den Google Webmaster Richtlinien – in Teil 2 wird die Thematik „Webmaster Richtlinien zum technischen Aufbau von Webinhalten“ und in Teil 3 „Webmaster Richtlinien zur Qualität“ angesprochen. Begonnen wird nachfolgend mit dem Thema „Webmaster Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts„. „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ weiterlesen

Vorwort zum SEO-Tool Day und zur SEO-Campixx

Wie bereits berichtet, nehmen wir auch in diesem Jahr an der SEO-Campixx (als Teilnehmer und Sponsor) teil. Die Erwartungen, gerade an den SEO-Tool Day, der bereits am Freitag vor der eigentlichen Konferenz stattfindet, sind natürlich groß.

Der SEO-Tool Day

SEO Campixx 2012 TooldayAm SEO-Tool Day geht es nicht darum, sich einen Überblick über aktuelle SEO-Tools zu verschaffen, sondern vielmehr darum, interessante Tools zu vergleichen und natürlich die Erfahrung mitzunehmen, wie die Entwickler selbst mit dem Tool arbeiten.

Den SEO-Tool Day werden wir zum größten Teil im Saal verbringen, um die Tools Searchmetrics Essentials, Link Research Tool und natürlich Sistrix Toolbox im Produktiveinsatz anzuschauen. Besonders interessant an den Tools ist zum einen die gebotene Leistung wie auch die Möglichkeit der Kombination dieser Tools.

Tag 1 der SEO-Campixx

Der erste Tag beginnt üblicherweise mit der Begrüßung und kleinen Vorstellungsrunden der Teilnehmer. Im Anschluss gegen 10:30 Uhr beginnen auch die ersten Vorträge.

Aufgrund der Vielzahl an Vorträgen, knapp 60 pro Tag und meist 12 zur gleichen Zeit, hat man natürlich die Qual der Wahl. Nachfolgende Vorträge haben wir für uns herausgepickt.

    • WP Amazon Affiliate Blogs from the scratch
      Master: Jens Ole Korting
    • Google News Debusting und Best/Worst Practice
      Master: Johan Hülsen, Sebastian Carlo
    • Linkaufbau Trampelpfade – Effektive Generierung hochwertiger BL abseits des Mainstreams
      Master: Björn Tantau
    • Monetarisierung: Mehr Umsatz für Content Seiten
      Master: Arthur Mai
    • Innovatives Linkbuilding mit FlickR, RSS, Copyscape & Tynt
      Master: Marco Verch
    • Mit Minisites in Nischen und im Longtail Geld verdienen
      Master: Alexander Hacker, David Reisner
    • Erfolgreicher Linkaufbau an echten Beispielen
      Master: Sasa Ebach
  • Live „wie projektierte ich eine neue Expired Domain in einer Campixx Session“
    Master: Oliver Hauser

Die obige Liste ist natürlich noch sehr lang und die Wahrscheinlichkeit, dass alle Workshops mitgenommen werden können, ist leider gering. Allerdings ist für Tag 1 eine gewisse Vorauswahl getroffen und somit kann kurzfristig noch überlegt werden, welche dieser Workshops auch wahrgenommen werden. Der Vorteil der SEO-Campixx ist die Möglichkeit des Netzwerkens und somit ist auch die Möglichkeit gegeben mit anderen Personen in ein Gesprach zu kommen, auch wenn der Workshop nicht besucht werden konnte.

Tag 2 der SEO-Campixx

Auch am 2ten und zugleich letzten Tag der SEO-Campixx im Jahre 2012 erwarten uns spannende und hoffentlich lehrreiche Workshops – ein besonderes Augenmerk haben wir auf die nachfolgenden Workshops gelegt.

    • SEO Potentialprognosen – Vom Glaskugelblick zur Wissenschaft
      Master: Johannes Reimann, Siwen Zhang
    • Wenn visuelle Aspekte und Trust neben Social Signals auf Link Ressourcen immer wichtiger werden
      Master: Carsten Riemer
    • Prozessoptimierung beim Aufbau von Linknetzten mit Expired Domains
      Master: Nicolas Sacotte
    • SEO und UGC?
      Master: Sebastian Sälzle
    • Automatisierung mit UBot Studio
      Master: Stefan Oversberg
    • Linkaufbau automatisieren – Macht der Macros
      Master: Christian Schmidt
    • Content Syndication: Mit Duplicate Content Geld verdienen
      Master: Niels Dahnke
    • Scrapebox – Ein Einstieg abseits von bloßen Kommentarspam
      Master: Daniel Schramm
  • Fallstudie: Linkaufbau mit Presseverteilern
    Master: Frank Doerr

Abschließend gibt es noch eine Auswertung, wo die Teilnehmer der Campixx die spannenden zwei bzw. drei Tage Revue passieren lassen können – gegen 17:30 Uhr ist die Veranstaltung offiziell beendet.

Ein kurzes Fazit

Wir sind natürlich schon jetzt voller Vorfreude auf die 3-Tage SEO Campixx in Berlin und sind gespannt darauf, welche Workshops wir mitnehmen werden und welche interessanten Persönlichkeiten, wie zum Beispiel Soeren Eisenschmidt, wir antreffen werden.

comspace sponsert die SEO Campixx 2012

Auch in diesem Jahr findet die erfolgreiche Un-Konferenz „SEO-Campixx“ (auch SEO-Konferenz / Suchmaschinen(-optimierer) Konferenz) in Berlin statt – und wir sind wieder dabei. Vom 09. bis zum 11.März werden rund 500 Teilnehmer die Möglichkeit zur Teilnahme an verschiedenen Workshops im Bereich der Suchmaschinenoptimierung haben.

Das Konzept der SEO-Campixx ist angelehnt an die regionalen Barcamps bzw. Networking Events. Im Vordergrund stehen der Austausch von Fachwissen und Erfahrungen sowie die Erweiterung des Horizonts im Themenumfeld der Suchmaschinenoptimierung und des Online Marketings.

Das Konzept der SEO Campixx

Das Konferenzprogramm wird von den Teilnehmern selbst gestaltet, d.h. jedes Unternehmen und jeder Teilnehmer hat die Möglichkeit einen Workshop zu gestalten.

Beispielsweise haben am ersten Tag, dem sog. SEO Tool-Day, die Hersteller von SEO Tools die Möglichkeit, ihre Produkte den Teilnehmern zu präsentieren – interessant dabei wird sein, in wie weit sich die einzelnen Tools im Leistungsumfang unterscheiden und welche noch „unbekannten“ Möglichkeiten so manch ein SEO-Tool bietet.

Für das weitere Rahmenprogramm sowie Veranstaltungen am Abend sorgen die Organisatoren der SEO-Campixx.

comspace als Sponsor

Seit dem die SEO-Campixx ins Leben gerufen wurde, sind wir Jahr für Jahr als Teilnehmer dabei. Im diesem Jahr treten wir außerdem erstmalig als Sponsor auf.

comspace hat sich auch schon in der Vergangenheit immer wieder als Sponsor von SEO-Events wie dem hiesigen Barcamp und den Veranstaltungen des Online-Stammtischs OWL betätigt und trägt damit zum sozialen Engagement bei, das allgemein in der SEO-Szene stark ausgeprägt ist.

Dennoch steht das Netzwerken sowie der Austausch von Fachwissen und das Sammeln von neuen Erfahrungen anhand der verschiedensten Workshops im Vordergrund.

Das soziale Engagement hinter der SEO-Campixx

Auch in diesem Jahr wird ein Teil der Ticketpreise einem wohltätigen Zweck zugeführt. So unterstützen die Organisatoren der SEO Campixx die „Björn Schulz Stiftung“ und „Strahlemännchen“ unter dem Motto „Gemeinsam für schwerkranke Kinder“.

SEO Campixx unterstützt Kinder Hilfsorganisationen

Darüber freuen wir uns, denn auch wir engagieren uns regelmäßig für soziale Einrichtungen wie zum Beispiel die „Sterntaler Trauerbegleitung“, „SC Rot-Weiß Maaslingen 1947 e.V.“, „WIR FÜR EUCH – Schwarz Weiß Blau e.V.“ und leistet einen kleinen Beitrag zum Klimaschutz – Stichwort: Green IT.