Recap: SEO Campixx 2014 in Berlin

SEO Campixx 2014 Sponsor
Sponsor SEO-Campixx 2014
Sponsor SEO-Campixx 2014

Vom 15.03. bis 16.03. hat die inzwischen sechste SEO Campixx, initiiert von Marco Janck, am Berliner Müggelsee stattgefunden. Als einer der Sponsoren waren wir mit zwei Kollegen dabei. In ca. 120 Sessions gab es am Samstag und Sonntag Vorträge, Workshops und Gespräche zum Thema Suchmaschinenoptimierung bzw. den diversen Facetten des Online-Marketings.

Wie bereits in den Jahren zuvor, startete die Veranstaltung mit einem zusätzlichen Tag: am 14.03. fand der sog. Next Level Day 2.0 statt.

Bei der großen Anzahl der Workshops ist es uns nicht leicht gefallen, die passenden Sessions herauszupicken. Es ist jedes Jahr wieder ein riesiger Spaß die passenden Workshops auszuwählen und auf der SEOCampixx darüber zu philosophieren, wie schwierig es ist sich zu entscheiden. Doch genau das gehört zur SEOCampixx dazu.

Tag 0: Der Next Level Day 2.0

Am Freitag startete der Next Level Day 2.0 pünktlich gegen 9 Uhr mit einer kurzen Begrüßung durch Marco Janck.

SEO Campixx 2014 - Eröffnung
SEO Campixx 2014 – Eröffnung

Julius van de Laar, Odera Ume-Ezeoke und Katia Saalfrank

Im Anschluss ergriff Julius van de Laar das Wort und berichtete uns in seinem spannenden Workshop darüber, wie er unter anderem den Obama-Wahlkampf in Ohio mithilfe von Big Data, Analysen und Kampagnen gestaltet hat. Zudem nannte Julias Methoden, wie potentielle Wähler ausgewählt und angesprochen wurden, damit diese Barack Obama ihre Stimme gaben. Diese Form des Wahlkampfs würde wahrscheinlich in Deutschland an der rechtlichen Situation wie auch dem Datenschutz scheitern. Nach einer Pause von 30 Minuten ging es weiter mit dem Workshop Retail 3.0 – The revolution in commerce von Odera Ume-Ezeoke.

Next Level Day - SEO Campixx 2014
Next Level Day – SEO Campixx 2014

Einer der authentischsten Vorträge war der Workshop mit Katia Saalfrank, auch bekannt als Supernanny aus dem Fernsehen. Der Workshop „Authentisches Marketing und Medienkompetenz“ wurde in Form eines Interviews geführt. Zum einen berichtete Katia Saalfrank über die Gründe des Ausstiegs aus dem TV-Programm und natürlich über die gewonnen Erfahrungen. Außerdem darüber, wie sich ihre Arbeit nachhaltig verändert hat und über den Vertrauens-Vorschuss, den sie im TV-Format „Supernanny“ hinzu gewinnen konnte.

Gesellschaft 2020 – Skizze einer Vision

von Jens Altmann
Als nächstes kam Jens Altmann zum Zuge, der sich in seinem Vortrag auf technische Veränderungen bis zum Jahre 2020 fokussierte. Dabei vergleicht er die gesellschaftlichen Veränderungen und Erfahrungen mit dem Lebenszyklus von technischen Produkten. Nach seiner Auffassung verändert sich nur nicht die Work-Life-Balance, sondern auch die Integration von technischen Produkten und Lösungen wird in Zukunft für eine andere Form der Wahrnehmung sorgen.

Marketing 2020: Strategien für die Granularisierung der Welt

von Joachim Graf
Den meisten dürfte Joachim vor allem durch das iBusiness Magazin (mit dem SEO/SEM TOP 100 Poster) wie auch einigen Vorträgen auf anderen Events bekannt sein. Er sprach in seinem Vortrag über die Veränderung der Märkte hin zu maßgeschneiderten Produkten basierend auf Kundenwünschen. Die Welt wird kleinteiliger.

Übrigens: Der Markt für Zeitschriften, Zeitungen und Magazine ist nicht tot und die Entwicklung zeigt, dass der Absatz langfristig weiter sinken wird, allerdings nicht so stark, dass solche Produkte im Jahre 2020 (wahrscheinlich auch nicht 2036 ) gänzlich von der Bildfläche verschwunden sein werden.

Vision Google Glass

von Patrick Zimmermann
Zu guter Letzt stellte uns Patrick Zimmermann die Datenbrille Google Glass vor. Natürlich ließ er es sich zu Beginn nicht nehmen, ein Foto von allen Workshop Teilnehmern zu machen und dieses auch mithilfe von Google Glass ins soziale Netzwerk Facebook zu stellen.

Nebst den Möglichkeiten und den Zukunftsaussichten der Datenbrille teilte uns Patrick auch seine Einschätzungen mit. Demnach funktioniert Google Glass nur stellenweise recht angenehm und auch die Anzahl an Anwendungen ist eher gering. Im Alltag sorgt die Datenbrille durchaus für negative Blicke der Passanten, weil diese sich aufgrund der ungewöhnlich aussehenden Brille (die Angst vor dem Unbekannten) beobachtet fühlen. Ferner reicht der Akku nicht sonderlich lange, so dass nach rund vier Stunden die Datenbrille Google Glass wieder an die Steckdose muss.

Tag 1: SEO Campixx 2014

Der erste Tag der SEO Campixx 2014 begann, vor allem für die Leute die am Next Level Day 2.0 nicht teilgenommen haben, mit einer kleinen Einführung und Ansprache durch Marco. Abschließend gab es noch eine kleine Roboter-Schau, nachdem der Raum im Nebel untergegangen war.

Roboshow SEO Campixx 2014
Roboshow SEO Campixx 2014

SEO & Affiliatemarketing im Adult-Bereich

von Christian Süllhöfer
Christian schaffte es in seinem ersten Workshop auf der SEO Campixx, den Saal komplett zu fesseln und in eine Branche einzuführen, die gerade in Deutschland eine Grauzone darstellt. Er zeigte anhand eines eigenen Beispiels, mit welch geringem Arbeitsaufwand interessante Erfolge zu verzeichnen sind und wie er das Know-How aus anderen Bereichen des Affiliate-Marketing in den Adult-Bereich übernehmen konnte.

Linkquellen finden und evaluieren

von Sergej Schäfer
Im Vortrag „Linkquellen finden und evaluieren“ beschrieb Sergej, wie er bei der Suche nach geeigneten Linkquellen vorgeht und diese mithilfe von Domainwerten, Strukturen und Inhalten bewertet.

Die Kunst der internen Verlinkung

von Sabrina Tietmeyer
Sabrina merkte man ihre Nervosität deutlich an, was auch dazu führte, dass kleinere Versprecher im Vortrag enthalten waren. Der Vortrag eignete sich sowohl für Anfänger wie auch Experten, weil selbst die Grundlagen eines internen Links erklärt wurden. Weiterhin zeigte Sabrina, welche Arten von internen Verlinkungen existieren und wie diese gewichtet werden.

In einem kurzen Gespräch am Abend stellte sich dann noch heraus, dass Sabrina für ihren Vortrag eine Vielzahl an Testszenarien erstellt hatte, worauf auch der Inhalt des Workshops basierte.

Dirty little Snippets

von Pascal Landau und Alexander Rosenthal
Im Workshop “Dirty little Snippets” gaben uns Pascal und Alexander einen Einblick in die Vielzahl an Snippets die für die Suchergebnisse, sprich unter anderem im Seitentitel und in der Meta-Beschreibung, verwendet werden können.

So spannend der Vortrag, die Tipps und Tricks hinsichtlich des Einsatzes von Rich Snippets zur Verbesserung der Sichtbarkeit in den Suchergebnissen waren, so enttäuschend ist, wie wenig die verschiedenen Browser am Ende zulassen.

Das heißt, vorausgesetzt Google erlaubt ein Snippet und zeigt dies in den Suchergebnissen an, bedeutet dies noch lange nicht, dass das gewünschte Snippet in jedem Browser und mobilen Endgerät korrekt ausgeliefert wird.

Die ultimative Keyword-Recherche

von Felix Meyer
Am Ende des Tages zeigte Felix, wie er eine ultimative Keyword-Recherche mithilfe der Datensätze verschiedener Toolanbieter und natürlich Excel durchführt.

Die gesammelten Daten wurden in Verbindung mit einer simplen Pivot-Tabelle aufbereitet, allerdings so, dass die komplette Struktur einer Website abgebildet werden konnte, wodurch Potentiale und Möglichkeiten mit einem geschulten Auge direkt erkannt werden konnten.

Pasta-Pate und Liveband

Am Abend gab es neben den gewohnten Grillwagen auch einen Pasta Paten, der eine echte Alternative darstellte. Natürlich gab es nebst der Verpflegung auch noch ein schönes Abendprogramm mit der Liveband „Coverpiraten“ aus Hamburg.

https://www.youtube.com/watch?v=j9vL4CBp_vo

Tag 2: SEO Campixx 2014

Nach dem bei einigen Teilnehmern der Samstag-Abend etwas länger ging, waren zumindest gegen zehn Uhr die Workshop-Räume nur teilweise gut gefüllt.

WordPress Extreme. Mit 100$ zum Powershop. Inkl. hidden Tricks

von Uwe Walcher und Dawid Przybyski
Ein Vortrag, der es in sich hatte, denn Uwe und Dawid zeigten uns, wie mithilfe des Blog-Systems ein WordPress Shop erstellt werden kann, der binnen weniger Minuten mit mehreren tausend Produkten bestückt ist und am Ende des Tages bereits den einen oder anderen Euro an Provision erwirtschaften kann. Dies setzt natürlich voraus, dass der Anwender in seiner Tätigkeit durchaus kreativ ist. Spannend war vor allem, dass sowohl Uwe als auch Dawid nicht nur sagten „ja, es geht irgendwie so“ sondern auch zeigten, wie hoch ihre Einnahmen sind und wodurch sie zustande kommen.

“Speed up your page!”

von Dennis Elsner
Dennis zeigte uns in seinem Vortrag, worauf es zu achten gilt, wenn die Geschwindigkeit einer Website verbessert werden soll und wie Google einzelne Elemente bewertet. Im Kern des Vortrags standen verschiedene Coachingmöglichkeiten sowie Apache-Module wie auch Googles Pagespeed.

„Einfach Geld verdienen mit Affiliate Projekten: Sind die Zeiten vorbei?“

von Darius Erdt und Christian Hübsch
Vom Tellerwäscher zum Millionär binnen weniger Stunden, zumindest in der Theorie klingt das relativ nett. Darius und Christian gingen darauf ein, wie sich der Markt, bedingt auch durch Google Updates, in den letzten Jahren verschärft hat und mittlerweile deutlich mehr Arbeit investiert wurde. Der als Interview geführte Workshop zeigte, welche Erfahrungen in den letzten Jahren gemacht wurden und worauf geachtet werden muss, wenn eine Familie vom Affiliate-Marketing ernährt werden muss.

Fazit der diesjährigen SEO Campixx 2014

Die SEO Campixx 2014 war, wie eigentlich nicht anders zu erwarten, ein voller Erfolg. Es gab spannende Vorträge, die wieder mal den Horizont erweitern konnten und diverse Insights, die für neue Ideen sorgten. Nebst den diversen Workshops gab es auch spannende Gespräche wie z.B. mit Soeren Eisenschmidt (eisy.eu) oder René Dhemant aus dem Hause unseres Tools Partners Sistrix.

Ein besonderes Highlight war in diesem Jahr auch der Pasta-Pate als Alternative zum umstrittenen Grillwagen. Für das nächste Jahr hat sich das Team von Sumago etwas Neues einfallen lassen und präsentiert vorab die SEO Campixx Week mit verschiedenen Themenbereichen.

Abschließend hier noch die Recaps der Branchen-Kollegen und -Kolleginnen:

Eine Liste aller Recaps gibt es beim Sitefuchs.

Google SEO: Ist Suchmaschinenoptimierung für Google böse?

Google SEO - Ist Suchmaschinenoptimierung für Google böse

Es kommt nicht selten vor, dass Personen die Suchmaschinenoptimierung pauschal als ein negatives Instrument im Online Marketing ansehen. Gerade in Bezug auf das sogenannte Google SEO ist relativ viel Negatives zu hören. Die Frage, die es sich dabei zu stellen gilt ist in erster Linie, was ist Suchmaschinenoptimierung und widerspricht sie den Google Webmaster Richtlinien?

Was ist eigentlich SEO?

Google SEO - Ist Suchmaschinenoptimierung für Google böse

SEO steht in erster Linie für den englischen Begriff „search engine optimization“, was übersetzt Suchmaschinenoptimierung bedeutet und ist ein Teilbereich des Suchmaschinenmarketings. Die Suchmaschinenoptimierung wird in die Teilbereiche OnPage und Offpage unterteilt. Während OnPage sämtliche Optimierungsmaßnahmen beschreibt, die an einer Website direkt vorgenommen werden können, bezieht sich Offpage auf externe Faktoren wie z.B. Backlinks.

Allgemein zielt die Suchmaschinenoptimierung darauf ab, dass Websites insbesondere deren Inhalte unter bestimmten Keywords (Schlagworten) in den Suchergebnissen (SERPS) besser positioniert werden. Die Aufgabe dabei ist, bestehende Websites anhand ihres Aufbaus, ihrer Struktur und ihren Inhalten zu analysieren und die vorhandenen Optimierungspotentiale herauszufiltern. Diese werden anschließend in Verbindung mit dem Websitebetreiber gezielt umgesetzt.

Es kommt gelegentlich vor, dass bereits bei den Begriffen „Optimierungspotentiale herausfiltern“ und „Optimierungspotentiale umsetzen“ die ersten Personen von Voodoo, schwarzer Magie und bösartigem Manipulieren der Suchergebnisse sprechen.

Frage: Ist das Optimieren und Verbessern der eigenen Website schwarze Magie oder gar böse?

Eigentlich nicht, schließlich sollte es das Ziel eines jeden Websitebetreibers sein, den potentiellen Besuchern die bestmögliche Qualität zu bieten. Und warum sollten diese Inhalte ggf. aufgrund von mangelnder Optimierung dem potentiellen Kunden verborgen bleiben?!

Ist die Suchmaschinenoptimierung im Sinne der Suchmaschinen böse?

Die Suchmaschinen wie zum Beispiel Google oder Bing verbieten die Optimierung der Website nicht. Das bedeutet aber nicht, dass es nicht auch Verfahren gibt, die den Suchmaschinenbetreibern ein deutliches Dorn im Auge sind.

Dem entsprechend ist auch in den Webmaster Richtlinien von Google explizit definiert, dass manipulative Verfahren wie z.B. das Cloaking nicht erwünscht sind und zur Abwertung im Google Ranking bis hin zur Deindexierung von Webseiten führen können (Google Penalty). Ebenso ist das aktive Linkbuilding (Link Building) /der aktive Linkaufbau, d.h. der Kauf oder Linktausch von Links seitens der Suchmaschinen nicht gewünscht.

Im Klartext bedeutet das – ja, es gibt Verfahren, die von Suchmaschinen als negativ eingestuft werden, aber wer sich im Rahmen der Google Richtlinien bewegt, hat die Möglichkeit, seine Website entsprechend zu optimieren.

Zusammenfassung: SEO dient der Optimierung!

Suchmaschinenoptimierung ist weder ein böses Instrument noch schwarze Magie. Sondern dient der Optimierung und Verbesserung von Websites einschließlich deren Inhalte. Es gibt Verfahren, die von den Suchmaschinen strikt verboten sind und dem entsprechend auch nicht zum Einsatz kommen sollten. Wer sich aber im Rahmen der Webmaster Richtlinien der Suchmaschinen bewegt, hat die Erlaubnis als auch die Möglichkeit seine Potentiale auszuschöpfen und die Website entsprechend zu optimieren.

Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Zu einer Webseite gehört auch die regelmäßige Prüfung, ob diese entsprechend den eigenen Vorstellungen funktioniert und seitens der Besucher sowie den Suchmaschinen-Crawlern abgerufen werden kann.

404 Fehler - Webseite - Inhalt nicht gefundenBesonders wichtig ist dabei zum Beispiel das Prüfen von internen und externen Links und eben das Vermeiden von 404-Fehlerseiten. Denn sowohl für den Besucher wie auch für Suchmaschinen ist es nicht von Vorteil, wenn Inhalte aufgrund fehlerhafter Links nicht erreichbar sind – der Besucher erhält somit den gewünschten Mehrwert nicht und verlässt die Webseite mit dem Gedanken „die Webseite ist unbrauchbar und funktioniert nicht“ und Suchmaschinen können den brandaktuellen und wichtigen Inhalt nicht in die Suchergebnisse aufnehmen, da dieser nicht verfügbar ist und mit hoher Wahrscheinlichkeit einen 404-Fehler liefert. Ebenfalls sollte auch eine hohe Anzahl von 404-Fehlern vermieden werden – dazu ist es einfach wichtig, regelmäßig, z.B. einmal im Monat, die Verlinkungen durch Programme wie Xenu’s Link Sleuth und durch Inanspruchnahme der Google Webmaster Tools zu prüfen und eventuelle Fehler zu begradigen.

Häufig verstecken sich aber auch Fehler im Detail – wie bereits im vorigen Artikel zum Thema „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ angesprochen sollten Webseiten einer regelmäßigen Prüfung auf Syntax-Fehler unterzogen werden. Dies sollte durch einen sogenannten W3-Validator geschehen – neben der rein technischen Überprüfungen des HTML / CSS Quellcodes ist eine Überprüfung der verschiedenen Webbrowser einschließlich ihrer unterschiedlichen Versionen eine durchaus sinnvolle Maßnahme. Beispielsweise kann eine Webseite im Internet Explorer 6 anders aussehen als im Internet Explorer 9, denn es gibt Unterschiede zwischen den einzelnen Browseranbietern wie z.B. Mozilla Firefox, Microsoft Internet Explorer oder den Safari von Apple. Der Grund für die unterschiedlichen Darstellungen von Webseiten in verschiedenen Browsern liegt in der Interpretation von HTML/CSS Elementen. Beispielsweise kann es sein, dass ein Mozilla Firefox ein HTML-Element anders interpretiert als der Internet Explorer. Eine gute Übersicht zu den Unterschieden einzelner HTML-Elemente und CSS-Elemente sind auf der Webseite css4you.de zu finden. Des Weiteren kann die Darstellung einer Webseite in verschiedenen Browsern sehr einfach auf Browsershots.org überprüft werden.

Ein weiteres Kriterium, dass durchaus im Auge behalten werden sollte, ist die Ladezeit einer Webseite – es ist bereits länger bekannt, dass die Ladezeit ein Kriterium für das Ranking einer Webseite ist und auch Google hat den Pagespeed bereits in die Google Webmaster Tools aufgenommen. In den Google Webmaster Richtlinien sagt Google selbst zum Pagespeed, dass schnelle Webseiten die Zufriedenheit der Nutzer und die Gesamtqualität des Internets steigern. Lange Ladezeiten sorgen allgemein dafür, dass Besucher schnell abspringen und selbst in der heutigen Zeit gibt es noch die einen oder anderen Internetnutzer, die aufgrund von ländlichen Begebenheiten nicht in der Lage sind, mit DSL-Geschwindigkeit das Internet zu erleben. Auch hier sollte eine regelmäßige Überprüfung der Webseiten-Geschwindigkeit erfolgen. Dazu eignen sich nachfolgende Tools aus dem Hause vn Google.

Unsere Empfehlung ist das Tool von GTMetrix, da dieses eine sehr angenehme und v.a. verständliche und strukturierte Übersicht bietet. Des Weiteren lassen sich schnell Optimierungspotentiale, wie z.B. die Optimierung von Bildgrößen/Dateigrößen, erkennen.

Weitere Artikel zum Thema Google Webmaster Richtlinien

Richtlinien zum technischen Aufbau von Webinhalten: Webcrawler, Aktualität und Geschwindigkeit (Teil 2)

Auch bei den technischen Richtlinien gibt es einige Vorgaben, die in den Google Webmaster Richtlinien Erwähnung finden und nebst den Webmasterrichtlinien zur Gestaltung von Webinhalten als Unterstützung für die Optimierung der eigenen Webseite dienen.

Überprüfung der Webseite durch einen textbasierten Browser

Lynx Viewer vom Comspace Blog
Lynx-Abbild von Comspace Blog

In erster Linie darf man sich einen Crawler, der Webseiten erfasst und ausliest, wie einen einfachen Textbrowser vorstellen. Gängige Browser wie der Mozilla Firefox, Google Chrome, Apple Safari oder den bekannten Microsoft Internet Explorer sind in der heutigen Zeit in der Lage, Webseiten in voller Pracht anzuzeigen, das heißt vorhandene Grafiken oder auch Flash-Videos werden nach dem Wunsch der Seitenbetreiber dargestellt. Textbrowser, wie beispielsweise Lynx, stellen Webseiten – wie der Name es schon sagt – in reiner Textform dar. Bilder und andere Elemente wie zum Beispiel Videos werden in einem Textbrowser nicht angezeigt.

Des Weiteren sind in einem Textbrowser diverse Funktionen wie JavaScripte, Cookies und Session-IDs nicht nutzbar bzw. können für Probleme sorgen. Ähnlich agieren auch Webcrawler – auch wenn diese mittlerweile weiterentwickelt wurden und relativ leistungsfähig sind, kann ein Webcrawler mit den oben genannten Elementen auf einer Webseite Probleme haben.

Pauschal lassen sich natürlich nicht alle Elemente auf einer Webseite entfernen – ein Onlineshop ohne entsprechende Bilder oder Produktvideos wäre im Jahre 2012 undenkbar. Dem entsprechend ist hier die technische Aufgabe des Webseitenbetreibers dafür zu sorgen, dass die Crawler der Suchmaschinen es möglichst einfach haben, die Inhalte der Webseite zu crawlen.

Zum einen hat der Webseitenbetreiber die Möglichkeit, seine Internetpublikation mithilfe des eben erwähnen Lynx Textbrowsers zu prüfen – zum anderen bieten aber auch die Google Webmaster Tools die Möglichkeit, eine Webseite durch einen Crawler abzurufen und sich das Ergebnis ausgeben zu lassen.

Exkurs: Cloaking und ungeeignete Techniken

Die obigen Gründe und die anfänglichen Schwierigkeiten hatten zur Folge, dass in der Anfangszeit des kommerziellen World Wide Webs diverse Techniken entwickelt wurden, die dafür sorgten, dass Suchmaschinen wie Google beim Besuch einer Webseite komplett andere Inhalte angezeigt wurden als dem Endverbraucher. Die Technik war dabei relativ einfach: Wenn eine Webseite besucht wurde, wurde zu Beginn abgefragt, ob es sich um einen realen Besucher handelt oder ob hier ein Suchmaschinencrawler unterwegs ist – sobald ein Suchmaschinencrawler erkannt wurde, zeigte man diesem einfach die Webseite in einer anderen Form.

Mittlerweile sind solche Techniken seitens der Suchmaschinen nicht sonderlich gern gesehen und können im Ranking zu Abwertungen führen. Diese Technik machten sich natürlich auch andere Personen zu Nutze und verschleierten somit Inhalte, die nicht zwangsläufig in Suchergebnissen auftauchen sollten bzw. die seitens der Suchmaschine erst gar nicht erkannt werden sollten.

Suchmaschinen die Aktualität der Seite präsentieren

Im ersten Teil „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts“ wurde bereits angesprochen, dass die Qualität des Inhalts eine wichtige Rolle für ein positives Ranking innerhalb der Suchmaschinen spielt. Nebst der Qualität des Inhalts ist auch die Aktualität, sprich wie oft neue Inhalte publiziert oder ältere Inhalte aktualisiert werden, relevant und sorgt natürlich auch dafür, dass Crawler eine Webseite regelmäßiger besuchen könnten. Wenn ein Crawler bemerkt, dass eine Webseite regelmäßig bzw. täglich neue Inhalte veröffentlicht, wird auch der Crawling-Rhythmus automatisch angepasst.

Um dem Crawler relativ schnell mitzuteilen, ob neue Inhalte verfügbar sind, empfehlen die Google Webmaster Richtlinien die Verwendung des http-Headers “If-Modifies-Since“. Anhand dieser Funktion teilt der Webserver dem Crawler mit, wann neue Inhalte auf der Internetseite veröffentlicht wurden – natürlich kann dies auch anhand der Webseite an sich geschehen, wenn beispielsweise eine Zeitangabe für die Erstellung des Artikels existiert. Im Gegensatz zu der Zeitangabe auf der Webseite besitzt die Lösung des http-Headers den Vorteil, dass Bandbreite eingespart werden kann.

Inhalte vor dem Crawler schützen

robots-txt - Alle Suchmaschinen dürfen Inhalte durchsuchen und indexieren
Suchmaschinen ist das Durchsuchen/Indexieren der Webinhalte erlaubt

Selbst in der heutigen Zeit sind für viele Webseiten-Betreiber Begriffe wie Robots.txt und Meta-Robot ein Fremdwort. Doch dabei ist es nicht verkehrt, dem Suchmaschinen-Crawler mithilfe einer Robots.txt mitzuteilen, welche Verzeichnisse durchsucht werden sollen und welche eben nicht durchsucht werden sollen – schließlich muss nicht jeder Inhalt oder gar jedes Bild im Index der Suchmaschinen dargestellt werden.

Besonders wichtig ist dabei, dass der Webseitenbetreiber selbst die vorgenommenen Anweisungen in der eigenen Robots.txt kontrolliert, da es auch passieren kann, dass Suchmaschinen-Crawler komplett ausgeschlossen werden. Als Hilfsmittel für die Kontrolle eigenen sich die Google Webmaster Tools, womit zum einen die Robots.txt geprüft werden kann und zum anderen die Seite durch einen Crawler abgerufen werden kann. An den Resultaten lässt sich erkennen, wie der Google-Bot die Webseite sieht und natürlich welche Inhalte der Bot abgreifen kann und welche nicht.

Das Tool aus den Google Webmaster-Tools nennt sich übrigens „robots.txt“-Analyse Tool.

Informationen zur Erstellung einer Robots.txt finden sich auf nachfolgenden Seiten:

Neben der Erstellung einer Robots.txt gibt es auch die Möglichkeit für einzelne HTML-Seiten mittels dem Meta-Tag „<meta name=“robots“ content=“index,follow“ />“ bestimmte Einstellungen vorzunehmen, die einem Suchmaschinen-Crawler mitteilen, ob die Inhalte indexiert werden dürfen („index“) oder nicht indexiert werden dürfen („noindex“). Zudem kann angegeben werden, ob den Links auf der einzelnen Seite gefolgt („follow“) oder nicht gefolgt („nofollow“) werden sollen.

Die Webseite auf Herz und Nieren testen (Teil 2.1)

Aufgrund des Themenumfangs behandle ich diesen Punkt in einem separaten Artikel. Lesen Sie die Fortsetzung in „Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Weitere Artikel zum Thema Google Webmaster Richtlinien

Seo Poster 2012: Gewinnspiel von Martin Missfeldt

Seo Poster 2011 - Neuauflage für 2012

Bereits im vergangenen Jahr hat Martin Missfeldt sein sogenanntes Seo Poster erschaffen und für eine Vielzahl von Personen sehr schöne Avatare im Comic-Stil gezeichnet. Da laut eigener Aussage sich die Anfragen häufen, bietet  Martin auch in diesem Jahr seine Fähigkeiten an.

Nebst dem konventionellen Weg zum Erwerb eines solchen Avatars, gibt es fünf Comic-Avatare zu gewinnen.

Wie sieht ein Comic-Avatar aus?

Die meisten Leser werden sich nun fragen, wie so ein Comic-Avatar ausschaut. Ein Bild vom Stil der Avatare kann man sich wunderbar durch das Seo Poster 2011 machen.

Als Grundlage für die Zeichnung dient ein Profil-Foto, das natürlich eine gewisse Aussagekraft besitzen sollte. Das bedeutet, das Gesicht derjenigen Person sollte klar zu erkennen sein – dem entsprechend eignet sich für die Bestellung bspw. ein Passfoto.

Seo Poster 2011 - Neuauflage für 2012

Ich möchte am Gewinnspiel teilnehmen…

Bis zum kommenden Dienstag, den 22.05.2012, besteht die Möglichkeit an dem Gewinnspiel teilzunehmen. Die Teilnahme ist denkbar einfach, dazu reicht es beispielsweise den Hauptartikel von Martin per Twitter zu verteilen und dies mit dem Hashtag #comicavatar zu versehen.

Auch andere Möglichkeiten für die Teilnahme durch den Einsatz von Google Plus und auch Facebook sind gegeben. Diese können im Artikel von Martin nachgelesen werden.

Kein Erfolg beim Gewinnspiel gehabt…

Sicherlich nehmen eine Vielzahl von Personen an dem Gewinnspiel teil, so bietet Martin auch die Möglichkeit ein passendes Avatar zu erwerben – mit rund 25 € zzgl. 7 % Mwst. kann sich jeder ein Avatar zaubern lassen.

Wofür sich ein Avatar eignet?

Ein solches Avatar eignet sich hervorragend für die Nutzung im Social Media Bereich, sei es bei Facebook, Google Plus oder Twitter. Gerade für Blogger kann ein Avatar in Verbindung mit dem Dienst Gravatar genutzt werden.

Vorwort zum SEO-Tool Day und zur SEO-Campixx

Wie bereits berichtet, nehmen wir auch in diesem Jahr an der SEO-Campixx (als Teilnehmer und Sponsor) teil. Die Erwartungen, gerade an den SEO-Tool Day, der bereits am Freitag vor der eigentlichen Konferenz stattfindet, sind natürlich groß.

Der SEO-Tool Day

SEO Campixx 2012 TooldayAm SEO-Tool Day geht es nicht darum, sich einen Überblick über aktuelle SEO-Tools zu verschaffen, sondern vielmehr darum, interessante Tools zu vergleichen und natürlich die Erfahrung mitzunehmen, wie die Entwickler selbst mit dem Tool arbeiten.

Den SEO-Tool Day werden wir zum größten Teil im Saal verbringen, um die Tools Searchmetrics Essentials, Link Research Tool und natürlich Sistrix Toolbox im Produktiveinsatz anzuschauen. Besonders interessant an den Tools ist zum einen die gebotene Leistung wie auch die Möglichkeit der Kombination dieser Tools.

Tag 1 der SEO-Campixx

Der erste Tag beginnt üblicherweise mit der Begrüßung und kleinen Vorstellungsrunden der Teilnehmer. Im Anschluss gegen 10:30 Uhr beginnen auch die ersten Vorträge.

Aufgrund der Vielzahl an Vorträgen, knapp 60 pro Tag und meist 12 zur gleichen Zeit, hat man natürlich die Qual der Wahl. Nachfolgende Vorträge haben wir für uns herausgepickt.

    • WP Amazon Affiliate Blogs from the scratch
      Master: Jens Ole Korting
    • Google News Debusting und Best/Worst Practice
      Master: Johan Hülsen, Sebastian Carlo
    • Linkaufbau Trampelpfade – Effektive Generierung hochwertiger BL abseits des Mainstreams
      Master: Björn Tantau
    • Monetarisierung: Mehr Umsatz für Content Seiten
      Master: Arthur Mai
    • Innovatives Linkbuilding mit FlickR, RSS, Copyscape & Tynt
      Master: Marco Verch
    • Mit Minisites in Nischen und im Longtail Geld verdienen
      Master: Alexander Hacker, David Reisner
    • Erfolgreicher Linkaufbau an echten Beispielen
      Master: Sasa Ebach
  • Live „wie projektierte ich eine neue Expired Domain in einer Campixx Session“
    Master: Oliver Hauser

Die obige Liste ist natürlich noch sehr lang und die Wahrscheinlichkeit, dass alle Workshops mitgenommen werden können, ist leider gering. Allerdings ist für Tag 1 eine gewisse Vorauswahl getroffen und somit kann kurzfristig noch überlegt werden, welche dieser Workshops auch wahrgenommen werden. Der Vorteil der SEO-Campixx ist die Möglichkeit des Netzwerkens und somit ist auch die Möglichkeit gegeben mit anderen Personen in ein Gesprach zu kommen, auch wenn der Workshop nicht besucht werden konnte.

Tag 2 der SEO-Campixx

Auch am 2ten und zugleich letzten Tag der SEO-Campixx im Jahre 2012 erwarten uns spannende und hoffentlich lehrreiche Workshops – ein besonderes Augenmerk haben wir auf die nachfolgenden Workshops gelegt.

    • SEO Potentialprognosen – Vom Glaskugelblick zur Wissenschaft
      Master: Johannes Reimann, Siwen Zhang
    • Wenn visuelle Aspekte und Trust neben Social Signals auf Link Ressourcen immer wichtiger werden
      Master: Carsten Riemer
    • Prozessoptimierung beim Aufbau von Linknetzten mit Expired Domains
      Master: Nicolas Sacotte
    • SEO und UGC?
      Master: Sebastian Sälzle
    • Automatisierung mit UBot Studio
      Master: Stefan Oversberg
    • Linkaufbau automatisieren – Macht der Macros
      Master: Christian Schmidt
    • Content Syndication: Mit Duplicate Content Geld verdienen
      Master: Niels Dahnke
    • Scrapebox – Ein Einstieg abseits von bloßen Kommentarspam
      Master: Daniel Schramm
  • Fallstudie: Linkaufbau mit Presseverteilern
    Master: Frank Doerr

Abschließend gibt es noch eine Auswertung, wo die Teilnehmer der Campixx die spannenden zwei bzw. drei Tage Revue passieren lassen können – gegen 17:30 Uhr ist die Veranstaltung offiziell beendet.

Ein kurzes Fazit

Wir sind natürlich schon jetzt voller Vorfreude auf die 3-Tage SEO Campixx in Berlin und sind gespannt darauf, welche Workshops wir mitnehmen werden und welche interessanten Persönlichkeiten, wie zum Beispiel Soeren Eisenschmidt, wir antreffen werden.