Vorwort zur SEO Campixx 2013

Wie in den vergangenen Jahren findet auch 2013 die SEO Campixx im Hotel am Müggelsee statt. Ab Freitag besuchen wieder rund 550 Teilnehmer die Unkonferenz, die durch Marco Janck ins Leben gerufen wurde.

Offizieller Trailer zur SEO-Campixx 2013

Der SEO-Tool Day, in dem es in erster Linie um Tools rund um SEO ging, wird in diesem Jahr durch den Next Level Day ersetzt.

Next Level Day – der Tag 0

Der Next Level Day hat das Ziel den Horizont der Teilnehmer zu erweitert, in dem nicht ausschließlich SEO und klassische Marketing-Themen vorgestellt werden. Der Next Level Day ähnelt dem Programm der M3 Campixx, die im Sommer stattfinden wird. Aufgrund der Vielzahl an Workshops hat man natürlich die Qual der Wahl. Nachfolgende Vorträge haben wir für uns herausgepickt.

Tag 1 der SEO-Campixx 2013

Der erste Campixx-Tag beginnt in der Regel mit einer Begrüßung, v.a. für die Teilnehmer die am Next Level Day nicht teilgenommen haben. Marco Janck wird die SEO-Campixx offiziell eröffnen und im Anschluss gegen 10:30 Uhr beginnen die ersten Workshops.

Natürlich werden wir nicht alle Workshops in Anspruch nehmen können, da es einfach nicht möglich ist, eine solche Vielzahl an Workshops zu besuchen. Somit ist aber bereits für Tag 1 eine gewisse Vorauswahl getroffen worden und die Möglichkeit gegeben, spontan den ein oder anderen Workshop dazwischen zu schieben.

Der Vorteil der SEO-Campixx ist natürlich das Netzwerken mit anderen Teilnehmern, so dass auch in den Pausen die ein oder andere nützliche Information aus nicht besuchten Workshops erworben werden kann.

Tag 2 der SEO Campixx 2013

Am zweiten Tag der SEO-Campixx stehen wieder spannende und lehrreiche Workshops auf dem Plan. Ein besonderes Augenmerk haben wir dabei auf die nachfolgenden Vorträge gelegt.

  • Linkbuilding mit der Wikipedia
    Master: Pierre Kurby
  • Wikipedia-Links auf Affiliate-Projekte
    Master: Michael Antrag
  • WDF/IDF in der Praxis – perfekter Wiederaufbau von Expireds
    Master: Lambertus Kobes
  • Relevante SEO Metriken
    Master: Marcus Tober
  • Einmal Pinguin und zurück – Erfahrungen aus unseren E-Commerce-Projekten
    Master: Thomas Kilian
  • Kundenzufriedenheit vs. SEO
  • Master: Markus Laue

Noch ein nettes Video zur Seo-Campixx mit dem Titel „SEO Campixx 2013 – Die Ruhe vor dem Sturm!“

So – das soll es erstmal gewesen sein, bis zum Recap für die SEO Campixx 2013.

Wie oft wurden Inhalte einer Website in sozialen Netzwerken geteilt?

Im Bereich des Online Marketing tummeln sich eine Vielzahl von nützlichen wie auch kostenlosen Tools in den Weiten des World Wide Webs.  Das kostenlose Tool  Socialyser gibt die Antwort auf die Frage „Wie oft wurden Inhalte meiner Website in den großen sozialen Netzwerken geteilt“.

Socialyser – Überblick über Social Signals

Das Tool Socialyser ist ein recht einfaches Tool, dass einen guten Überblick darüber gibt, in wie weit Inhalte / Seiten einer Website auf sozialen Netzwerken (Google Plus, Facebook und Twitter) geteilt, verlinkt, geshared oder getwittert wurden.

Start der Analyse mit Socialyser

Zur Analyse reicht die Eingabe von einer oder mehreren Domains / URLs. Optional kann ausgewählt werden, ob die gesamte Domain analysiert werden soll und ob lediglich die Seiten angezeigt werden sollen, die auch tatsächlich in den oben genannten Netzwerken verbreitet wurden.

Socialyser - Start der Auswertung für comspace
Socialyser – Start der Auswertung für comspace

 

Auswertung der geteilten URLs

Im Anschluss erhält der Nutzer eine kurze Statistik über die Seiten die in sozialen Netzwerken geteilt wurden. Nebst der Häufigkeit für Google Plus und Twitter erfährt der Websitebetreiber ob Seiten auf Facebook geliked, geshared oder kommentiert wurden.

Socialyser - Ergebnisse der Auswertung für comspace
Socialyser – Ergebnisse der Auswertung für comspace

Die Daten lassen sich übrigens in Form einer .csv herunterladen.

Backlinks überprüfen?

Übrigens hat der Hersteller von Socialyser ebenfalls einen der besten kostenlosen Backlink-Checks auf den Markt gebracht. Dieser ist unter www.backlinktest.com zu erreichen und ist ähnlich einfach in der Handhabung.

Google Update Check für die Webseite von Sistrix

Aus dem Hause Sistrix gibt es nun einen öffentlichen Google Update Checker, womit jeder Website-Betreiber prüfen kann, ob er durch eines der vielen Google Updates betroffen ist und welche Veränderungen im Sistrix Sichtbarkeitsindex entstanden sind.

Sistrix Google Update Check

Die Überprüfung ist dabei recht simpel, einfach die gewünschte Domain eintragen und sofern Sistrix ausreichend historische Informationen über jene Domain besitzt, werden die Sichtbarkeitsveränderungen in der Zeitskala angezeigt. Anzumerken ist, dass der Sichtbarkeitsindex in erster Linie eine Tendenz darstellt und die Veränderungen einzelner Keywordpositionen genauer betrachtet werden sollten.

Google Updates am Beispiel von comspace.de

In der nachfolgenden Grafik ist zu erkennen, dass sich der Sistrix Sichtbarkeitsindex zu der Domain comspace.de während den vergangenen drei Panda Updates geringfügig verbessert hat.

Sistrix Google Updates Checker Sichtbarkeitsindex

Sistrix Smart

Ebenfalls hat Sistrix vor einigen Wochen eine kostenlose Variante der Sistrix Toolbox an den Markt gebracht. Mit Sistrix Smart haben auch Hobby-Webseitenbetreiber die Möglichkeit erste Informationen über eine Domain zu sammeln, zu analysieren und auszuwerten. (Sistrix Smart)

sistrix smart - die kleine toolbox

Google Penguin Update

Nach dem bereits im August 2011 das Google Panda Update die Suchergebnisse ein wenig durcheinander gewirbelt hat, folgte im April 2012 das Pinguin Update / Penguin Update.

Ähnlich wie bei dem Panda Update waren auch Websites und Webportale betroffen, die nicht gegen die Google Webmasterrichtlinien verstießen – wodurch vermutlich wiederum einige Existenzen ins Wanken gerieten. Kollateralschäden sind auch bei einem Google Update nicht auszuschließen, dem entsprechend wird es, wie bereits im Artikel zum Panda Update beschrieben, langfristig immer wichtiger, sich auf mehr als nur eine Traffic-Quelle zu konzentrieren.

Google Penguin Update

Auswirkungen des Penguin Updates

In erster Linie sollte sich das Google Penguin Update an Websites richten, die als überoptimiert gelten.

Zu Beginn war die Frage, worauf sich das überoptimiert bezieht:
Sind damit On-Page Maßnahmen gemeint, wurden zu oft Überschriften deklariert oder ist der Quellcode zu sauber/aufgeräumt? Oder bezieht sich dies auf externe Faktoren wie das Linkbuilding?

Ersteres kann eigentlich nur bedingt eine Ursache sein, schließlich schreibt Google selbst in den Webmaster Richtlinien, dass eine Website zwingend ausreichend strukturiert und technisch einwandfrei arbeiten muss. Bis dato werden durch diese Richtlinien keine Begrenzungen in Bezug auf den Einsatz bestimmter OnPage Elemente gesetzt, so dass hier jedem Websitebetreiber freigestellt wird, wie er seine Website strukturieren und aufbauen möchte. Ausgenommen sind natürlich Techniken wie das Cloaking, die explizit verboten sind. Zudem dürfte der Bereich der On-Page Optimierung mithilfe des Google Panda Updates bereits „abgedeckt“ sein.

Relativ schnell berichteten die Online Marketing Experten davon, dass die externen Faktoren (Offpage), also das Linkbuilding die Problemquelle darstellen. Links, auch Backlinks, fließen seit der Erschaffung des Google PageRank Algorithmus in die Bewertung von Websites mit ein.

Betroffene Ranking-Faktoren

In erster Linie bezieht sich das Update auf gekaufte und nicht organisch aufgebaute Links. Der Kauf wie auch der Handel mit Backlinks ist bereits seit einigen Jahren durch die Google Webmasterrichtlinien verboten – dennoch ist das Linkbuilding ein relevanter Faktor, gerade in umkämpften Nischen.

Frank Doerr berichtet unter dem Pseudonym Loewenherz auf seo-scene.de darüber,

dass primär Webseiten betroffen sind, die bei durchschnittlich mehr als 60 % der eingehenden Links ein Money-Keyword im Archnortext verwenden. In der Regel waren Websites mit weniger als 50 % Money Keywords bei eingehenden Backlinks nicht betroffen. Das lässt darauf schließen, dass das Pinguin Update ein Ankertext Penalty ist.

Bevor jetzt aber die Meinung entsteht, gute Websites dürften bis max. 59 % Money Keywords enthalten, sollte beachtet werden, dass auch Websites mit weniger als 50 % betroffen sind und es hier keine Gesetzmäßigkeit gibt, die dem Websitebetreiber einen Freibrief für 49 % oder 59 % Keyword Backlinks ausstellt. Der Suchmaschinenbetreiber Google wird in Zukunft immer genauer darauf achten, wie sowie mit welchen SEO relevanten Keywords Backlinks aufgebaut wurden und aus welchen Quellen eben diese entspringen.

Eine weitere Auswirkung des Pinguin Updates ist, dass ein gescheiter Linkmix aus themenrelevanten und nicht themenrelevanten Seiten existieren sollte. Dieser Punkt wird auch seit einigen Jahren im Zuge des organischen Linkaufbaus vermittelt.

Exkurs: Was ist ein organischer Link?

Organisch beschreibt in erster Linie, das ein Link natürlich sein sollte. Natürliche Links sind in der Regel Links die z.B. in Foren von Usern gesetzt werden, die anderen Personen mithilfe eines relevanten Links einen Tipp oder gar eine Problemlösung offerieren wollen.

In den seltensten Fällen werden natürliche Links mit einem SEO Keyword versehen, sondern durch Begriffe wie „hier“, „Link“, „schau mal hier“ oder der URL selbst gekennzeichnet.

Was kann getan werden, wenn eine Website betroffen ist?

Grundsätzlich wird es wohl einen Grund haben, warum eine Website von einem Google Penalty betroffen ist und diejenige Personen wird in den meisten Fällen auch wissen, warum die Website durch das Google Pinguin Update in seinen Rankings abgewertet wurde. Dennoch gibt es auch die Möglichkeiten, sein Ranking langfristig wieder zu verbessern.

Anmerkung: Ein Reinclusion-Antrag, also einen Antrag zur Wiederaufnahme in den Index, der in den Google WebmasterTools zur Verfügung gestellt wird, wird wahrscheinlich keinen Nutzen haben. Da dies Update eine Erweiterung des Google Algorithmus ist und kein (manueller) Filter.

Eine Möglichkeit ist es, die gekauften und selbst aufgebauten Backlinks abzubauen, dazu sollten die externen Links durch eine Backlink Analyse vorab durchleuchtet werden.

Der Abbau von Backlinks ist ein strittiges Thema im Online Marketing bzw. in der SEO-Welt. Die einen sind der Meinung, dass somit gegenüber Google gezeigt wird, dass Links, aus ggf. noch nicht bekannten Quellen aufgebaut, wurden – die anderen sehen es als logische Konsequenz um langfristig wieder Erfolge in den Rankings feiern zu dürfen.

Seit Mitte Oktober 2012 hat Google ein Tool in den Google WebmasterTools vorgestellt, womit die Linkkraft von Backlinks entwertet werden kann. Wer jetzt denkt – „super muss ich mir keine Arbeit mehr machen und entwerte die Links über das Tool“ dem sei gesagt, dass Google laut eigener Aussage dies nur zur Verfügung stellt, damit auch die Links entwertet werden können, die selbst nicht abgebaut werden können.

Auch dieses Tool gilt als heikles Thema – es gibt Marketing-Experten die hier von Verrat sprechen, da durch das Abbauen, Entwerten von Links Google Linkquellen und damit auch organisierte Linknetzwerke offenbart werden und kurz- bis langfristig nicht mehr nutzbar sind.

Blognetzwerke, Linknetzwerke und allgemein „kostenlose und günstige Linkquellen Netzwerke“ besitzen schon seit geraumer Zeit nicht mehr die gewünschte Backlink-Qualität. Quantität ist eben nicht gleich Qualität, auch wenn das immer noch nicht jeder wahrhaben möchte.

Bevor sich jetzt jemand an die Arbeit macht und fleißig Backlinks entwertet, die er ggf. gar nicht selbst gesetzt hat, sollte vorab überprüft werden, ob die Website wirklich durch das Pinguin Update betroffen ist – schließlich gibt es mit dem Panda-, Venice-, Freshness- und EMD-Update vier weitere Updates, welche die Google Rankings beeinflussen können.

Was versucht Google mit dem Pinguin Update?

Google versucht Ankertexte (Keywords / Schlagworte die Links kennzeichnen) zu entwerten. D.h. Google will weiterhin das Linkbuilding, den Linkhandel in allen Formen und Farben, entgegen zu wirken.

Was sagt Google offiziell zum Pinguin-Update?

(Quelle: www.website-boosting.de | Prof. Dr. Mario Fischer )

„to reduce webspam and promote high quality content“

Laut dem Suchmaschinenbetreiber Google selbst, waren von der ersten Variante des Pinguin Updates ca. 3 % aller Suchabfragen betroffen.

Literatur

Einen sehr interessanten Artikel zum Penguin-Update hat Hanns Kronenberg aus dem Hause der Sistrix Toolbox heute veröffentlicht. Dabei wurden 50 Domains/Websites überprüft, die durch das Penguin Update betroffen waren bzw. sind und wie sich eben diese Seiten in den vergangenen Monaten entwickelt haben.

Google PageRank Update (Februar 2013)

Es ist allem Anschein nach wieder soweit – Google spielt ein Update des sichtbaren PageRanks ein.

Einst galt der Google PageRank (Algorithmus) als das wichtigste Kriterium, um die Qualität von Websites bestimmten zu können. Die Grundlage war zugleich die Geburt der Suchmaschine Google im Jahre 1998.

Die Aufgabe des PageRank Algorithmus war bzw. ist es, die Qualität von Internetseiten anhand der Anzahl von Backlinks zu bestimmten und Webseiten anhand der daraus resultierenden Gewichtung in den Suchergebnissen zu positionieren. Der sichtbare Pagerank stellt sich in einer Skala von 0 bis 10 dar.

Google PageRank

Während vor Jahren noch diverse Webseitenbetreiber mit Popcorn und ausreichend Flüssignahrung darauf warteten, dass sich der Pagerank verbessert – so hat die Popularität deutlich abgenommen.

Warum der PageRank an Bedeutung verloren hat?

Im Verlauf der letzten 15 Jahren hatten Suchmaschinen wie Google Inc. ausreichend Zeit, nebst dem PageRank weitere Algorithmen (z.B. Google Panda Update), Filter und Extensions zu entwickeln, die zusätzlich die Wertigkeit und Qualität jener Webseiten, die einst nur durch den PageRank in den Suchergebnissen positioniert wurden, anhand von weiteren Kriterien und Muster bestimmen.

Das heißt, der Algorithmus von Suchmaschinen wie Google besteht nicht mehr aus einem Bewertungskriterium, sondern aus vergleichsweise vielen Kriterien, Mustern und Berechnungen. Zum Beispiel ist die Termgewichtung (w = WDF * IDF), die auf www.online-marketing.net sehr ausführlich von Karl Kratz beschrieben wird, ein sehr spannendes Thema.

Ich bin dennoch neugierig und möchte meinen PageRank messen?

Es gibt viele Möglichkeiten, den PageRank zu ermitteln. Mittlerweile gibt es für jeden Browser ausreichend Extensions / Plugins die eine Abfrage erlauben. Alternativ gibt es auch Tools, wie von www.seo-ranking-tools.de, mit denen der PageRank Online abgefragt werden kann.

Google Panda Update

Mit dem sogenannten Google Panda Update hat Google seinem Algorithmus ein Update spendiert, das langfristig die Qualität der Suchergebnisse verbessern soll – demnach ein weiterer Schritt in Richtung „qualitativ hochwertige Suchergebnisse und Websites“.

Google Panda Update in DeutschlandMithilfe des Panda Updates wird seit dem ersten Update im August 2011 die Qualität des Inhalts bewertet und diese Bewertung fließt in das Ranking einer Website ein. Bevor das Update in Deutschland eingespielt wurde, war es im Bereich des Online-Marketings schon länger Gesprächsthema Nr. 1 – zu Beginn lief das Update noch unter dem Namen Farmer Update.

Das Grundproblem, welches die Suchmaschinen sehen ist, dass es immer noch eine Reihe von Websites gibt, die keinen Mehrwert für Besucher liefern und im Endeffekt sinnbefreite Text- und Werbewüsten offerieren.  Denn analog zur Qualität des Inhalts, sollen beim Panda Update auch die eingesetzten Werbeflächen analysiert und bewertet werden – dadurch sollen Websites die zu viel Werbung und wenig nützlichen Inhalt bieten, in den Suchergebnissen abgewertet werden.

Aktuell liegt das Google Panda Update (laut SEOWetter.de) in der Version / Modifikation Nr. 24, vom 23.01.2013, vor.

Kurz zusammengefasst: Das Ziel des Google Panda Updates ist es, die Qualität in den Suchergebnissen mithilfe der Relevanz des Inhaltes stetig zu verbessern.

Auswirkungen des Google Panda Updates

Die Auswirkungen des Panda-Updates im August 2011 waren zum Teil verheerend und einige Internetunternehmen wie auch Privatleute fürchteten um ihre Existenzen. Bekannte wie auch unbekanntere Websites rutschten aufgrund des Updates sehr stark in den Suchergebnissen nach unten und büßten massiv Besucher ein.

Wie bei jedem Update ist es nicht unwahrscheinlich, dass ein Update auch Websites trifft, die es im Endeffekt nicht verdient hätten – genau aus diesem Grund arbeitet der Suchmaschinenbetreiber Google stetig an der Weiterentwicklung seiner Algorithmen.

Die ersten Auswertungen zeigen, dass primär reine Blognetzwerke, RSS-Verzeichnisse, Social News Seiten wie auch Preisvergleichsseiten durch das Update betroffen waren. Mittlerweile hat sich das durch die diversen Optimierungen etwas gelegt. Des Weiteren verloren auch Websites mit Massentexten die fast ausschließlich aus Seo Keywords bestanden und zum Zwecke des Linktauschs gezüchtet wurden – dem entsprechend keinerlei Mehrwert boten, deutlich an Positionen bis hin zur De-Indexierung.

Kurz zusammengefasst: Websites die Lesern einen echten Mehrwert bieten, sind in der Regel nicht von dem Update betroffen. Content-Farmen die nur aus Massentexten und wenig eigene Inhalte bieten werden es auch in Zukunft nicht einfach haben, gewünschte Positionen zu erreichen.

Optimierungspotentiale nach Panda Update erkennen und umsetzen

In Zukunft sollten Webseitenbetreiber versuchen mehr Traffic-Quellen aufzubauen. Zwar besitzt Google in Deutschland einen sehr hohen Marktanteil, dass schließt dennoch, gerade in Social Media Zeiten, nicht aus, dass keine weiteren relevanten Traffic-Quellen erschlossen werden können. Als Traffic-Quellen eignen sich natürlich Facebook, Twitter, Flicker wie auch Pinterest. Langfristig sollte jeder Websitebetreiber versuchen, die Risiken eines wegbrechenden Traffic-Kanals zu verteilen.

Neben der Steigerung der Traffic-Quellen sollte auch ein Augenmerk auf die eigene Website gelegt werden.  Grundsätzlich sollte die Qualität des Inhalts gesteigert werden, in dem diese auch explizit für die Leserschaft und nicht für etwaige Suchmaschinen geschrieben werden.

Zusätzlich eignen sich einige On-Page Optimierungsmöglichkeiten für die Verbesserung der eigenen Webseite, d.h. saubere Strukturierung, Verwendung von Bild- und Bildunterschriften. Zusätzlich sollten mit Analyse-Programmen Absprungraten und Ladezeiten bestimmt werden, um so eigene Fehler zu erkennen und diese bei Bedarf zu beheben.

Neue Marketing und SEO Konferenzen im Jahr 2013

SEOcruise - Meer Marketing

Wie in jedem Jahr stehen auch für das Jahr 2013 interessante Online Marketing Konferenzen an. Im vergangenen Jahr hatten wir bereits im Vorfeld über die SEO-Campixx im Berliner Hotel am Müggelsee berichtet und anschließend einen entsprechenden Recap über die besuchten SEO Workshops verfasst.

In diesem Jahr lohnt es sich, zwei neue Konferenzen hervorzuheben.

M3 Campixx

Mit der M3 Campixx, also quasi der Schwester der SEO-Campixx, hat das Team der SEO Agentur Sumago von Marco Janck eine weitere Konferenz ins Leben gerufen. Im Gegensatz zur SEO Campixx werden weitere Felder des Marketings (z.B. Neuromarketing, Web 3.0) abgedeckt, um einen Blick über den Tellerrand zu wagen.

Der Veranstaltungsort ist wie gewohnt das Hotel Müggelsee in Berlin, das sich nicht nur aus Sicht der Veranstalter, sondern auch aus Sicht der Teilnehmer bewährt hat. Die M3 Campixx findet vom 15. bis 16 Juni statt – gerechnet wird laut www.m3-campixx.de mit rund 250 Teilnehmern.

SEOCruise – Meer Marketing

SEOCruise - Onlinemarketing Konferenz auf internationalen GewässernEinen sehr interessanten und ungewohnten Veranstaltungsort hat sich das Team rund um Maximilian Euler einfallen lassen. Bei der SEO Konferenz wird SEO international, denn es geht auf einem Kreuzfahrtschiff von Kiel nach Oslo und zurück. Stattfinden wird die SEOCruise vom 13. bis 15. Mai 2013.

Die Teilnehmer dürfen sich auf eine Reihe von namhaften Sprecher/innen, wie z.B. Karl Kratz (karlkratz.de), Johannes Beus (Sistrix.de) und Astrid Jacobi (Staats Consult), freuen.

Weitere Informationen zu dieser Konferenz und den angebotenen SEO Seminaren und Marketing Workshops gibt es auf: www.seocruise.de

Konferenzen im Jahr 2013

Auf dem SEO Blog (www.seo-book.de) der CONTENTmanufaktur GmbH von Eric Kubitz kann die komplette Liste der anstehenden Konferenzen für 2013 eingesehen werden.

Website Geschwindigkeit: Was ist langsam und vor allem was ist schnell?

Pagespeed Diagramm

Das Thema Pagespeed / Website Geschwindigkeit geistert gefühlt schon seit Jahren durch die Internetwelt. Warum sollen Websites schnell sein und was ist eigentlich mit der Website Geschwindigkeit gemeint? Wer definiert, was langsam und vor allem was schnell ist?

Fangen wir erst mal mit den Punkten an, was Website Geschwindigkeit meint und wieso Websites überhaupt schnell sein sollen.

Website Geschwindigkeit (PageSpeed)

Wenn vom PageSpeed bzw. der Website Geschwindigkeit gesprochen wird, ist in erster Linie die Ladezeit einer Website gemeint. Mit der Ladezeit wird die Zeit beschrieben, die benötigt wird, bis eine Website vollständig geladen ist, so dass ein Besucher den Inhalt einer Website sehen kann.

Denn je schneller eine Website geladen wird, desto schneller kann der Besucher die Inhalte lesen und entsprechend innerhalb der Website navigieren. Des Weiteren sorgen schnelle Ladezeiten dafür, dass Besucher eine Website tatsächlich besuchen und nicht aufgrund von langen Ladezeiten den Besuch abbrechen, bevor der eigentliche Inhalt vollständig geladen ist. Ebenfalls eine Frage der Usability.

Übrigens hat der Suchmaschinenbetreiber Google den Begriff „PageSpeed“ geprägt und stellt auch einige interessante Hinweise, Tipps und Tricks zur Optimierung der Website Geschwindigkeit zur Verfügung. Der aber mittlerweile wichtigste Grund für schnelle Ladezeiten ist der, dass der PageSpeed ein Ranking Kriterium für Websites ist und kürzere Ladezeiten das Ranking unterstützen können.

Geschwindigkeit: Was ist langsam und was ist schnell?

Den meisten wird Ladezeit ein Begriff sein, auch dass es Optimierungspotentiale wie zum Beispiel die Verringerung von Bildgrößen und das Minimieren von internen und externen Abfragen gibt.

Aber die Frage, die sich eigentlich stellt ist, woher weiß ein Webseitenbetreiber, ob eine Website langsam oder schnell ist? Zum einen gibt es eine Vielzahl an Diensten mit denen die Geschwindigkeit einer Website gemessen werden kann und zum anderen stellt der Suchmaschinenbetreiber Google in seinen Google WebmasterTools eine Leistungsübersicht für die Website zur Verfügung.

Pagespeed Diagramm
Beispiel Diagramm: Entwicklung des Pagespeeds

Schauen wir uns die obere Grafik etwas näher an, dann erkennen wir dass die Website die zu dieser Grafik gehört, in den vergangenen Monaten seitens Google bzgl. der Ladezeit überprüft wurde. Die optimale Ladezeit für eine Website liegt laut Google im Bereich von max. 1.5 Sek. – mit aktuell rund 2.3 Sek. Ladezeit steht die obere Website nicht schlecht dar, aber auch nicht wirklich gut. Das bedeutet, es muss nach Optimierungspotentialen Ausschau gehalten und diese umgesetzt werden.

Das Ziel sollte also sein, langfristig zu erreichen, dass die Ladezeit bei unter 1.5 Sek. liegt. Das einzige Manko an der Übersicht in den Google WebmasterTools ist, dass leider keine genaue Angabe darüber existiert, von wo aus die Website abgerufen wird. Logischerweise erhöht sich die Ladezeit, wenn Website A aus den USA und nicht aus dem europäischen Raum abgerufen wird. Die Datenwege sind entsprechend länger.

Geeignete Tools zur Überprüfung des PageSpeeds

Vorweg sei gesagt, dass die meisten Tools eine Vielzahl von Optimierungspotentialen einschließlich detaillierter Erklärungen aufzeigen, die anschließend direkt in die ToDo-Listen übernommen werden können.

Google SEO: Ist Suchmaschinenoptimierung für Google böse?

Google SEO - Ist Suchmaschinenoptimierung für Google böse

Es kommt nicht selten vor, dass Personen die Suchmaschinenoptimierung pauschal als ein negatives Instrument im Online Marketing ansehen. Gerade in Bezug auf das sogenannte Google SEO ist relativ viel Negatives zu hören. Die Frage, die es sich dabei zu stellen gilt ist in erster Linie, was ist Suchmaschinenoptimierung und widerspricht sie den Google Webmaster Richtlinien?

Was ist eigentlich SEO?

Google SEO - Ist Suchmaschinenoptimierung für Google böse

SEO steht in erster Linie für den englischen Begriff „search engine optimization“, was übersetzt Suchmaschinenoptimierung bedeutet und ist ein Teilbereich des Suchmaschinenmarketings. Die Suchmaschinenoptimierung wird in die Teilbereiche OnPage und Offpage unterteilt. Während OnPage sämtliche Optimierungsmaßnahmen beschreibt, die an einer Website direkt vorgenommen werden können, bezieht sich Offpage auf externe Faktoren wie z.B. Backlinks.

Allgemein zielt die Suchmaschinenoptimierung darauf ab, dass Websites insbesondere deren Inhalte unter bestimmten Keywords (Schlagworten) in den Suchergebnissen (SERPS) besser positioniert werden. Die Aufgabe dabei ist, bestehende Websites anhand ihres Aufbaus, ihrer Struktur und ihren Inhalten zu analysieren und die vorhandenen Optimierungspotentiale herauszufiltern. Diese werden anschließend in Verbindung mit dem Websitebetreiber gezielt umgesetzt.

Es kommt gelegentlich vor, dass bereits bei den Begriffen „Optimierungspotentiale herausfiltern“ und „Optimierungspotentiale umsetzen“ die ersten Personen von Voodoo, schwarzer Magie und bösartigem Manipulieren der Suchergebnisse sprechen.

Frage: Ist das Optimieren und Verbessern der eigenen Website schwarze Magie oder gar böse?

Eigentlich nicht, schließlich sollte es das Ziel eines jeden Websitebetreibers sein, den potentiellen Besuchern die bestmögliche Qualität zu bieten. Und warum sollten diese Inhalte ggf. aufgrund von mangelnder Optimierung dem potentiellen Kunden verborgen bleiben?!

Ist die Suchmaschinenoptimierung im Sinne der Suchmaschinen böse?

Die Suchmaschinen wie zum Beispiel Google oder Bing verbieten die Optimierung der Website nicht. Das bedeutet aber nicht, dass es nicht auch Verfahren gibt, die den Suchmaschinenbetreibern ein deutliches Dorn im Auge sind.

Dem entsprechend ist auch in den Webmaster Richtlinien von Google explizit definiert, dass manipulative Verfahren wie z.B. das Cloaking nicht erwünscht sind und zur Abwertung im Google Ranking bis hin zur Deindexierung von Webseiten führen können (Google Penalty). Ebenso ist das aktive Linkbuilding (Link Building) /der aktive Linkaufbau, d.h. der Kauf oder Linktausch von Links seitens der Suchmaschinen nicht gewünscht.

Im Klartext bedeutet das – ja, es gibt Verfahren, die von Suchmaschinen als negativ eingestuft werden, aber wer sich im Rahmen der Google Richtlinien bewegt, hat die Möglichkeit, seine Website entsprechend zu optimieren.

Zusammenfassung: SEO dient der Optimierung!

Suchmaschinenoptimierung ist weder ein böses Instrument noch schwarze Magie. Sondern dient der Optimierung und Verbesserung von Websites einschließlich deren Inhalte. Es gibt Verfahren, die von den Suchmaschinen strikt verboten sind und dem entsprechend auch nicht zum Einsatz kommen sollten. Wer sich aber im Rahmen der Webmaster Richtlinien der Suchmaschinen bewegt, hat die Erlaubnis als auch die Möglichkeit seine Potentiale auszuschöpfen und die Website entsprechend zu optimieren.

Richtlinien zum qualitativen Aufbau von Webinhalten: Nutzen für den Besucher (Teil 3)

Google Webmaster Tools und Google Webmaster Richtlinien

Qualität ist nicht erst seit den vergangenen Google Updates namens Panda und Pinguin ein Diskussionsthema, sondern schon länger ein relativ wichtiger Faktor in Bezug auf den Aufbau und die Erstellung von Webseiten und Webinhalten.

Dies bezüglich gibt es in den Google Webmaster Richtlinien einen gesonderten Bereich der sich mit dem Thema „Qualitätsrichtlinien“ beschäftigt. Primär wird den Richtlinien auf die bekanntesten manipulativen Verfahren eingegangen, die natürlich für den erfahrenden Webentwickler ein Begriff sein dürften.

Google Webmaster Tools und Google Webmaster Richtlinien

Null Toleranz bei der Anwendung manipulativer Verfahren

Seit Bestehen der Suchmaschinen versucht der Webseitenbesitzer seine Webseite so erfolgreich wie möglich zu gestalten. Bei der Vielzahl an Internetseiten und potentiellen Konkurrenten ist es vor allem in der heutigen Zeit nicht unbedingt einfach, sich auf den vorderen Plätzen unter den relevanten Keywords zu positionieren.

So gibt es früher wie heute findige Webseitenbetreiber die versuchen durch gezielte Manipulation die Suchmaschinen und deren Algorithmen auszutricksen. Genau aus diesen Gründen haben Suchmaschinenbetreiber eigene Qualitätsrichtlinien entwickelt, die Webseitenbetreiber darüber aufklären, was erlaubt ist und was nicht.

In vielen Fällen glauben die Webseitenbetreiber allerdings, solange ein Verfahren nicht in den Qualitätsrichtlinien der Webmaster Richtlinien auftaucht, wird das Verfahren seitens der Suchmaschinenbetreiber wie Google gebilligt. Doch dies ist eigentlich nicht der Fall – manipulative Verfahren werden von Suchmaschinen nicht toleriert. Es kann aber durchaus sein, dass bis dato noch kein Algorithmus Update existiert, dass diese Verfahren in die Schranken weist.

Bei Missachtung der Qualitätsrichtlinien werden die Webseitenbetreiber durch verschiedene Maßnahmen von der Abwertung im Ranking bis hin zur Deindexierung einer Webseite bestraft.

Webseiten sind für die Nutzer da

Häufig vergessen die Webseitenbetreiber, dass eine Webseite nicht für die Suchmaschinen erstellt wird, sondern für den potentiellen Besucher bzw. Kunden, der auf seinem Streifzug durch das World Wide Web, die eine Webseite entdeckt.

Um unsinnigen und aufwendigen Manipulationsversuchen entgegen zu wirken, gibt Google dem Webseitenbetreiber den Ratschlag seine Zeit in die Optimierung und Verbesserung seiner Webseite und Webinhalte zu investieren. Dadurch wird dem Besucher der Website ein wesentlich größerer Dienst erwiesen und gleichzeitig wird zur langfristigen Verbesserung von Suchergebnissen und Suchqualität beigetragen. Die Webseiten, die die Qualitätsrichtlinien von Google einhalten, werden durch ein besseres Ranking belohnt.

Wie du mir, so ich dir – der Linktausch

Google empfiehlt nicht an Linktauschprogrammen teil zu nehmen oder Linkkauf zu betreiben, um das Ranking oder den PageRank zu verbessern. Partnerseiten zu erstellen, die alleine dem Zweck der Websitevernetzung dienen ist ein Verstoß gegen die Google Webmaster Richtlinien, der sich negativ auf das Ranking Ihrer Website in den Suchergebnissen auswirkt, gleiches gilt für Links zu Webspammern oder „schlechte Nachbarschaft“.

Grundprinzipen der Qualitätsrichtlinien

In den Google Webmaster Richtlinien werden einige Grundprinzipien seitens Google aufgelistet – wobei diese in den meisten Fällen dem Webmaster eigentlich auch bekannt sein sollten. Dazu gehört das Cloaking eine Modeerscheinung, bei der Suchmaschinen andere Inhalte angezeigt wurden, als dem Besucher – damit Webseiten sich in den Suchergebnissen besser positionieren.

Seitens Google sind Verborgene Texte oder verborgene Links, automatischen Suchanfragen an Google, Seiten mit irrelevanten Suchbegriffen, doppelte Seiten, Sub-Domains und Duplicate Content, Seiten mit Phishingversuchen, Viren, Trojanern usw. nicht erlaubt. Zudem wird von Brückenseiten und Partnerprogrammen, die keinen Wertgewinn darstellen abgeraten. Sollte eine Seite nicht diesen Richtlinien entsprechen, bietet Google die Möglichkeit an, nach der Korrektur einen Antrag auf die erneute Überprüfung der Website zu stellen.

Weitere Artikel zum Thema Google Webmaster Richtlinien