Alles geschrumpft – außer der Leistung

Die Anforderung

Maximale Performance und Ausfallsicherheit mit einem geringen Preis und minimalen Betriebskosten zu vereinen ist die Herausforderung, die jeder Infrastrukturconsultant von seinen Kunden (nahezu) jeden Tag aufs Neue von seinen Kunden gestellt bekommt. Besonders die laufenden Betriebskosten (Strom, Klimatisierung, Rack-Infrastruktur) stellen heute einen wesentlichen Kostenfaktor im Betrieb einer Serverlandschaft. Neben den Energiekosten müssen auch die Stellplatzkosten betrachtet werden – spätestens seit der bekannten Werbung des blauen Riesen („Wo sind unsere ganzen Server hin?“ – „Hier!“ – „Was ist das?“ – „Es ist ein Blade?“) ist allgemein bekannt, dass jeder das Ziel verfolgt möglichst viel Performance auf wenig Fläche unterzubringen. Denn nicht nur die Fläche, sondern auch die Anforderung an die Klimatisierung stellt eine Herausforderung dar, sobald mehr Fläche benötigt wird.

Die Lösung

Neulich stellte mich ein Kunde vor genau diese Herausforderung. Maximale Performance im Bereich der CPU-Leistung und eine hohe I/O-Rate schlossen eine Virtualisierung schnell aus, die vielen Komponenten aus denen das System bestehen sollte, sorgte schnell für eine größere Anzahl an sogenannten 2 HE-Systemen, gleichzeitig war die benötigte Anzahl an Festplatten aufgrund des geforderten Datenvolumens sehr gering, so dass wenige Festplatten zur Skalierung und Ausfallsicherheit reichten.

thomas_krenn_multinode_server
Der Multinode-Server der Thomas-Krenn.AG

Unser langjähriger Partner, die Thomas-Krenn.AG aus dem niederbayrischen Freyung, stellte auf der Cebit 2013 seine neuen Multinode-Systeme vor und endlich gab es einen sinnvollen Einsatzzweck. Vier vollwertige Dual-CPU-Systeme mit jeweils sechs dedizierten Festplatten auf 2 Höheneinheiten klingen sehr verlockend, immerhin können jetzt viermal so viele Systeme auf dem gleichen Raum verbaut werden. Jedes System verfügt über zwei Netzwerkanschlüsse und einen dedizierten IPMI-Port zum Remote Management, erstere können über die zusätzliche Netzwerkkarte erweitert werden. Zwei Netzteile versorgen alle vier Server redundant. Gleiche Power bei weniger Platzbedarf – war das in der IT nicht seit je her ein Garant für höhere Anschaffungskosten? Doch dann kam die Überraschung. Im konkreten Fall wurden vier RI8224M von der Thomas-Krenn.AG konfiguriert. Vom Single CPU-System mit 4 GB RAM als Proxy Server bis hin zum hochperformanten Datenbankserver mit 64 GB RAM und 2 6-Kerne-Prozessoren war alles in dem System dabei und am Ende standen ca. 30% weniger Anschaffungskosten auf dem Angebot. Betrachtete man die einzelnen Systeme im direkten Vergleich so konnten teilweise bis zu 45% der Kosten eingespart werden, selbst nach Umlage der Kosten für das Basischassis waren problemlos 40% Ersparnis möglich. Hinzu kommt die bessere Ausnutzung der Netzteile, weniger Platzbedarf im Rack und dadurch günstigere Betriebskosten – ein Traum für alle Seiten.

Der Intel Dual-CPU RI8224M ist nicht nur für komplexe Infrastrukturen für einzelne Kunden geeignet, sondern bietet auch eine gute Basis für den Betrieb von individuellen Virtualisierungs- oder Cloud-Lösungen im eigenen Rechenzentrum. Wem eine CPU pro System reicht, für den bietet der RI8316M eine ähnliche Lösung mit 8 Servern auf 3 Höhenheinheiten, die jeweils 2 Festplatten nutzen können.

Es werden nur drei Server gebraucht? Auch da gibt es eine Lösung – man nimmt das vierte Modul mit einer kostengünstigen Ausstattung und nutzt es zur Überwachung der anderen Module, denn die Serverexperten haben passend zum Linux-Tag mit TKmon ein auf der OpenSource-Lösung Icinga basierendes, intuitiv zu bedienendes Monitoringtool zur Verfügung gestellt.

Google Webmaster Tools: Sitelinks abwerten

Google Webmaster Tools Sitelinks abwerten

Die Sitelinks bilden die relevanten Navigationspunkte einer Website innerhalb des Suchergebnisses zu einem Webseitennamen ab. Die Sitelinks könnten nicht selbst definiert werden, sondern das übernimmt die Suchmaschine Google , indem sie die Seite analysiert und die wichtigsten Navigationspunkte für potentielle Besucher bereitstellt.

Sitelinks abwerten
Sitelinks abwerten

In den Suchergebnissen werden ausschließlich die Sitelinks angezeigt, die seitens Google für den Besucher als hilfreich erachtet werden. Inhalte, die als nicht relevant für den Besucher angesehen werden, sollten laut Google nicht angezeigt werden. Wobei die Erfahrung zeigt, dass auch Ergebnisse angezeigt werden, die eigentlich für den potentiellen Besucher keinen direkten Nutzen haben.

Sitelinks abwerten

Wenn Sitelinks angezeigt werden, die einem Besucher nach Auffassung des Seitenbetreibers nicht angezeigt werden sollen, besteht die Möglichkeit, bis zu 100 URLs abzuwerten – einziges Manko: die Anpassung bleibt in der Regel nur 90 Tage und nicht dauerhaft aktiv. Wer also in den Google Webmastertools nur unregelmäßig nach dem rechten schaut, dem kann es passieren, dass nach 90 Tagen in den Sitelinks wieder Inhalte präsentiert werden, die eigentlich nicht angezeigt werden sollen.

Google Webmaster Tools - Abwertung von Sitelinks
Google Webmaster Tools – Abwertung von Sitelinks

Zum Abwerten eines Sitelinks reicht es aus, den entsprechenden Link in die Maske der Google Webmaster Tools einzutragen. Es besteht sowohl die Möglichkeit einen relativen Pfad als auch einen absoluten Pfad einzutragen. (zu finden unter Website-Konfiguration -> Sitelinks.)

Es kann in der Regel ein paar Tage dauern, bis der Änderungswunsch durch die Suchmaschine übernommen wird.

Tipp – Sitelinks auch in Zukunft beobachten

Nachdem eine Abwertung durchgeführt wurde, sollte der Inhaber der Webseite die Sitelinks nach ein paar Tagen kontrollieren. Da die Suchmaschine Google keine Möglichkeit zur Bestimmung konkreter Sitelinks bereitstellt, besteht die Gefahr, dass alternativ ein ebenfalls unerwünschter Inhalt im Austausch mit dem abgewerteten Sitelink eingebunden wird.

Google Webmaster Tools: Geografische Zielausrichtung

Google Webmaster Tools Geografische Zielausrichtung

Die geografische Zielausrichtung erlaubt dem Websitenbetreiber direkt in den Google Webmaster Tools festzulegen, für welchen Sprachraum die Inhalte der Website geeignet sind.

Domains und Verzeichnisse zuordnen

Gerade wenn unter einer Domain mehrere Ländersprachen existieren und diese mithilfe von Verzeichnissen bzw. Hierarchie- Ebenen über die URL getrennt werden, können diese über die geografische Zielausrichtung einer Sprache zugeordnet werden. Dadurch erhält der Suchmaschinenbetreiber Google eine direkte Anordnung, dass die angegebene URL beispielsweise dem deutschen Sprachraum zugeordnet werden soll.

geografische Zielausrichtung einer URL
geografische Zielausrichtung einer URL

Das Ziel von Google ist es einem Nutzer die relevantesten und nützlichsten Suchergebnisse zu einer Suchanfrage zu liefern. Daher macht es in der Regel keinen Sinn, einem französischsprachigen Nutzer indische Inhalte anzubieten. Damit eine länderspezifische Zuordnung noch einfacher umgesetzt werden kann, nimmt Google mithilfe der geografischen Zielausrichtung die vom Webseitenbetreiber selbst eingetragenen Informationen zu Hilfe.

Grundsätzlich versucht Google jede Webseite zu kategorisieren und diese nebst einer Branche und verschiedenen Keywords auch einer Sprache zuzuordnen.

Generische Domains und die geografische Zielausrichtung

Gerade bei generischen Domain-Endungen wie z. B. „.org“, die grundsätzlich keinem Land direkt zugeordnet sind, kann der Webseitenbetreiber mit Hilfe der geografischen Zielausrichtung dem Suchmaschinenbetreiber Google mitteilen, zu welcher Sprachregion die Inhalte der Webseite passen, damit diese auch entsprechend in den Suchergebnissen dargestellt werden und die richtige Zielgruppe erreichen.

Google Webmaster Tools: XML-Sitemap

Die Google Webmaster Tools erlauben beispielsweise die Einbindung einer sogenannten XML-Sitemap, mit dem der Suchmaschine Google eine Liste aller verfügbaren Inhalte bzw. URLs übermittelt wird. Für die meisten Websitebetreiber ist nach Einreichen der Sitemap dieses Kapitel auch beendet, doch in den Google Webmaster Tools werden relevante Statistiken über die Sitemap preisgegeben.

Einreichen der Google Sitemap
Eingereichte und Indexierte Inhalte

Gleich die erste Übersicht zeigt dem Websitebetreiber, dass die eingereichten Inhalte in Typ „Webseiten“ und Typ „Bilder“ unterteilt werden. Außerdem zeigt die Statistik, wie viele Inhalte eingereicht und im Anschluss von der Suchmaschine in den Index aufgenommen wurden. Schön und gut? Nein, bereits hier sollte der Inhaber der Website sich überlegen, ob es korrekt ist, dass beispielsweise von 312 eingereichten Webseiten lediglich 81 im Index sind. Selbiges gilt natürlich auch für Bilder. Hat die Website eventuell Indexierungsprobleme, die mir als Betreiber bis dato nicht bekannt sind?

Im der darunter liegenden Übersicht werden die eingereichten Sitemaps aufgelistet. Wie viele man einreicht und ob man diese beispielsweise in Kategorien, Artikel, Schlagworte und so weiter unterteilt, ist jedem selbst überlassen. Aktive WordPress Nutzer können zum Beispiel mittels dem Plugin WP SEO by Yoast die Sitemaps unterteilen und diese bei Bedarf einreichen. Der Vorteil einer Unterteilung begründet sich mit einer besseren Übersicht, auch in den Google Webmaster Tools.

Fehler und Potentiale erkennen

In der nachfolgenden Übersicht ist klar zu erkennen, dass vier Sitemaps eingereicht wurden. Zum einen für vorhandene Kategorien, Seiten, Artikel und Schlagworte. Relevant sind hierbei die Punkte: Wann wurde meine Sitemap zuletzt verarbeitet? Wie viele Inhalte wurden eingereicht und vor allem, wie viele Seiten sind im Index?

Übersicht der Google Sitemaps
Übersicht der Google Sitemaps

Im Anschluss gilt es bei Bedarf zu untersuchen, warum weniger Seiten im Index sind als von einem selbst eingereicht wurden.

  • Weist meine Website Fehler auf und Google kann daher die Inhalte nicht indexieren?
  • Sind URLs auf noindex eingestellt?
  • Ich habe neue Inhalte, aber die XML wurde noch nicht wieder bearbeitet?

Es gibt verschiedene Gründe, warum URLs nicht im Index sind. Es muss aber nicht zwangsläufig immer ein Fehler vorliegen. Wer beabsichtigt, dass gewisse Inhalte nicht indexiert werden sollen, der verwendet das Meta-Tag Robots mit einem „noindex“, logsicherweise wird diese URL dann als eingereicht dargestellt, aber nicht in den Index aufgenommen.

Ebenso kann es sein, dass ich gerade erst einen Artikel veröffentlicht habe, in der Zwischenzeit die Sitemap seitens Google noch nicht abgerufen wurde und dem entsprechend die Seite nicht im Index ist. Wiederum kann es auch sein, dass die Seite im Index ist, die obige Grafik aber bis dato noch nicht aktualisiert wurde.

Fazit: Auswertung von XML-Sitemap Daten mithilfe der Google Webmaster Tools

Die Daten, welche die „Google Webmaster Tools“ bieten, geben jedem Websitebetreiber die Möglichkeit ohne große Schwierigkeiten zu erkennen, wie viele der eingereichten URLs auch tatsächlich in den Google Suchindex aufgenommen wurden. Des Weiteren lassen sich über diese Daten eventuelle Probleme bei der Indexierung von Inhalten erkennen – wenn weniger Inhalte im Index sind, als tatsächlich eingereicht wurden, muss aber auch nicht zwangsläufig ein Fehler vorliegen, sondern es kann auch beabsichtigt sein, dass vorab definierte URLs nicht indexiert werden sollen.

Google Webmaster Tools: Dashboard und Nachrichten

Google Webmaster Tools - Dashboard und Nachrichten

Das Dashboard bietet eine kleine Übersicht über die relevantesten Statistiken der Google Webmaster Tools. Sie beginnen mit dem Punkt „Neu und wichtig“, wo direkt erkannt werden kann, ob eine Nachricht von Google mit Hinweisen bezüglich der Website eingegangen ist. Dazu aber mehr im Punkt „Nachrichten – Informationen von Google„.

Crawling-Fehler, Statistiken über Suchanfragen und Sitemaps

Des Weiteren informiert das Dashboard über Crawling-Fehler, Suchanfragen und die Sitemap. Crawling-Fehler zeigen an, ob beim Abruf der Website durch den Google Crawler Fehler wie z. B. „nicht gefundene Seiten“ erkannt wurden. Die Suchanfragen zeigen kurz und knapp die Anzahl der Impressionen und die Anzahl der Klicks sowie die tatsächlichen Suchanfragen für eine Webseite. Die Sitemap liefert eine kleine Übersicht über die Anzahl der URLs, die mithilfe der XML-Sitemap übermittelt wurden und wie viele davon tatsächlich indexiert wurden.

Google Webmaster Tools - Dashboardübersicht
Google Webmaster Tools – Dashboardübersicht

Das Dashboard stellt lediglich eine Kurzübersicht bereit, natürlich besteht die Möglichkeit, über die entsprechenden Schaltflächen noch tiefer in jeden einzelnen Punkt einzusteigen.

Nachrichten – Informationen von Google

Der Punkt „Nachrichten“ in den Google Webmaster Tools wird gern missachtet – solange keine Nachricht eingegangen ist, ist dies logischerweise auch in Ordnung. Falls jedoch eine Nachricht seitens Google eingegangen ist, sollte zumindest ein kurzer, aber prüfender Blick auf die Nachricht geworfen werden.

Google Webmaster Tools - Benachrichtigungen
Google Webmaster Tools – Benachrichtigungen

Der Betreff der Nachrichten kann sich erstrecken von „einem signifikanten Anstieg der Suchanfragen“ über das „weitere Nutzer hinzugefügt wurden“ sowie „unnatürlichen Links“ bis hin zu „Malware„.

Das bedeutet, es kann Nachrichten geben, die lediglich einen Hinweis darstellen und für den Webseitenbetreiber durchaus positiv sind, aber wiederum kann es auch Hinweise auf negative Veränderungen hinsichtlich der Webseite geben.

Google Webmaster Tools - Big Traffic Change
Google Webmaster Tools – Big Traffic Change

Durch unsichere Passwörter, fehlerhafte Software oder auch aus Unerfahrenheit kann es passieren, dass eine Webseite aufgrund eines Hacker-Angriffs mit Malware verseucht wird. Sobald Google solche Malware auf der Webseite erkennt, wird eine Nachricht an den Seitenbetreiber verschickt, die zum einen darauf hinweist, dass etwas mit der Website nicht in Ordnung ist und zum anderen mitteilt, dass die Webseite kurzfristig aus dem Index entfernt werden könnte.

Genau aus diesem Grund sollten Webseitenbetreiber regelmäßig kontrollieren, ob eine Nachricht eingegangen ist – schließlich ist Google in diesem Fall so heroisch und weist uns relativ zeitnah auf Probleme mit der Website hin.

Google Pinguin Update 2.0

Am Abend des 22. Mai 2013 hat Google ein weiteres Pinguin Update mit der Version 2.0 veröffentlicht. Damit bleibt Google seiner Linie im Kampf gegen Web-Spam und in der Steigerung von qualitativen Suchergebnissen treu.

Inoffizielles Google Doodle von Martin Missfeldt
Inoffizielles Google Doodle von Martin Missfeldt // Quelle: tagseoblog.de

Im Gegensatz zu den ersten Berichten und Vermutungen ist das Update nicht nur im englischsprachigen Raum ausgerollt worden, sondern nach ersten Daten und Analysen weltweit – zumindest sind auch Veränderungen im deutschsprachigen Raum zu erkennen.

In der Vergangenheit wurden Updates häufig nur stückweise veröffentlicht und es verging einige Zeit, bis diese im deutschsprachigen Raum angekommen waren.

Signifikante Veränderungen im Algorithmus

Im Vergleich zum ersten Pinguin Update sollen laut Angabe von Googles Sprachrohr Matt Cutts eine Vielzahl an Änderungen im Algorithmus vorgenommen worden sein, womit auch der Versions-Sprung von Version 1 auf Version 2 begründet wird.

Im Gegensatz zu der ersten Variante des Updates werden Domains tiefgreifender analysiert, während bei der Version 1.0 lediglich die Domain-Startseite in Betracht gezogen wurde. Dadurch schafft sich Google die Möglichkeit eine Domain nicht nur anhand einer einzigen Seite zu bewerten, sondern anhand aller Seiten, Unterseiten und Verzeichnisstrukturen.

Betroffen sollen im US-amerikanischen Raum rund 2.3 % aller Suchergebnissen sein – beim Pinguin Update 1.0 waren es insgesamt 3.1 % der Suchergebnisse.

Die ersten Daten

Die Daten, die aktuelle Tool-Anbieter wie Sistrix und Searchmetrics liefern, sind allerdings noch mit Vorsicht zu betrachten, denn in der Regel dreht Google nach der Veröffentlichung eines Updates innerhalb der nachfolgenden Tagen und Wochen an der einen oder anderen Stellschraube.

Nachfolgend ein Ausschnitt aus den ersten Daten zum Pinguin Update 2.0, geschrieben von Johannes Beus – Geschäftsführer bei Sistrix. Die komplette Übersicht gibt es natürlich direkt im Blog von Sistrix.

Sistrix Domains nach Pinguin Update
Sistrix Sichtbarkeitsindex-Veränderungen nach Pinguin Update // Quelle: Sistrix.com

Auch Searchmetrics hat eine eigene Analyse veröffentlicht, geschrieben von Marcus Tober, seines Zeichen Gründer und Geschäftsführer der Searchmetrics GmbH. Weitere Daten und Informationen gibt es im Blog von Searchmetrics.

Veränderungen im SEO-Visibility Rank von Searchmetrics
Veränderungen im SEO-Visibility Rank // Quelle: Searchmetrics.com

Genaue Ergebnisse werden in den nächsten Tagen und Wochen die SEO-Tool Anbieter liefern, anhand der Daten obiger Toolanbieter kommen mit Sicherheit die ersten konkreten Erkenntnisse über das „Warum“ ans Tageslicht.

SEO Wetter und weitere Updates

In den vergangenen Wochen wurde bereits öfters angekündigt, dass den Webseitenbetreibern ein heißer Sommer hinsichtlich der Platzierungen in den Suchergebnissen bevorsteht. Vor allem Betreiber, die mit ihrer Webseite gegen die Google Webmaster Richtlinien verstoßen, sollen von den aktuellen und kommenden Updates leicht bis stark betroffen sein.

Auch Linkspam ist dem Suchmaschinenbetreiber Google nach wie vor ein Dorn im Auge.

Rückblick auf das Pinguin Update 1.0

Das erste Pinguin Update wurde im April 2012 ausgerollt – davon waren eine Vielzahl an Webseiten betroffen, die augenscheinlich gegen die geltenden Google Webmaster Richtlinien verstoßen haben.

Die Hauptproblem-Quelle wurde relativ zeitnah ausgemacht, während das bereits im August 2011 veröffentlichte Panda Update sich auf OnPage-Faktoren konzentrierte, legte Google mit dem Pinguin Update den Fokus auf Offpage-Faktoren, also das Linkbuilding.

Betroffene Ranking Faktoren

Das damalige Update bezog sich primär auf nicht organisch aufgebaute Backlinks, die beispielsweise durch Tausch und Kauf erworben wurden. Der Handel mit Backlinks ist seit Jahren laut den Webmaster Richtlinien verboten.

Doch der entscheidende Punkt waren nicht die reinen Backlinks an sich, sondern die genutzten Linktexte. Webseiten, deren Links fast ausschließlich durch sogenannte Money Keywords verlinkt wurden, waren primär durch das Update betroffen. Die ersten Beobachtungen zeigten, dass Websites mit mehr als 59 % Money Keywords Backlinks abgewertet wurden – was aber kein Freibrief für die Verwendung von Money Keywords bis 58 % darstellt.

Tendenzen und Fazit zum Pinguin Update

Es ist davon auszugehen, dass auch mit der neuen Variante des Pinguin Updates weiterhin stark auf externe Verlinkungen und deren Linktexte geschaut werden – allerdings wird Google die verlinkenden Seiten noch genauer unter die Lupe nehmen, um diese und dem entsprechend die Verlinkung noch besser beurteilen zu können.

Allerdings sollten sich Websitenbetreiber nicht verrückt machen durch die Vielzahl der Algorithmus-Updates und Erweiterungen, die in der Vergangenheit seitens der Suchmaschinenbetreibers eingespielt wurden – Google oberstes Ziel ist es, die Qualität der Suchergebnisse zu steigernWer auch weiterhin den Fokus auf Inhalte mit Mehrwert legt, wird in der Regel auch nicht unter den Updates leiden.

Was ist eine Exact Match Domain?

Was ist eine Exact Match Domain

Eine Exact Match Domain ist im Endeffekt nichts anderes als eine sogenannte Keyword-Domain, in der das wichtigste Keyword einer Website enthalten ist.

Zur Einleitung ein sehr gutes Video von Dominik Wojcik, seines Zeichens Geschäftsführer der TA Trust Agents Internet GmbH, zum Thema „Das Google EMD Update erklärt„.

Eine Keyword Domain hat drei, vier signifikante Vorteile und durchaus noch weitere, die nachfolgend beschreiben werden.

Keyword im Domainnamen

Logischerweise ist einer der Vorteile, dass das relevante Keyword im Domainnamen enthalten ist. Ein Keyword im Domainnamen erlaubt Suchmaschinen eine Domain sehr einfach zu katalogisieren und diese einer Branche zuzuordnen.

Themenrelevanz einer Exact Match Domain

In der Regel kann bei einer Exact Match Domain davon ausgegangen werden, dass der Domainname den Website-Inhalt themenrelevant abbildet. Wenn die Domain beispielsweise auf den Namen Vogelkaefig.de getauft wird, so kann man davon ausgehen, dass auch exakt dieses Produkt behandelt wird. Die wenigsten werden auf die Idee kommen, sich diese Domain zu registrieren, um im Anschluss darüber Festplatten zu vertreiben.

Vertrauensbildung mithilfe einer Domain

Domainnamen, die für jeden Besucher klar zu erkennen sind, können Vertrauen aufbauen. Bekannte Begrifflichkeiten aus dem Alltag sind in vielen Fällen für potentielle Besucher bzw. Kunden vertrauenswürdiger als fiktive Domains wie z.B. V0g3lkäfig.de. Zusätzlich unterstützt eine Endung wie .de, .com, .net das Aufbauen von Vertrauen gegenüber einer klar zu erkennenden Domain.

Leicht zu merken

Eine Keyword-Domain muss nicht zwangsläufig ein Brand sein und dem entsprechend in aller Munde sein – ein Keyword wie z.B. Vogelkäfig ist aber in aller Munde und gehört zum allgemeinen Sprachgebrauch, ist weder exotisch noch ein selten genutztes Synonym und dem entsprechend einfach zu merken.

Durch einen einprägsamen Domainnamen können Domains einfacher und besser per Mundpropaganda am Telefon, per eMail oder Instant Messenger geteilt werden. Auch in Zeiten von sozialen Netzwerken, wo mithilfe eines Klicks Internetseiten an Freunde, Bekannte und Kollegen übermittelt werden, ist die Mundpropaganda immer noch ein relevanter Marketing-Faktor.

EMD-Update

Auch bei den Exact Match Domains versucht Google, es der Internetgemeinde deutlich schwerer zu machen. Mit dem sogenannten EMD-Update sollen Keywords-Domains abgewertet und mit „normalen“ Domains gleichgesetzt werden. Wie so häufig verlief das erste Google Update allem Anschein nach nicht reibungslos, nach dem ersten Aufschrei erholten sich eine Vielzahl von Keyword-Domains wieder und erreichten ähnliche Positionen wie vor dem Update.

Allgemein war aber der Anteil von Keyword-Domains, die vorerst tatsächlich abgerutscht sind, durchaus gering – was im Endeffekt auch immer wieder zeigt, dass andere Google Algorithmen weiterhin greifen und eine Website eben nicht auf eine einzige Domain oder einen einzigen Faktor zu beschränken ist. Das sogenannte EMD-Update ist lediglich eine Erweiterung der vorhandenen Algorithmen. Die inhaltliche Qualität einer Website setzt sich, unabhängig vom Domainnamen, nach wie vor durch.

Warum trotzdem eine Keyword-Domain verwenden?

Eine berichtigte Frage, wenn man lediglich davon ausgeht, dass nicht die Domain relevant ist, sondern der Inhalt einer Seite. Die Vorteile einer Keyword-Domain haben wir bereits angesprochen – der Name der Domain ist nebst Titel der Seite und Meta-Beschreibung auch das erste, was ein Besucher in den Suchergebnissen sieht. Ein passender Name und eine passende Endung schaffen Vertrauen und somit steigt die Wahrscheinlichkeit, dass eine Website über die Suchergebnisse aufgerufen wird.

Darstellung der Serps in Verbindung mit der Domain
Darstellung der Serps in Verbindung mit der Domain

Des Weiteren ist die Auswirkung des sogenannten EMD-Updates deutlich geringer ausgefallen als zunächst befürchtet und gravierende Veränderungen konnten bei einer Vielzahl der Domains nicht erkannt werden. Zudem gibt es immer wieder Veränderungen in den Suchergebnissen im Zusammenhang mit dem Panda Update sowie dem Penguin Update. So waren einige Websitenbetreiber tatsächlich von eben diesen Updates betroffen, suchten aufgrund des Zeitpunkts die Schuld aber beim EMD-Update.

Unabhängig von dieser Vielzahl an Google Updates in den vergangenen Wochen, Monaten und Jahren sind immer nur eine vergleichsweise geringe Anzahl von Websitebetreibern betroffen gewesen. Daher ist es ratsam, vorab seine Website auf Verstöße gegen die Google Webmaster Richtlinien (Artikel 1, Artikel 2, Artikel 3, Artikel 4) hin zu untersuchen. Außerdem sollte der Betreiber ehrlich zu sich selbst sein: Bietet die Website ausreichend fundierte Inhalte und damit einem Mehrwert für die Besucher, die Suchmaschinen und für einen selbst?

Treffen auf der Re:Publica 2013 – #rp13

Treffen auf der RePublica 2013 – rp13
Re:Publica 2013 Logo
Re:Publica 2013 Logo (c) Re-Pubica

Die diesjährige re:publica wird die Latte für Konferenzen für Netz-Kultur, Netzpolitik und das Digitale Leben und Arbeiten wohl wieder ein bisschen höher legen. Es wird mit 5000 Besuchern in Berlin gerechnet.

Soeben habe ich 2  1/2 Stunden damit verbracht, die Vorträge und Workshops zu planen, die ich besuchen möchte 🙂 *japs*

Da die Re:Publica aber nicht nur eine Konferenz mit einzigartigem Speaker-Aufgebot und daher ein exzellenter Bildungsurlaub ist, sondern DAS Klassentreffen für Digitalen und die Klein-Bloggersdorf, hoffe ich viel Zeit mit all den wunderbaren Menschen verbringen zu können, mit denen ich das Jahr über nur über Blog-Kommentare, Twitter, Facebook, Skype und was nicht alles zu tun habe.

Daher der Aufruf:

Vom folgenden Vortrags-Plan lasse ich mich gerne für gute Gespräche abbringen! Er ist eigentlich nur ein grober Richtwert um heraus zu finden, wann ich ungefähr wo rumlaufe 🙂

Einfach kontaktieren

über Twitter privat, Twitter @comspace oder 0172-2779474 (über die Nummer auch iMessage)

Freue mich – natürlich auf auf Treffen im Rahmenprogramm der #rp13!

Und hier der Laufplan ab Montag:

Tag 1 Re:Publica

10:00 bis 11:00
STAGE 1
Eröffnung

11:00 – 12:00
STAGE 1

12:15 – 13:15
STAGE 1

13:30 – 14:00
STAGE 2

14:00 – 14:30
NEWTHINKING

14:00  – 14:30

15:00 – 18:00
#blognetz meetup auf der re:publica (6. Mai, 16 h)
Ort: Station, Berlin (new thinking-Stand)
Mehr Infos / Voranmeldung auf Facebook

14:45 – 15:45
WORKSHOP C

  • Content Strategy

oder
14:45 – 15:45
STAGE 2

16:00 – 17:00
Workshop C

oder
STAGE 5

17:00 – 18:00
WORKSHOP A

18:30 – 19:30
STAGE 7

oder
WORKSHOP C

Was sonst? 😀
6 Mai 19:45 – 20:45
STAGE 1

Tag 2 RePublica

re:mett powered by simyo (7. Mai 2013, 10 h)
Ort: Station, Berlin (re:publica-Gelände)
Mehr Infos / Voranmeldung auf Facebook

10:00 – 11:00
STAGE 7

oder
10:00 – 10:30
STAGE 1

11:15 – 12:15
STAGE 3

oder
 
STAGE 2

12:30 – 13:30
STAGE 6 

13:45 – 14:45
STAGE 1

15:00 – 16:00
STAGE 7

16:15 – 17:15
newthinking

  • How to present your project in 300 seconds
  • newthinking

16:45 – 17:15
STAGE 5

18:45 – 19:15
WORKSHOP B

19:15 – 19:45
Workshop B

20:00 – 21:00
STAGE 1

STAGE 4

Tag 3 Re:Publica

10:00 – 11:00
STAGE 1

oder
10:00-11:00
WORKSHOP A

11:45 – 12:15
STAGE 3

12:30 – 13:30
STAGE 2

13:45 – 14:45
STAGE 2

15:00 – 16:00
STAGE 1

16:15 – 16:45
STAGE 2

16:45 – 17:15
STAGE 3

WORKSHOP A

Und dann ist auch mal so langsam ausklingen lassen angesagt 🙂

Die Wahl der richtigen Domain und Endung

Domain und Endung - Qual der Wahl

Recht häufig stellt sich dem Webmaster und Laien die Frage, welcher Domainname und vor allem welche Domain-Endung ist eigentlich die Richtige?

die Wahl der richtigen Domain
die Wahl der richtigen Domain

Ein Domainname sollte grundsätzlich mit der Thematik einer Webseite in Zusammenhang stehen. Wenn nach intensiver Suche und diversen Domainabfragen der passende Name für das Vorhaben gefunden wurde, stellen sich in der Regel weitere Fragen. Vor allem bei Begrifflichkeiten, die sowohl getrennt als auch zusammen geschrieben werden können, taucht häufig vor der Registrierung einer Domain die Frage auf: „Welche der beiden Domainnamen nehme ich jetzt?“.

Die Antwort ist immer: Beide.

Natürlich kosten zwei Domains mehr als eine, allerdings ist es grundsätzlich immer sinnvoll, die relevantesten Domains für sein Vorhaben zu registrieren und damit sein eigen zu nennen. Denn mal angenommen, man schafft sich eine Brand oder eine sehr gut besuchte Seite, so bietet man potentiellen Konkurrenten nicht die Chance, aus dem eigenen Namen einen Nutzen zu ziehen. Das gilt auch für getrennt und zusammen geschriebene Domains (www.do-main.de und www.domain.de).

Was gilt es weiterhin zu beachten?

  • Kunstwörter vermeiden
    Das Erschaffen einer Brand ist sicherlich toll und der Wunschtraum eines jeden Websitenbetreibers. Aber das Erschaffen einer Brand durch ein Kunstwort ist in der Regel sehr zeit- und kostenintensiv – Namen die keiner kennt, werden auch bei Suchmaschinen nur sehr selten gesucht.
  • Einzahl oder Mehrzahl?
    Auch hier gilt die Antwort „Beide“. Wer sich eine Domain mit dem Namen im Singular registriert, läuft Gefahr, dass er irgendwann Besucher an einen Konkurrenten verliert, der sich den Domainnamen im Plural registriert hat. Gerade Domainhändler sind darauf fixiert, sich solche Domains zu sichern, um diese im Anschluss selbst zu vermarkten oder diese für einen hohen Preis an Sie zu veräußern.
  • Leicht zu merken und so kurz wie möglich
    Bei der Wahl des Namens sollte darauf geachtet werden, dass dieser so kurz wie möglich ist, damit sich Kunden und Besucher diesen sehr leicht merken können und im besten Fall, aufgrund der Einfachheit, verbreiten.
  • Markenrecht
    Ja, auch Domainnamen unterliegen eventuell einem Markenrecht. Dem entsprechend vorab immer darauf achten, ob der Domainname geschützt wurde. Deshalb sollte man sich immer die 5 Min Zeit nehmen und vorab auf der Seite des deutschen Patent- und Markenamts den Domainnamen abfragen.

Welche Endung sollte genommen werden?

Natürlich könnten jetzt pauschal alle Endungen oder lediglich eine Endung registriert werden, allerdings sinnvoll sind Endungen wie .de für Deutschland (für Österreich .at, für die Schweiz .ch), .com, .net, .org, .info, .eu – nach wie vor gelten diese Domain-Endungen als deutlich vertrauenswürdiger im Vergleich zu unsympathischen Endungen wie zum Beispiel .biz.

In der Regel kriegt man im Anschluss die Antwort: Aber ich will doch nur eine Webseite erstellen und nicht vier bis fünf. Das ist auch richtig. Daher sucht man sich eine Hauptdomain aus und leitet die anderen Domains auf diese Hauptdomain weiter. Damit vermeidet man, dass andere Websitebetreiber sich die guten Domain-Endungen sichern.

Generische Domains und deren Zielausrichtung?

Ein Problem der generischen Domains ist dass diese in erster Linie nicht einem Land zuzuordnen sind.  Bei Domains mit der Endung .de ist davon auszugehen, dass diese sich auf den deutschen Sprachraum beziehen, Ausnahmen bestätigen die Regel. Bei Domain-Endungen wie zum Beispiel .org weiß man in der Regel nicht, in welchem Sprachraum sich die Website befindet. Daher ist es empfehlenswert, die Domain in die Google Webmaster Tools einzutragen, darüber die geografische Zielausrichtung anzusteuern und der Domain einschließlich Endung einen Sprachraum zuzuweisen.

Content-Marketing gab es schon immer!

Die Geschichte des Content Marketings

68 Aussagen zum Thema Content-Marketing hat RankSider letzte Woche zusammen gestellt (Wir twitterten bereits darüber). Bei eingehender Betrachtung der zahlreichen Zitate und Ausführungen fällt v.a. eine Aussage besonders auf:

Content-Marketing gab es schon immer!

Content Marketing umfasst im Prinzip alle Maßnahmen, die nicht direkt auf das Bewerben eines Produkts abzielen, sondern eher Interesse des Kunden wecken, Mehrwert bieten oder die richtige Anwendung eines Produktes demonstrieren: Rezepte, Kundenmagazine, Newsletter, Workshops, HowTo Videos, Schulungen, Whitepaper, Infografiken, Geschichten, Berichte vom Einsatz eines Produktes usw. Content-Marketing meint also Inhalte zum Zwecke des Marketing einzusetzen. Der umgekehrte Einsatz – also Marketing für Content zu betreiben – wird als Seeding bezeichnet und muss nicht zwangsläufig einen faden Beigeschmack haben, wenn es ehrlich und aufrichtig betrieben wird.

Einige der interessanten Aussagen zu Content-Marketing aus den gesamten 68:

  • Guter Content ist immer die Voraussetzung für erfolgreiche Publisher
  • Google wird immer besser darin, guten von schlechtem Content zu unterscheiden
  • Content Marketing ist keine Kampagne, kein abschließbares Projekt, sondern dauerhaftes Vorgehen
  • Die Kanäle und Dienste nutzen, die auch die Zielgruppen nutzen
  • Guter Content ist langfristig interessant für die Zielgruppe
  • Die richtigen Inhalte für die Zielgruppe anbieten

Content Marketing sollte natürlich nicht das einzige Pferd sein, auf das gesetzt wird. Sowohl im Online- als auch im „Offline“-Marketing sollten weitere Maßnahmen je nach Projekt und Marketing-Ziel eingesetzt werden:

  • OnPage SEO / OffPage SEO
  • Bannerwerbung / AdSense
  • Social Media Marketing
  • Empfehlungsmarketing
  • E-Mail Marketing
  • Linkbuilding
  • Affiliate- und Partner-Programme

Wobei attraktive und interessante Inhalte, die für den Kunden auch unabhängig vom beworbenen Produkt von Nutzen sind, im Grunde immer die Basis darstellen um die o.g. Maßnahmen sinnvoll einzusetzen.

Content ist und bleibt eben King. Und wie lange schon zeigt diese Infographik von inboudVisibility:

Content Marketing ist nicht neu - Love your Content
Content Markting ist nicht neu Quelle: InboudVisibility