Eine besonders innovative Form des Content Marketing übt der Automobilhersteller Mercedes-Benz seit Sommer 2012 aus: Auf Social Publish werden interne und externe Inhalte kuratiert. Auf der gleichnamigen Web-Plattform kuratiert der Konzern Inhalte aus dem Web. Die Besonderheit: Es werden nicht nur Texte, Bilder und Videos aus der eigenen Marketing-Abteilung zur Verfügung gestellt.
„Kuratieren statt publizieren – Mercedes Benz Social Publish“ weiterlesenCMS Hersteller eSpirit präsentiert neue FirstSpirit Version
Mit seinem Content Management System FirstSpirit gehört die e-Spirit AG zu den marktführenden Unternehmen im Bereich Web Content Management. FirstSpirit unterstützt Unternehmen bei der Erstellung, Pflege und Bereitstellung unterschiedlichster Inhalte für deren Websites, Portale, e-Shops oder Intranets.
„CMS Hersteller eSpirit präsentiert neue FirstSpirit Version“ weiterlesenGoogle Webmaster Tools: Bevorzugte Domain
Die bevorzugte Domain ist die Domain, die in den Suchergebnissen angezeigt wird. Diese nennt man auch kanonische Domain – also die Hauptdomain einer Website.
Inhaberschaft für die Domains bestätigen
Das Festlegen einer bevorzugten Domain setzt die Inhaberschaft beider Domains (zum Beispiel www.comspace.de und comspace.de) voraus. Die bevorzugte Domain wird im Anschluss seitens Google für jeden Suchlauf und Crawling-Vorgang verwendet.
Der Vorteil einer kanonischen Domain und der entsprechenden Einstellung in den Google Webmaster Tools ist, dass Links von anderen Seiten zusammengeführt werden – das heisst sofern die Hauptdomain www.comspace.de ist, aber eine externe Seite einen Inhalt auf die Domain comspace.de verlinkt, betrachtet die Suchmaschine Google eben diesen Link so, als wäre dieser mit der bevorzugten Domain erstellt worden.
So können auch doppelte Inhalte vermieden werden
Gerade bei mehreren Domains mit demselben Inhalt besteht die Gefahr von duplicated Content, also doppelten Inhalten. Laut dem Suchmaschinenbetreiber Google besteht diese Gefahr genau dann, wenn keine bevorzugte Domain gewählt wurde, denn wenn die identischen Inhalte sowohl unter www.comspace.de als auch unter comspace.de abrufbar sind, werden diese als separate Seiten betrachtet. Und bekanntlich können doppelte Inhalte zur Abwertung bis hin zur Deindexierung von Webseiten führen.
Dem entsprechend wird auch empfohlen, trotz der Festlegung einer bevorzugten Domain, die nicht bevorzugte Domain mittels 301-Redirect auf die kanonische Domain weiterzuleiten.
Wenn bis dato beide Domains in den Suchergebnissen aufgenommen wurden, kann es einige Zeit dauern, bis ausschließlich die bevorzugte Domain im Index der Suchmaschinen enthalten ist.
Google Webmaster Tools: Crawling-Geschwindigkeit
Das Crawling bezeichnet in erster Linie den Vorgang, mit dem veränderte und neue Inhalte bzw. Seiten ermittelt werden, um diese später in den Suchindex von Google aufzunehmen. Suchmaschinen, vorzugsweise Google, besitzen eine Vielzahl von Crawlern (z.B. der Googlebot), die täglich damit beschäftigt sind, so viele Inhalte wie möglich zu untersuchen.
Der Googlebot und die Crawling-Geschwindigkeit
Dieser Googlebot besucht mehrmals am Tag die eigene Webseite, in der Regel optimiert dabei Google selbst die Häufigkeit des Besuchs in Abhängigkeit der Größe einer Webseite und natürlich der gewohnten Schreibfrequenz. Dies bedeutet: sofern eine Webseite in der Regel mehrmals am Tag neue Inhalte veröffentlicht, wird diese im Vergleich zu einer kleinen Webseite mit wenigen inhaltlichen Änderungen im Monat häufiger besucht.
Wem dennoch die Besuchshäufigkeit des Googlesbots zu hoch erscheint, z.B. aufgrund des entstehenden Traffics / Datenvolumens, der kann diesen über die Google Webmaster Tools regulieren und somit eingrenzen.
Google selbst empfiehlt, die Crawling Geschwindigkeit nur in absoluten Ausnahmefällen, beispielsweise wenn dadurch die Geschwindigkeit/Performance des Servers deutlich verlangsamt wird, zu verändern.
Grundsätzlich sollte die Häufigkeit des Crawlings einer Webseite nicht verändert werden und der Rhythmus sollte seitens der Suchmaschinen bestimmt werden – schließlich möchten neue und bearbeitete Inhalte zeitnah in den Index aufgenommen werden und optimaler Weise direkt von potentiellen Besuchern und Kunden gefunden werden.
Probleme mit dem GoogleBot melden
Eine Anpassung der Crawling Geschwindigkeit ist in der Regel 90 Tage gültig und wird im Anschluss auf den Ausgangswert zurückgesetzt. Sollten tatsächlich durch den Googlebot signifikante Probleme auftauchen, so besteht auch die Möglichkeit die Probleme mit dem Googlebot zu melden (siehe Links zu weiteren Informationen in obiger Grafik).
Rückblick auf den CAREER.DAY 2013 der FHM Bielefeld
Den zweiten CAREER.DAY der FHM Bielefeld haben wir diese Woche erneut als Aussteller unterstützt und zählen damit schon fast zu den „alten Hasen“ bei dieser Veranstaltung. Organisiert wurde sie wie im vergangenen Jahr in Kooperation mit der Absolventenverein Alumni e.V. und bot eine Kombination aus Vorträgen und Karrieremesse. Auf diese Weise konnten die Absolventen und Studierenden Kontakte mit heimischen Unternehmen knüpfen und sich direkt über Jobangebote und Praktikumsmöglichkeiten informieren.
Großes Interesse auf Studentenseite
Die Nachfrage von Studentenseite war beachtlich: mit rund 300 Studierenden aller Fachrichtungen mit Schwerpunkt auf den Studiengängen BA Eventmanagement, Medienkommunikation und Journalismus sowie BWL interessierten sich deutlich mehr Studenten für die Angebote der teilnehmenden Unternehmen als im Vorjahr. So fanden die mitgebrachten und an der Jobwall der FHM ausgehängten Jobangebote großen Anklang.
Am comspace-Stand konnten unsere Kolleginnen Pia und Hanna (selbst Alumna bzw. aktuelle Masterstudentin der FHM Bielefeld) viele interessante Gespräche mit gut vorbereiteten und durchweg qualifizierten Bachelor- und Masterstudenten führen, wobei der Schwerpunkt auf der Nachfrage nach Trainee- und Praktikumsangeboten lag. Mit gesundem Selbstbewusstsein boten die Studenten dabei nicht nur ihre Arbeitsleistung an, sondern fragten auch danach, was die Unternehmen für sie tun könnten.
Namhafte Aussteller aus OWL
Als Aussteller befanden wir uns in guter Gesellschaft von Firmen wie u.a. CLAAS, Schüco, Arminia Bielefeld, Seidensticker und Gerry Weber. In einem parallel stattfindenden Vortragsprogramm informierten einige dieser Unternehmen über ihre Berufseinstiegsmöglichkeiten. Außerdem wurde das Mentoring-Programm des FHM Alumni e.V. vorgestellt.
Insgesamt war es eine gelungene Veranstaltung, die es uns nebenbei ermöglichte, den Kontakt zu dem einen oder anderen FHM Verantwortlichen zu intensivieren. Die Organisation seitens der Fachhochschule lief erneut reibungslos.
Alles geschrumpft – außer der Leistung
Die Anforderung
Maximale Performance und Ausfallsicherheit mit einem geringen Preis und minimalen Betriebskosten zu vereinen ist die Herausforderung, die jeder Infrastrukturconsultant von seinen Kunden (nahezu) jeden Tag aufs Neue von seinen Kunden gestellt bekommt. Besonders die laufenden Betriebskosten (Strom, Klimatisierung, Rack-Infrastruktur) stellen heute einen wesentlichen Kostenfaktor im Betrieb einer Serverlandschaft. Neben den Energiekosten müssen auch die Stellplatzkosten betrachtet werden – spätestens seit der bekannten Werbung des blauen Riesen („Wo sind unsere ganzen Server hin?“ – „Hier!“ – „Was ist das?“ – „Es ist ein Blade?“) ist allgemein bekannt, dass jeder das Ziel verfolgt möglichst viel Performance auf wenig Fläche unterzubringen. Denn nicht nur die Fläche, sondern auch die Anforderung an die Klimatisierung stellt eine Herausforderung dar, sobald mehr Fläche benötigt wird.
Die Lösung
Neulich stellte mich ein Kunde vor genau diese Herausforderung. Maximale Performance im Bereich der CPU-Leistung und eine hohe I/O-Rate schlossen eine Virtualisierung schnell aus, die vielen Komponenten aus denen das System bestehen sollte, sorgte schnell für eine größere Anzahl an sogenannten 2 HE-Systemen, gleichzeitig war die benötigte Anzahl an Festplatten aufgrund des geforderten Datenvolumens sehr gering, so dass wenige Festplatten zur Skalierung und Ausfallsicherheit reichten.
Unser langjähriger Partner, die Thomas-Krenn.AG aus dem niederbayrischen Freyung, stellte auf der Cebit 2013 seine neuen Multinode-Systeme vor und endlich gab es einen sinnvollen Einsatzzweck. Vier vollwertige Dual-CPU-Systeme mit jeweils sechs dedizierten Festplatten auf 2 Höheneinheiten klingen sehr verlockend, immerhin können jetzt viermal so viele Systeme auf dem gleichen Raum verbaut werden. Jedes System verfügt über zwei Netzwerkanschlüsse und einen dedizierten IPMI-Port zum Remote Management, erstere können über die zusätzliche Netzwerkkarte erweitert werden. Zwei Netzteile versorgen alle vier Server redundant. Gleiche Power bei weniger Platzbedarf – war das in der IT nicht seit je her ein Garant für höhere Anschaffungskosten? Doch dann kam die Überraschung. Im konkreten Fall wurden vier RI8224M von der Thomas-Krenn.AG konfiguriert. Vom Single CPU-System mit 4 GB RAM als Proxy Server bis hin zum hochperformanten Datenbankserver mit 64 GB RAM und 2 6-Kerne-Prozessoren war alles in dem System dabei und am Ende standen ca. 30% weniger Anschaffungskosten auf dem Angebot. Betrachtete man die einzelnen Systeme im direkten Vergleich so konnten teilweise bis zu 45% der Kosten eingespart werden, selbst nach Umlage der Kosten für das Basischassis waren problemlos 40% Ersparnis möglich. Hinzu kommt die bessere Ausnutzung der Netzteile, weniger Platzbedarf im Rack und dadurch günstigere Betriebskosten – ein Traum für alle Seiten.
Der Intel Dual-CPU RI8224M ist nicht nur für komplexe Infrastrukturen für einzelne Kunden geeignet, sondern bietet auch eine gute Basis für den Betrieb von individuellen Virtualisierungs- oder Cloud-Lösungen im eigenen Rechenzentrum. Wem eine CPU pro System reicht, für den bietet der RI8316M eine ähnliche Lösung mit 8 Servern auf 3 Höhenheinheiten, die jeweils 2 Festplatten nutzen können.
Es werden nur drei Server gebraucht? Auch da gibt es eine Lösung – man nimmt das vierte Modul mit einer kostengünstigen Ausstattung und nutzt es zur Überwachung der anderen Module, denn die Serverexperten haben passend zum Linux-Tag mit TKmon ein auf der OpenSource-Lösung Icinga basierendes, intuitiv zu bedienendes Monitoringtool zur Verfügung gestellt.
Google Webmaster Tools: Sitelinks abwerten
Die Sitelinks bilden die relevanten Navigationspunkte einer Website innerhalb des Suchergebnisses zu einem Webseitennamen ab. Die Sitelinks könnten nicht selbst definiert werden, sondern das übernimmt die Suchmaschine Google , indem sie die Seite analysiert und die wichtigsten Navigationspunkte für potentielle Besucher bereitstellt.
In den Suchergebnissen werden ausschließlich die Sitelinks angezeigt, die seitens Google für den Besucher als hilfreich erachtet werden. Inhalte, die als nicht relevant für den Besucher angesehen werden, sollten laut Google nicht angezeigt werden. Wobei die Erfahrung zeigt, dass auch Ergebnisse angezeigt werden, die eigentlich für den potentiellen Besucher keinen direkten Nutzen haben.
Sitelinks abwerten
Wenn Sitelinks angezeigt werden, die einem Besucher nach Auffassung des Seitenbetreibers nicht angezeigt werden sollen, besteht die Möglichkeit, bis zu 100 URLs abzuwerten – einziges Manko: die Anpassung bleibt in der Regel nur 90 Tage und nicht dauerhaft aktiv. Wer also in den Google Webmastertools nur unregelmäßig nach dem rechten schaut, dem kann es passieren, dass nach 90 Tagen in den Sitelinks wieder Inhalte präsentiert werden, die eigentlich nicht angezeigt werden sollen.
Zum Abwerten eines Sitelinks reicht es aus, den entsprechenden Link in die Maske der Google Webmaster Tools einzutragen. Es besteht sowohl die Möglichkeit einen relativen Pfad als auch einen absoluten Pfad einzutragen. (zu finden unter Website-Konfiguration -> Sitelinks.)
Es kann in der Regel ein paar Tage dauern, bis der Änderungswunsch durch die Suchmaschine übernommen wird.
Tipp – Sitelinks auch in Zukunft beobachten
Nachdem eine Abwertung durchgeführt wurde, sollte der Inhaber der Webseite die Sitelinks nach ein paar Tagen kontrollieren. Da die Suchmaschine Google keine Möglichkeit zur Bestimmung konkreter Sitelinks bereitstellt, besteht die Gefahr, dass alternativ ein ebenfalls unerwünschter Inhalt im Austausch mit dem abgewerteten Sitelink eingebunden wird.
Google Webmaster Tools: Geografische Zielausrichtung
Die geografische Zielausrichtung erlaubt dem Websitenbetreiber direkt in den Google Webmaster Tools festzulegen, für welchen Sprachraum die Inhalte der Website geeignet sind.
Domains und Verzeichnisse zuordnen
Gerade wenn unter einer Domain mehrere Ländersprachen existieren und diese mithilfe von Verzeichnissen bzw. Hierarchie- Ebenen über die URL getrennt werden, können diese über die geografische Zielausrichtung einer Sprache zugeordnet werden. Dadurch erhält der Suchmaschinenbetreiber Google eine direkte Anordnung, dass die angegebene URL beispielsweise dem deutschen Sprachraum zugeordnet werden soll.
Das Ziel von Google ist es einem Nutzer die relevantesten und nützlichsten Suchergebnisse zu einer Suchanfrage zu liefern. Daher macht es in der Regel keinen Sinn, einem französischsprachigen Nutzer indische Inhalte anzubieten. Damit eine länderspezifische Zuordnung noch einfacher umgesetzt werden kann, nimmt Google mithilfe der geografischen Zielausrichtung die vom Webseitenbetreiber selbst eingetragenen Informationen zu Hilfe.
Grundsätzlich versucht Google jede Webseite zu kategorisieren und diese nebst einer Branche und verschiedenen Keywords auch einer Sprache zuzuordnen.
Generische Domains und die geografische Zielausrichtung
Gerade bei generischen Domain-Endungen wie z. B. „.org“, die grundsätzlich keinem Land direkt zugeordnet sind, kann der Webseitenbetreiber mit Hilfe der geografischen Zielausrichtung dem Suchmaschinenbetreiber Google mitteilen, zu welcher Sprachregion die Inhalte der Webseite passen, damit diese auch entsprechend in den Suchergebnissen dargestellt werden und die richtige Zielgruppe erreichen.
Google Webmaster Tools: XML-Sitemap
Die Google Webmaster Tools erlauben beispielsweise die Einbindung einer sogenannten XML-Sitemap, mit dem der Suchmaschine Google eine Liste aller verfügbaren Inhalte bzw. URLs übermittelt wird. Für die meisten Websitebetreiber ist nach Einreichen der Sitemap dieses Kapitel auch beendet, doch in den Google Webmaster Tools werden relevante Statistiken über die Sitemap preisgegeben.
Gleich die erste Übersicht zeigt dem Websitebetreiber, dass die eingereichten Inhalte in Typ „Webseiten“ und Typ „Bilder“ unterteilt werden. Außerdem zeigt die Statistik, wie viele Inhalte eingereicht und im Anschluss von der Suchmaschine in den Index aufgenommen wurden. Schön und gut? Nein, bereits hier sollte der Inhaber der Website sich überlegen, ob es korrekt ist, dass beispielsweise von 312 eingereichten Webseiten lediglich 81 im Index sind. Selbiges gilt natürlich auch für Bilder. Hat die Website eventuell Indexierungsprobleme, die mir als Betreiber bis dato nicht bekannt sind?
Im der darunter liegenden Übersicht werden die eingereichten Sitemaps aufgelistet. Wie viele man einreicht und ob man diese beispielsweise in Kategorien, Artikel, Schlagworte und so weiter unterteilt, ist jedem selbst überlassen. Aktive WordPress Nutzer können zum Beispiel mittels dem Plugin WP SEO by Yoast die Sitemaps unterteilen und diese bei Bedarf einreichen. Der Vorteil einer Unterteilung begründet sich mit einer besseren Übersicht, auch in den Google Webmaster Tools.
Fehler und Potentiale erkennen
In der nachfolgenden Übersicht ist klar zu erkennen, dass vier Sitemaps eingereicht wurden. Zum einen für vorhandene Kategorien, Seiten, Artikel und Schlagworte. Relevant sind hierbei die Punkte: Wann wurde meine Sitemap zuletzt verarbeitet? Wie viele Inhalte wurden eingereicht und vor allem, wie viele Seiten sind im Index?
Im Anschluss gilt es bei Bedarf zu untersuchen, warum weniger Seiten im Index sind als von einem selbst eingereicht wurden.
- Weist meine Website Fehler auf und Google kann daher die Inhalte nicht indexieren?
- Sind URLs auf noindex eingestellt?
- Ich habe neue Inhalte, aber die XML wurde noch nicht wieder bearbeitet?
Es gibt verschiedene Gründe, warum URLs nicht im Index sind. Es muss aber nicht zwangsläufig immer ein Fehler vorliegen. Wer beabsichtigt, dass gewisse Inhalte nicht indexiert werden sollen, der verwendet das Meta-Tag Robots mit einem „noindex“, logsicherweise wird diese URL dann als eingereicht dargestellt, aber nicht in den Index aufgenommen.
Ebenso kann es sein, dass ich gerade erst einen Artikel veröffentlicht habe, in der Zwischenzeit die Sitemap seitens Google noch nicht abgerufen wurde und dem entsprechend die Seite nicht im Index ist. Wiederum kann es auch sein, dass die Seite im Index ist, die obige Grafik aber bis dato noch nicht aktualisiert wurde.
Fazit: Auswertung von XML-Sitemap Daten mithilfe der Google Webmaster Tools
Die Daten, welche die „Google Webmaster Tools“ bieten, geben jedem Websitebetreiber die Möglichkeit ohne große Schwierigkeiten zu erkennen, wie viele der eingereichten URLs auch tatsächlich in den Google Suchindex aufgenommen wurden. Des Weiteren lassen sich über diese Daten eventuelle Probleme bei der Indexierung von Inhalten erkennen – wenn weniger Inhalte im Index sind, als tatsächlich eingereicht wurden, muss aber auch nicht zwangsläufig ein Fehler vorliegen, sondern es kann auch beabsichtigt sein, dass vorab definierte URLs nicht indexiert werden sollen.
Google Webmaster Tools: Dashboard und Nachrichten
Das Dashboard bietet eine kleine Übersicht über die relevantesten Statistiken der Google Webmaster Tools. Sie beginnen mit dem Punkt „Neu und wichtig“, wo direkt erkannt werden kann, ob eine Nachricht von Google mit Hinweisen bezüglich der Website eingegangen ist. Dazu aber mehr im Punkt „Nachrichten – Informationen von Google„.
Crawling-Fehler, Statistiken über Suchanfragen und Sitemaps
Des Weiteren informiert das Dashboard über Crawling-Fehler, Suchanfragen und die Sitemap. Crawling-Fehler zeigen an, ob beim Abruf der Website durch den Google Crawler Fehler wie z. B. „nicht gefundene Seiten“ erkannt wurden. Die Suchanfragen zeigen kurz und knapp die Anzahl der Impressionen und die Anzahl der Klicks sowie die tatsächlichen Suchanfragen für eine Webseite. Die Sitemap liefert eine kleine Übersicht über die Anzahl der URLs, die mithilfe der XML-Sitemap übermittelt wurden und wie viele davon tatsächlich indexiert wurden.
Das Dashboard stellt lediglich eine Kurzübersicht bereit, natürlich besteht die Möglichkeit, über die entsprechenden Schaltflächen noch tiefer in jeden einzelnen Punkt einzusteigen.
Nachrichten – Informationen von Google
Der Punkt „Nachrichten“ in den Google Webmaster Tools wird gern missachtet – solange keine Nachricht eingegangen ist, ist dies logischerweise auch in Ordnung. Falls jedoch eine Nachricht seitens Google eingegangen ist, sollte zumindest ein kurzer, aber prüfender Blick auf die Nachricht geworfen werden.
Der Betreff der Nachrichten kann sich erstrecken von „einem signifikanten Anstieg der Suchanfragen“ über das „weitere Nutzer hinzugefügt wurden“ sowie „unnatürlichen Links“ bis hin zu „Malware„.
Das bedeutet, es kann Nachrichten geben, die lediglich einen Hinweis darstellen und für den Webseitenbetreiber durchaus positiv sind, aber wiederum kann es auch Hinweise auf negative Veränderungen hinsichtlich der Webseite geben.
Durch unsichere Passwörter, fehlerhafte Software oder auch aus Unerfahrenheit kann es passieren, dass eine Webseite aufgrund eines Hacker-Angriffs mit Malware verseucht wird. Sobald Google solche Malware auf der Webseite erkennt, wird eine Nachricht an den Seitenbetreiber verschickt, die zum einen darauf hinweist, dass etwas mit der Website nicht in Ordnung ist und zum anderen mitteilt, dass die Webseite kurzfristig aus dem Index entfernt werden könnte.
Genau aus diesem Grund sollten Webseitenbetreiber regelmäßig kontrollieren, ob eine Nachricht eingegangen ist – schließlich ist Google in diesem Fall so heroisch und weist uns relativ zeitnah auf Probleme mit der Website hin.