Crowd Sourcing und LEGO – Wie passt das zusammen? PERFEKT! Und macht Minecraft anfassbar :)

Screenshot des LEGO Cuusoo Portals mit dem Minecraft LEGO Bausatz

Crowd Sourcing meint, dass massenweise Leute über das Netz an etwas zusammen arbeiten können. Wikipedia, Google Docs, Firmen-Intranets… You name it. Und ein Modell ist abstrakter als das andere.

Screenshot des LEGO Cuusoo Portals mit dem Minecraft LEGO Bausatz
Screenshot der LEGO Cuusoo Webseite

Haben Sie auch früher mit LEGO die abgefahrensten Dinge gebaut?

Häuser, Schiffe, Autos, Raumstationen und Ritterburgen… Was haben wir nicht alles aus den kleinen, dänischen Klötzchen für Welten erschaffen. Zahllose Nachmittage, an denen unsere Knie tiefe Beulen im Kinderzimmerteppich hinterlassen haben. Und dann haben wir unsere Werke stolz ins Wohnzimmer getragen, um sie ein paar Tage später fallen zu lassen und nach dem großen SCHEPPER! die Steinchen nach und nach aus den hintersten Zimmerecken zu fischen und zu einem neuen Kunstwerk zusammen zu setzen.

1,7 mm hohe Noppen, die Welten zusammen halten und uns in Sekunden die Vergänglichkeit unserer Arbeit vor Augen führten.

Heute sieht das plötzlich ganz anders aus: Wir können uns nicht nur wie der Bielefelder Schriftsteller Mischa Sarim-Verrolet beim Bauen unseres LEGO Bullis zuschauen lassen und unsere Bauwerke nicht nur  im Web für die Ewigkeit festhalten, sondern uns Anregungen in LEGO Blogs holen, wo virtuose Klötzchen-Architekten ganze Filmsets nachbauen oder sogar filmreife Modelle entwerfen.

Crowd Sourcing heisst gemeinsam arbeiten

So wie wir früher gemeinsam an einem LEGO-Projekt gearbeitet haben, können wir heute mit Crowd-Sourcing und Cloud-Anwendungen auch im echten Leben echte Projekte umsetzen und Meilensteinchen an Meilensteinchen reihen. Eigentlich logisch, diese beiden Dinge zusammen zu führen, oder?

Neben privat erstellten LEGO-Bauplänen, die von anderen runtergeladen, kommentiert, verbessert und erweitert werden können, hat LEGO als Unternehmen mittlerweile eine clevere Crowd-Sourcing Plattform aufgebaut.

Auf dem Portal LEGO.cuusoo.com können Fans ihre fertiggestellten (mit Teileliste und Bauplan dokumentierten) LEGO-Fan-Projekte vor- und zur Wahl stellen.

Projekte, die durch die Community mindestens 10.000 Stimmen erhalten, werden von LEGO in Betracht gezogen, als tatsächliches Produkt in den Handel zu kommen.

Warum vertraut LEGO auf diese Schwarmintelligenz der Kunden?

Seit 90 Jahren ist LEGO einer der erfolgreichsten Spielzeughersteller der Welt – 2012 ist tatsächlich Jubiläumsjahr. Warum sollte sich das Unternehmen von Kunden in die Produktentwicklung reinreden lassen? Hier die 5 offensichtlichsten Gründe:

  1. Innovative Produkte entstehen
  2. Grundabsatz unter den Projekt-Supportern ist relativ sicher
  3. Hohe Akzeptanz durch den „Mitmach-Faktor“
  4. Virale Verbreitung auch der nicht realisierten Projekte in Social Networks
  5. Awareness für die Marke LEGO

Minecraft wird durch LEGO Cuusoo aus der Virtualität in die Anfassbarität gebracht

Ein Beispiel für perfektes Crossmarketing: Minecraft ist wohl DAS Computer-Spiel-Phänomen der letzten Jahre. In dem kostenlosen Online-Spiel kann der Spieler eigene Welten zusammenbauen. Aus Klötzchen.

Was liegt da näher als Minecraft mit Hilfe von LEGO in die echte Welt zu überführen? Doch weder LEGO noch der Spiele-Entwickler Markus Persson kamen auf die Idee, sondern die Cuusoo Community. Vier auf dem Globus verteilte Fans entwickelten zusammen mit einem LEGO-Designer den ersten Minecraft-LEGO-Baukasten, der seit Juni auch in Deutschland für 34,95 im Regal steht.

Erste Blogs berichten bereits begeistert über das fertige Produkt:

Video hier entdeckt

Hinterlassen Sie uns doch einen Kommentar, wie Massenzusammenarbeit mit Kunden für Ihre Produkte aussehen könnte!

 

 

Durch einen Hinweis auf dieses LEGO Autoprojekt, das ich gleich in meinem eigenen Blog verwendet habe, bin ich auf LEGO.Cuusoo aufmerksam geworden

Warum betreibt man denn einen Firmen-Blog?

Warum betreibt man als Unternehmen ein Blog? Als Marketing-Instrument? Dafür ist der Aufwand eigentlich zu groß. Als Mitarbeiter-Magazin? Dafür ist es zu öffentlich, denn auch das transparenteste Unternehmen ist ja schon rechtlich als auch wirtschaftlich dazu verpflichtet, einige Informationen für sich zu behalten.

Wozu ist also ein Unternehmens-Blog sinnvoll?

Dazu habe ich letztens einen spannenden Artikel im Blog Deadline beim schweizer Tagesanzeiger gelesen. Dort schreibt Constantin Seibt, der als einer der besten deutschsprachigen Wirtschafts- und Politik-Journalisten gilt, über Journalismus im 21. Jahrhundert im Allgemeinen und im speziellen über die letzte exklusive Ware des Journalismus: Komprimierte Zeit.

Denn die Ware im Journalismus ist im Kern nicht die Nachricht, die Unterhaltung oder der Kommentar, sondern die Ware jedes professionellen Schreibers: komprimierte Zeit.

Seibt meint damit, der Schreibende nimmt sich Zeit über ein Thema nachzudenken, Informationen zusammen zu stellen und neu zu kombinieren. Die daraus entstehenden Erkenntnisse, das erlangte Wissen oder aktuell erkannte Entwicklungen kann er dann wiederum seinen Lesern anbieten.

Woran der Schreiber 60 Minuten oder länger herumgedacht und geschrieben hat, kann der Leser innerhalb weniger Minuten aufnehmen.

Deswegen: Komprimeirte Zeit.

Ein ganz ähnlichen Anspruch haben wir uns für diesen Blog auch gesetzt. Nur eben mit einer sehr viel spitzeren Zielgruppe: Unsere Kunden, Mitarbeiter und alle, die sich für die Themen, die uns bewegen ebenfalls interessieren.

Wenn wir Events zusammenfassen und unsere Erkenntnisse daraus veröffentlichen oder unsere Mitarbeiter ihr Expertenwissen in kleine, leicht nachvollziehbare und anzuwendene Informations-Happen komprimieren, helfen wir uns und Ihnen:

Wir schenken Ihnen komprimierte Zeit und profitieren selbst davon, wenn unsere Kunden top-informiert sind.

Rechtssichere Integration des Share-Buttons

Allyve Share Plugin - Teilen ButtonAb sofort sind die Share-Plugins auf unseren Seiten von Allyve und somit bieten wir eine rechtssichere Integration des Like-Buttons von Facebook. Deutsche Datenschutzbehörden haben zuletzt immer wieder eine 2-Klick-Lösung für Webseiten gefordert. Im Folgenden möchte ich kurz auf die Vorteile des Share Plugins eingehen aber auch auf die aktuelle Diskussion zum Thema „2-Klick-Lösung“ eingehen.

Warum sollte man ein Share Plugin einsetzen?

Webseiten-Besucher können interessante Inhalte schnell und einfach in alle relevanten sozialen Netzwerke teilen. Der Content kann sich so schnell viral verbreiten, was zu steigenden Nutzerzahlen auf dem eigenen Angebot führt. Da aber niemand eine Vielzahl unterschiedlicher Icons auf der eigenen Seite unterbringen möchte, sind verschiedene Unternehmen auf die Idee gekommen diese Buttons hinter einem „Teilen“-Button zusammenzufassen. Als Mehrwert steht dem Nutzer oft eine Multisharing-Option zur Verfügung, die so das mehrfache Anklicken verschiedener Buttons auf wenige Klicks reduziert.

Datenschutz und 2-Klick-Lösung

Wir möchten uns an dieser Stelle nicht an der aktuellen Diskussion zum Thema beteiligen aber im Sinne des  §3a BDSG sorgt eine 2-Klick-Lösung für eine Datensparsamkeit was die Sammelleidenschaft von Facebook & Co. betrifft. Wer sich selber mit dem Thema beschäftigen möchte, dem empfehlen wir ein paar Links um weiter in das Thema einzusteigen:

Der gute alte Google PageRank

PageRank von Comspace

Jedes Mal aufs Neue, sobald sich die Anzeige des Google PageRanks verändert, diskutieren die Seo- und Marketingexperten darüber, welche Wertigkeit der PageRank in der heutigen Zeit besitzt.

Rückblick in die Anfangszeit des PageRank Algorithmus

Der Google PageRank-Algorithmus stammt, wie der Name eigentlich schon sagt, aus dem Hause von Google und diente als Grundlage der modernen Suchmaschine.

Die Aufgabe des PageRank-Algorithmus war die Qualität von Internetseiten anhand ihrer Linkpopularität, also Links die auf eine Webseite verweisen, zu gewichten und Webseiten anhand der Bewertung in den Serps (Suchergebnissen) zu positionieren. Im Hinterkopf sollten wir dabei aber behalten, dass der Algorithmus weitaus komplexer ist, als wir ihn hier dargestellt haben.

PageRank von Comspace

Der öffentliche PageRank wird in einer Skala von 0 bis 10 dargestellt. Webseiten mit einem hohen PageRank wurde lange Zeit nachgesagt, dass diese von der Qualität besser sind als Webseiten, die einen niedrigeren PageRank besitzen. Das Problem dabei war nur, dass der PageRank aufgrund des Linkhandels manipuliert werden konnte und deshalb kein ausreichendes Qualitätsmerkmal für gute Inhalte darstellte.

Linkhandel – Linktausch und Linkverkauf

Aufgrund dessen, dass relativ schnell klar war, welche Bedeutung der PageRank hat, erlebte der Linkhandel einen Aufschwung und Links/Backlinks wurden in verschiedenen Formen gehandelt.

Dem entsprechend wurde auch viel Kritik an dem PageRank laut, da finanzkräftige Unternehmen in der Lage waren Backlinks zu kaufen. Mittlerweile verstößt der Handel mit Links, ob Kauf oder Tausch, gegen die Google Webmasterrichtlinien.

Google hat sich nicht nur als Unternehmen durch viele seiner Dienste wie GoogleMail oder GooglePlus weiterentwickelt, auch der Google Algorithmus ist mittlerweile deutlich größer und facettenreicher als zu Zeiten, wo der PageRank einer der wenigen Qualitätsmerkmale war. Besonders durch diverse Algorithmus Updates wie zum Beispiel das Panda Update (einst auch Farmer Update) und Pinguin Update versucht Google auf Basis der eigenen Webmasterrichtlinien den Handel mit Links zu unterbinden und die Qualität in den Vordergrund zu rücken.

Warum Google an dem PageRank festhält

Im Online Marketing wird häufig die Frage gestellt, warum Google überhaupt an dem PageRank festhält, wenn doch bekannt ist, dass dieser sich ggf. auch noch heute manipulieren lässt und dadurch der Linktausch gefördert wird.

Google wird sicherlich nicht aus dem Grund des Linkhandels an dem PageRank festhalten – sondern weil der PageRank noch ein Teil eines großen Algorithmus zur Bewertung von Webseiten und eben nicht mehr das Alleinstellungsmerkmal für qualitative Webseiten ist, aber dennoch als ein Kriterium von sehr vielen in die Bewertung von Webseiten einfließt.

Trotz aller Theorien – ohne eine 100 %ige konkrete Aussage von Google wird diese Frage nie zur vollsten Zufriedenheit aller beantwortet werden können.

Aktualität des sichtbaren PageRanks

Ein weiteres Problem ist die Aktualität des PageRanks – während sich Suchmaschinenoptimierer oder Suchmaschinenmarketing-Experten stets auf aktuelle Daten verlassen wollen bzw. sogar müssen, so ist der sichtbare PageRank, im Gegensatz zum internen PageRank, nie wirklich aktuell.

PageRank Updates werden in der Regel alle drei bis sechs Monate durchgeführt und viele Webseitenbetreiber erfreuen sich daran, dass sich der PageRank ihrer Seite ggf. verbessert oder überhaupt einen bekommen hat.

Doch gerade im Update-Intervall liegt das Problem – ist der PageRank am Tage des Updates tatsächlich aktuell oder hat der Google Algorithmus den PageRank bereits Wochen zuvor berechnet und diesen erst am Tage des Updates sichtbar für alle Webseitenbetreiber gemacht?

Google Panda und Google Pinguin Update

Wie bereits im Abschnitt “Linkhandel – Linktausch und Linkverkauf” beschrieben, arbeitet der Suchmaschinenbetreiber Google stets daran, die Qualität seiner Suchergebnisse zu verbessern. Dem entsprechend gab es in den vergangenen Wochen und Monaten einige Updates wie zum Beispiel das Panda Update und das Pinguin Update.

Des Weiteren hat Google viele Linknetzwerke, die einzig und allein zum Zweck des Backlinkhandels hochgezüchtet wurden, deutlich abgewertet und teilweise deindexiert.

Ist der PageRank tot?

Beim Google PageRank kommt ein Spruch besonders zum Tragen: „Tot Gesagte leben länger.“  In der Vergangenheit wurde der PageRank immer mal wieder tot geredet – doch ist der PageRank tatsächlich tot?

Meines Ermessens ist der PageRank nicht tot, sondern er ist zum einen ein Bestandteil eines großen Algorithmus zur Verbesserung der Qualität in der Suchergebnissen und zum anderen kann ich mir gut vorstellen, dass der PageRank aufgrund der Deindexierung und Abwertung von Blocknetzwerken eine Wiedergeburt erlebt.

Wenn Google in der Lage ist, sogenannte Blognetzwerke zu erkennen und diese entsprechend aus der Bewertung von Webseiten herauszufiltern, so erlaube ich mir die Theorie aufzustellen, dass der PageRank nicht tot ist, sondern aus seinem langen „Winterschlaf“ erwacht.

Die vergangenen fünf PageRank Updates

  • PageRank Update am 03.05.2012
  • PageRank Update am 07.02.2012
  • PageRank Update am 07.11.2011
  • PageRank Update am 22.07.2011
  • PageRank Update am 27.06.2011

Eine komplette Historie der PageRank Updates findet sich hier.

Passwörter sicher verwalten mit KeePass Password Safe

Wer im Internet viel unterwegs ist, kennt das Problem: überall werden Zugangsdaten benötigt, sei es beim Online-Banking, in Foren, beim Webmailer oder Online-Shops. Das Problem? Wer kann sich all die verschiedenen Passwörter merken?

Ich kenne viele, die sich ein Passwort merken und dieses bei den verschiedenen Diensten, in verschiedenen Variationen einsetzen oder noch schlimmer gleich ein Passwort für alles benutzen. Die Gefahr, die damit einhergeht, ist ganz klar: verschafft sich jemand unerlaubt Zugang zu einem der Konten des Nutzers, stehen ihm Tür und Tor offen zu allen Online-Konten.

Sicherer fährt man nur, wenn man sich starke Passwörter ausdenkt und jedem Online-Konto ein eigenes zuweist.

Wie installiere ich KeePass?

Wie man sich all diese Passwörter merken kann, möchte ich Ihnen im Folgenden aufzeigen. Das Programm meiner Wahl heißt KeePass, es ist OpenSource, Freeware und leicht in der Handhabung. Um KeePass zu nutzen, benötigen Sie ein installiertes .NET Framework 2.0 oder höher.

Zunächst einmal müssen Sie sich KeePass herunterladen:

Legen Sie sich einen Ordner KeePass an und entpacken Sie beide Archive in diesen Ordner – so wie auf nachfolgendem Screenshot sollte es aussehen:

Keepass entpacken - Keepass Ordnerstruktur

Nach dem Entpacken des Archives von KeePass sind nachfolgende Schritte auszuführen:

  • KeePass starten über die KeePass.exe.
  • Über den Punkt View->Change Language… die deutsche Sprachdatei auswählen.

KeePass wird daraufhin automatisch neu gestartet und sollte Sie dann mit der deutschen Oberfläche begrüßen:

KeePass Oberfläche in deutscher Sprachausgabe

Über Datei->Neu… legen Sie eine neue Datenbank-Datei an. Ich lege diese Datei immer im KeePass-Programmordner an, so habe ich alles beisammen und kann es bei Bedarf auf einem USB-Stick mitnehmen.

Anlegen eines Master-Passwortes

Als nächstes geht es darum, die Datenbank mit einem Master-Passwort zu schützen, genauer mit einem sogenannten Mantra, einem Passwort-Satz. Dieser sollte sorgfältig gewählt werden, im Zweifel ist es Ihr einziger Schutz, wenn die Passwort-Datenbank in fremde Hände fällt.

Das Mantra oder generell ein Passwort sollte kein Wort aus einem Wörterbuch sein, egal in welcher Sprache und sei die Sprache noch so exotisch. Zudem sollte man eine Kombination aus Groß- und Kleinbuchstaben, Zahlen und Sonderzeichen wählen. Eine Möglichkeit wäre, sich einen Satz auszudenken, den man sich gut merken kann wie z.B.: Was Fritzchen nicht lernt, lernt Fritz nimmermehr. Man baut Rechtschreibfehler ein und ersetzt einzelne Buchstaben durch Zahlen und Sonderzeichen, so dass am Ende so etwas dabei rauskommt: W4s Fr!7zch3n n!ch7 lärn+, lärn+ Fr!7z n!mmermöhr. Natürlich muss das Mantra nicht so lang sein, dies soll hier nur als Beispiel dienen.

KeePass verschlüsselt mit dem AES-Algorithmus und einer Schlüssellänge von 256 Bit. Um den maximalen Schutz zu nutzen, den diese Methode bietet, müsste das Mantra 32 Zeichen enthalten. Um Ihre Datenbank zusätzlich zu sichern, können Sie eine Schlüsseldatei erzeugen. In diesem Fall bräuchte ein Angreifer zum Öffnen Ihrer Passwort-Datenbank nicht nur das richtige Mantra, sondern auch die dazugehörige Schlüsseldatei, die natürlich nicht gleich im Programmordner von KeePass abgelegt werden sollte.

Wählen Sie ihr Master-Passwort und setzen Sie das Häkchen bei Schlüsseldatei / Provider…

Schlüsseldatei erstellen und Masterpasswort in Keepass vergeben

… und klicken Sie auf Erstellen, anschließend den Bildschirmhinweisen folgen bis die Schlüsseldatei erzeugt wird.

Schlüsseldatei für KeePass erzeugen

Zum Schluss können Sie mit OK das Erzeugen der Datenbank abschließen und im nächsten Schritt die Vorgaben des Programms ruhig übernehmen und mit OK bestätigen.

Jetzt gelangen Sie wieder in das KeePass Hauptfenster, das dann so aussehen sollte:

Hauptfenster von KeePass

Herzlichen Glückwunsch, Sie haben Ihre Passwort-Datenbank erfolgreich angelegt. Wenn Sie testen wollen, ob alles geklappt hat, einfach das Programm schließen und neu starten. Nun muss das Mantra eingegeben und die Schlüsseldatei eingebunden werden, nur so lässt sich die Datenbank öffnen.

Wie fülle ich die Passwort-Datenbank mit Inhalt?

Als nächstes können Sie die Datenbank mit Ihren Passwörtern füttern, vielleicht eine gute Gelegenheit, für bestehende Accounts neue Passwörter zu generieren.

Wählen Sie in der linken Spalte eine Kategorie und anschließend Bearbeiten->Eintrag hinzufügen… , um einen neuen Eintrag zu erstellen. Im folgenden Dialog füllen Sie die Felder aus. Wichtig ist, dass der Benutzername dem Login-Namen entspricht und unter URL die Adresse zu der Anmeldeseite gesetzt wird.

Eintrag in KeePass hinzufügen

Hat man nun einen Eintrag erstellt und möchte sich beim gewünschten Dienst anmelden, ruft man das Programm auf und wählt den entsprechenden Eintrag. In der unteren Spalte wird die URL angezeigt, mit einem Klick auf den Link öffnet sich Ihr Standardbrowser mit der jeweiligen Website und das Programm KeePass fällt in den Hintergrund. Auf der Website müssen Sie jetzt einmal in das Login-Feld klicken, damit KeePass einen „Anhaltspunkt hat“.

Passwort hinzufügen am Beispiel von gmx.de

Nun holen Sie KeePass wieder in den Vordergrund und führen einen Rechtsklick auf den Eintrag aus. Aus dem Kontextmenü wählen Sie Auto-Type ausführen.

Auto-Type für KeePass ausführen

KeePass trägt automatisch die Login-Informationen ein und bestätigt die Eingabe mit ENTER, so dass der Login erfolgt.

Auf diese Weise kann man sich für alle Dienste, die man nutzt, unterschiedliche und sehr komplexe Passwörter leisten und diese auch in regelmäßigen Abständen ändern, ohne sie sich merken zu müssen… bis auf das Master-Passwort natürlich. Zudem hat man die Passwörter in einer zentralen Datenbank – sehr hilfreich, wenn man mit unterschiedlichen Browsern oder Programmen arbeitet, denn KeePass spielt auf diese Weise mit unterschiedlichen Programmen zusammen.

Viel Spaß beim Ausprobieren!

Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Zu einer Webseite gehört auch die regelmäßige Prüfung, ob diese entsprechend den eigenen Vorstellungen funktioniert und seitens der Besucher sowie den Suchmaschinen-Crawlern abgerufen werden kann.

404 Fehler - Webseite - Inhalt nicht gefundenBesonders wichtig ist dabei zum Beispiel das Prüfen von internen und externen Links und eben das Vermeiden von 404-Fehlerseiten. Denn sowohl für den Besucher wie auch für Suchmaschinen ist es nicht von Vorteil, wenn Inhalte aufgrund fehlerhafter Links nicht erreichbar sind – der Besucher erhält somit den gewünschten Mehrwert nicht und verlässt die Webseite mit dem Gedanken „die Webseite ist unbrauchbar und funktioniert nicht“ und Suchmaschinen können den brandaktuellen und wichtigen Inhalt nicht in die Suchergebnisse aufnehmen, da dieser nicht verfügbar ist und mit hoher Wahrscheinlichkeit einen 404-Fehler liefert. Ebenfalls sollte auch eine hohe Anzahl von 404-Fehlern vermieden werden – dazu ist es einfach wichtig, regelmäßig, z.B. einmal im Monat, die Verlinkungen durch Programme wie Xenu’s Link Sleuth und durch Inanspruchnahme der Google Webmaster Tools zu prüfen und eventuelle Fehler zu begradigen.

Häufig verstecken sich aber auch Fehler im Detail – wie bereits im vorigen Artikel zum Thema „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ angesprochen sollten Webseiten einer regelmäßigen Prüfung auf Syntax-Fehler unterzogen werden. Dies sollte durch einen sogenannten W3-Validator geschehen – neben der rein technischen Überprüfungen des HTML / CSS Quellcodes ist eine Überprüfung der verschiedenen Webbrowser einschließlich ihrer unterschiedlichen Versionen eine durchaus sinnvolle Maßnahme. Beispielsweise kann eine Webseite im Internet Explorer 6 anders aussehen als im Internet Explorer 9, denn es gibt Unterschiede zwischen den einzelnen Browseranbietern wie z.B. Mozilla Firefox, Microsoft Internet Explorer oder den Safari von Apple. Der Grund für die unterschiedlichen Darstellungen von Webseiten in verschiedenen Browsern liegt in der Interpretation von HTML/CSS Elementen. Beispielsweise kann es sein, dass ein Mozilla Firefox ein HTML-Element anders interpretiert als der Internet Explorer. Eine gute Übersicht zu den Unterschieden einzelner HTML-Elemente und CSS-Elemente sind auf der Webseite css4you.de zu finden. Des Weiteren kann die Darstellung einer Webseite in verschiedenen Browsern sehr einfach auf Browsershots.org überprüft werden.

Ein weiteres Kriterium, dass durchaus im Auge behalten werden sollte, ist die Ladezeit einer Webseite – es ist bereits länger bekannt, dass die Ladezeit ein Kriterium für das Ranking einer Webseite ist und auch Google hat den Pagespeed bereits in die Google Webmaster Tools aufgenommen. In den Google Webmaster Richtlinien sagt Google selbst zum Pagespeed, dass schnelle Webseiten die Zufriedenheit der Nutzer und die Gesamtqualität des Internets steigern. Lange Ladezeiten sorgen allgemein dafür, dass Besucher schnell abspringen und selbst in der heutigen Zeit gibt es noch die einen oder anderen Internetnutzer, die aufgrund von ländlichen Begebenheiten nicht in der Lage sind, mit DSL-Geschwindigkeit das Internet zu erleben. Auch hier sollte eine regelmäßige Überprüfung der Webseiten-Geschwindigkeit erfolgen. Dazu eignen sich nachfolgende Tools aus dem Hause vn Google.

Unsere Empfehlung ist das Tool von GTMetrix, da dieses eine sehr angenehme und v.a. verständliche und strukturierte Übersicht bietet. Des Weiteren lassen sich schnell Optimierungspotentiale, wie z.B. die Optimierung von Bildgrößen/Dateigrößen, erkennen.

Weitere Artikel zum Thema Google Webmaster Richtlinien

Richtlinien zum technischen Aufbau von Webinhalten: Webcrawler, Aktualität und Geschwindigkeit (Teil 2)

Auch bei den technischen Richtlinien gibt es einige Vorgaben, die in den Google Webmaster Richtlinien Erwähnung finden und nebst den Webmasterrichtlinien zur Gestaltung von Webinhalten als Unterstützung für die Optimierung der eigenen Webseite dienen.

Überprüfung der Webseite durch einen textbasierten Browser

Lynx Viewer vom Comspace Blog
Lynx-Abbild von Comspace Blog

In erster Linie darf man sich einen Crawler, der Webseiten erfasst und ausliest, wie einen einfachen Textbrowser vorstellen. Gängige Browser wie der Mozilla Firefox, Google Chrome, Apple Safari oder den bekannten Microsoft Internet Explorer sind in der heutigen Zeit in der Lage, Webseiten in voller Pracht anzuzeigen, das heißt vorhandene Grafiken oder auch Flash-Videos werden nach dem Wunsch der Seitenbetreiber dargestellt. Textbrowser, wie beispielsweise Lynx, stellen Webseiten – wie der Name es schon sagt – in reiner Textform dar. Bilder und andere Elemente wie zum Beispiel Videos werden in einem Textbrowser nicht angezeigt.

Des Weiteren sind in einem Textbrowser diverse Funktionen wie JavaScripte, Cookies und Session-IDs nicht nutzbar bzw. können für Probleme sorgen. Ähnlich agieren auch Webcrawler – auch wenn diese mittlerweile weiterentwickelt wurden und relativ leistungsfähig sind, kann ein Webcrawler mit den oben genannten Elementen auf einer Webseite Probleme haben.

Pauschal lassen sich natürlich nicht alle Elemente auf einer Webseite entfernen – ein Onlineshop ohne entsprechende Bilder oder Produktvideos wäre im Jahre 2012 undenkbar. Dem entsprechend ist hier die technische Aufgabe des Webseitenbetreibers dafür zu sorgen, dass die Crawler der Suchmaschinen es möglichst einfach haben, die Inhalte der Webseite zu crawlen.

Zum einen hat der Webseitenbetreiber die Möglichkeit, seine Internetpublikation mithilfe des eben erwähnen Lynx Textbrowsers zu prüfen – zum anderen bieten aber auch die Google Webmaster Tools die Möglichkeit, eine Webseite durch einen Crawler abzurufen und sich das Ergebnis ausgeben zu lassen.

Exkurs: Cloaking und ungeeignete Techniken

Die obigen Gründe und die anfänglichen Schwierigkeiten hatten zur Folge, dass in der Anfangszeit des kommerziellen World Wide Webs diverse Techniken entwickelt wurden, die dafür sorgten, dass Suchmaschinen wie Google beim Besuch einer Webseite komplett andere Inhalte angezeigt wurden als dem Endverbraucher. Die Technik war dabei relativ einfach: Wenn eine Webseite besucht wurde, wurde zu Beginn abgefragt, ob es sich um einen realen Besucher handelt oder ob hier ein Suchmaschinencrawler unterwegs ist – sobald ein Suchmaschinencrawler erkannt wurde, zeigte man diesem einfach die Webseite in einer anderen Form.

Mittlerweile sind solche Techniken seitens der Suchmaschinen nicht sonderlich gern gesehen und können im Ranking zu Abwertungen führen. Diese Technik machten sich natürlich auch andere Personen zu Nutze und verschleierten somit Inhalte, die nicht zwangsläufig in Suchergebnissen auftauchen sollten bzw. die seitens der Suchmaschine erst gar nicht erkannt werden sollten.

Suchmaschinen die Aktualität der Seite präsentieren

Im ersten Teil „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts“ wurde bereits angesprochen, dass die Qualität des Inhalts eine wichtige Rolle für ein positives Ranking innerhalb der Suchmaschinen spielt. Nebst der Qualität des Inhalts ist auch die Aktualität, sprich wie oft neue Inhalte publiziert oder ältere Inhalte aktualisiert werden, relevant und sorgt natürlich auch dafür, dass Crawler eine Webseite regelmäßiger besuchen könnten. Wenn ein Crawler bemerkt, dass eine Webseite regelmäßig bzw. täglich neue Inhalte veröffentlicht, wird auch der Crawling-Rhythmus automatisch angepasst.

Um dem Crawler relativ schnell mitzuteilen, ob neue Inhalte verfügbar sind, empfehlen die Google Webmaster Richtlinien die Verwendung des http-Headers “If-Modifies-Since“. Anhand dieser Funktion teilt der Webserver dem Crawler mit, wann neue Inhalte auf der Internetseite veröffentlicht wurden – natürlich kann dies auch anhand der Webseite an sich geschehen, wenn beispielsweise eine Zeitangabe für die Erstellung des Artikels existiert. Im Gegensatz zu der Zeitangabe auf der Webseite besitzt die Lösung des http-Headers den Vorteil, dass Bandbreite eingespart werden kann.

Inhalte vor dem Crawler schützen

robots-txt - Alle Suchmaschinen dürfen Inhalte durchsuchen und indexieren
Suchmaschinen ist das Durchsuchen/Indexieren der Webinhalte erlaubt

Selbst in der heutigen Zeit sind für viele Webseiten-Betreiber Begriffe wie Robots.txt und Meta-Robot ein Fremdwort. Doch dabei ist es nicht verkehrt, dem Suchmaschinen-Crawler mithilfe einer Robots.txt mitzuteilen, welche Verzeichnisse durchsucht werden sollen und welche eben nicht durchsucht werden sollen – schließlich muss nicht jeder Inhalt oder gar jedes Bild im Index der Suchmaschinen dargestellt werden.

Besonders wichtig ist dabei, dass der Webseitenbetreiber selbst die vorgenommenen Anweisungen in der eigenen Robots.txt kontrolliert, da es auch passieren kann, dass Suchmaschinen-Crawler komplett ausgeschlossen werden. Als Hilfsmittel für die Kontrolle eigenen sich die Google Webmaster Tools, womit zum einen die Robots.txt geprüft werden kann und zum anderen die Seite durch einen Crawler abgerufen werden kann. An den Resultaten lässt sich erkennen, wie der Google-Bot die Webseite sieht und natürlich welche Inhalte der Bot abgreifen kann und welche nicht.

Das Tool aus den Google Webmaster-Tools nennt sich übrigens „robots.txt“-Analyse Tool.

Informationen zur Erstellung einer Robots.txt finden sich auf nachfolgenden Seiten:

Neben der Erstellung einer Robots.txt gibt es auch die Möglichkeit für einzelne HTML-Seiten mittels dem Meta-Tag „<meta name=“robots“ content=“index,follow“ />“ bestimmte Einstellungen vorzunehmen, die einem Suchmaschinen-Crawler mitteilen, ob die Inhalte indexiert werden dürfen („index“) oder nicht indexiert werden dürfen („noindex“). Zudem kann angegeben werden, ob den Links auf der einzelnen Seite gefolgt („follow“) oder nicht gefolgt („nofollow“) werden sollen.

Die Webseite auf Herz und Nieren testen (Teil 2.1)

Aufgrund des Themenumfangs behandle ich diesen Punkt in einem separaten Artikel. Lesen Sie die Fortsetzung in „Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Weitere Artikel zum Thema Google Webmaster Richtlinien

Wie funktioniert eigentlich Google?

Google Deutschland Logo

Google Deutschland LogoOk, die Frage füllt natürlich Bücher, Seminare und bald vermutlich auch ganze Studiengänge. Kollegin Lorge fragte sich vorgestern ja ganz explizit, wie lange es wohl dauert, bis der Googlebot eine Website gecrawlt hat.

Auf der Comspace-Homepage hatte Anke einige Descriptions verändert und wollte nun gerne wissen, wann diese Änderungen in der Google Suche auftauchen.

Die Frage interessierte mich selber, da SEO nicht gerade mein Fachgebiet ist. Was macht man in so einem Fall als erstes? Klar. Googlen.

Interessant dabei finde ich mal wieder, wie hochaktuell manche Suchergebnisse zufälligerweise sind: Dieses Video wurde gerade heute veröffentlicht. Googlemitarbeiter Matt Cutts erklärt darin, wie genau die Suchmaschine funktioniert. Letztendlich bricht er die Funktionsweise auf einige einfache Schritte herunter:

  1. Crawlen
  2. Indexieren
  3. Suchbegriffe abgleichen
  4. Suchergebnis ausgeben

Beeindruckend: Die Zeitspanne, die Google braucht, um Suchergebnisse mit dem Index abzugleichen und die besten Ergebnisse auszuliefern, ist mal grad eine halbe Sekunde!

Das ist allerdings immer noch keine Antwort auf unsere Frage, wie lange es dauert, bis die Description der Homepage aktualisiert wurde.

Die Hilfe-Sektion der Google Webmaster-Tools bringt etwas mehr Aufschluss über die Funktionsweise der Crawler. Also der Computer bei Google, die täglich Milliarden von Webseiten nach neuen Inhalten durchsuchen. Aber nichts zum Description-Tag einer Seite. Auch nicht auf der ausführlichen Hilfe-Seite der Meta-Tags Title und Description.

Ein halbwegs aktuelles Beispiel konnte ich bei tagseoblog finden. Martin hat dort einmal getestet, wie lange es dauert, bis Google ein neues Bild indexiert hat. Keine 20 Minuten hat es im Versuch gedauert. Beachtlich! Insbesondere, wenn man sich überlegt, das Bing für das gleiche Bild rund 3 Wochen benötigte.

Ich vermute in diesem Falle einfach, dass die Description bei den Crawlern nicht die höchste Priorität haben. Als nächstes werden wir versuchen, einen erneuten Crawl bei Google zu beantragen.

Eine sehr ausführliche Erklärung des Spider/Crawling-Vorgangs gibt es übrigens auch hier beim CTO von Motor-Talk Bert Schulzki zu lesen.

Video von Matt Cutts via Netzpiloten entdeckt

Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)

Google Webmaster Tools und Google Webmaster Richtlinien

Dies ist der erste Artikel zu einer dreiteiligen Artikelserie zu den Google Webmaster Richtlinien – in Teil 2 wird die Thematik „Webmaster Richtlinien zum technischen Aufbau von Webinhalten“ und in Teil 3 „Webmaster Richtlinien zur Qualität“ angesprochen. Begonnen wird nachfolgend mit dem Thema „Webmaster Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts„. „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ weiterlesen

E-Mail-Ärger: Kettenbriefe, Vermisstenmeldungen und Knochenmarkspenden

Sicher haben Sie auch schon einmal eine solche Mail in der Mailbox gehabt:

Ganz DRINGEND!!!! sollen Sie diese Mail an alle Freunde und Bekannte und überhaupt Ihr ganzes Adressbuch weiter leiten. Dabei sind die Themen dieser Mails meist in einem dieser beiden Bereiche zu finden: Empörung stiften oder spontane Hilfe leisten. Also Gründe, die uns über unser Gewissen dazu verleiten, schnell zu reagieren. So schnell, dass wir gar nicht erst daran denken zu hinterfragen, was sich eigentlich genau hinter so einer Mail verbirgt.

Die Geschichten sind meistens ebenso dramatisch wie unterschiedlich:

    • Ein verschwundenes Kind
    • Eine dringend benötigte Knochenmarkspende
    • Viren, die dabei sind, das Internet aufzufressen
    • Firmen, die Spenden entrichten, wenn genug Mails zusammen kommen
    • Lotterie oder andere Gewinne
    • Erbschaften von dubiosen Adeligen, die in Scheckbetrug münden

Warum werden solche Mails verschickt?

Meistens handelt es sich um sogenannte Hoaxe. Das englische Wort Hoax, das vom altenglischen Hocus abstammt, bedeutet soviel wie Scherz oder Veralberung. Sie werden von Menschen initial verschickt, die Spaß daran haben, andere zu verwirren und zu verunsichern.
Darüber hinaus gibt es dann noch die Art von Hoax-Mails, die einen betrügerischen Hintergrund haben und die Empfänger in der Hoffnung auf das schnelle Geld ermutigen, Schecks zu versenden oder internationale Überweisungen zu tätigen.
Und natürlich den guten alten Kettenbrief, der dem Empfänger unglaubliches Glück bringt, wenn er ihn weiter leitet und natürlich ganz großes Unglück verheißt, wenn nicht.

Neben den kriminellen Hintergründen ist bei diesen E-Mails vor allem bedenklich, wie viel Arbeitszeit, Interenttraffic und damit auch Energie verbraucht wird.
Genaue Zahlen zu Hoax-Mails habe ich zwar nicht finden können, aber da Hoaxe auch zum Spam gehören, hier einige Zahlen zu den Auswirkungen von Spam aus dem entsprechenden Wikipedia-Artikel:

Durch Spam entsteht allein in den Vereinigten Staaten pro Jahr ein Schaden von 22 Milliarden US-Dollar. Nach einer 2009 erstellten Studie verbrauchen 62 Billionen Spam-Mails jährlich zirka 33 Milliarden Kilowattstunden Energie sowie 100 Milliarden Stunden Arbeitszeit zum Sichten und Löschen der Spam-Mails.Demnach macht Spam mittlerweile je nach Schätzung 89 bis 97 % des gesamten E-Mail-Volumens aus.

Wie lassen sich Hoaxe erkennen?

Google ist meistens die einzig nötige Prüfung. Googlen Sie eindeutige Begriffe aus der Hoax-Meldung. Die ersten Ergegbnisse bringen meistens schon Aufschluss darüber, ob der Inhalt einer Mail nicht weiter beachtet und auf keinen Fall weiter geschickt werden sollte. Vermisstenmeldungen oder Bitten um Knochenmarkspenden führen bspw. oft auf Zeitungsartikel, die erklären, dass der entsprechenden Person schon lange geholfen wurde.

Zwei weitere exzellente Anlaufstellen sind der Hoax-Info-Dienst der Technischen Uni Berlin und die englischsprachige Seite Snopes.com,  die neben Hoaxes auch urbane Legenden und Verschwörungstheorien aufklärt.

Der gleichen Prüfung sollten Sie übrigens auch Meldungen aus Social Networks unterziehen. Auch dort mehren sich vermeintliche Gewinne, Hilfsmeldungen usw., die sich allerdings auch noch automatisch in Ihrem Kontaktnetzwerk verbreiten.

Danke an Selbstmanagement und XING Experte Oliver Gassner für die Anregung, das Thema mal wieder aufzugreifen