Richtlinien zum technischen Aufbau von Webinhalten: Webcrawler, Aktualität und Geschwindigkeit (Teil 2)

Auch bei den technischen Richtlinien gibt es einige Vorgaben, die in den Google Webmaster Richtlinien Erwähnung finden und nebst den Webmasterrichtlinien zur Gestaltung von Webinhalten als Unterstützung für die Optimierung der eigenen Webseite dienen.

Überprüfung der Webseite durch einen textbasierten Browser

Lynx Viewer vom Comspace Blog
Lynx-Abbild von Comspace Blog

In erster Linie darf man sich einen Crawler, der Webseiten erfasst und ausliest, wie einen einfachen Textbrowser vorstellen. Gängige Browser wie der Mozilla Firefox, Google Chrome, Apple Safari oder den bekannten Microsoft Internet Explorer sind in der heutigen Zeit in der Lage, Webseiten in voller Pracht anzuzeigen, das heißt vorhandene Grafiken oder auch Flash-Videos werden nach dem Wunsch der Seitenbetreiber dargestellt. Textbrowser, wie beispielsweise Lynx, stellen Webseiten – wie der Name es schon sagt – in reiner Textform dar. Bilder und andere Elemente wie zum Beispiel Videos werden in einem Textbrowser nicht angezeigt.

Des Weiteren sind in einem Textbrowser diverse Funktionen wie JavaScripte, Cookies und Session-IDs nicht nutzbar bzw. können für Probleme sorgen. Ähnlich agieren auch Webcrawler – auch wenn diese mittlerweile weiterentwickelt wurden und relativ leistungsfähig sind, kann ein Webcrawler mit den oben genannten Elementen auf einer Webseite Probleme haben.

Pauschal lassen sich natürlich nicht alle Elemente auf einer Webseite entfernen – ein Onlineshop ohne entsprechende Bilder oder Produktvideos wäre im Jahre 2012 undenkbar. Dem entsprechend ist hier die technische Aufgabe des Webseitenbetreibers dafür zu sorgen, dass die Crawler der Suchmaschinen es möglichst einfach haben, die Inhalte der Webseite zu crawlen.

Zum einen hat der Webseitenbetreiber die Möglichkeit, seine Internetpublikation mithilfe des eben erwähnen Lynx Textbrowsers zu prüfen – zum anderen bieten aber auch die Google Webmaster Tools die Möglichkeit, eine Webseite durch einen Crawler abzurufen und sich das Ergebnis ausgeben zu lassen.

Exkurs: Cloaking und ungeeignete Techniken

Die obigen Gründe und die anfänglichen Schwierigkeiten hatten zur Folge, dass in der Anfangszeit des kommerziellen World Wide Webs diverse Techniken entwickelt wurden, die dafür sorgten, dass Suchmaschinen wie Google beim Besuch einer Webseite komplett andere Inhalte angezeigt wurden als dem Endverbraucher. Die Technik war dabei relativ einfach: Wenn eine Webseite besucht wurde, wurde zu Beginn abgefragt, ob es sich um einen realen Besucher handelt oder ob hier ein Suchmaschinencrawler unterwegs ist – sobald ein Suchmaschinencrawler erkannt wurde, zeigte man diesem einfach die Webseite in einer anderen Form.

Mittlerweile sind solche Techniken seitens der Suchmaschinen nicht sonderlich gern gesehen und können im Ranking zu Abwertungen führen. Diese Technik machten sich natürlich auch andere Personen zu Nutze und verschleierten somit Inhalte, die nicht zwangsläufig in Suchergebnissen auftauchen sollten bzw. die seitens der Suchmaschine erst gar nicht erkannt werden sollten.

Suchmaschinen die Aktualität der Seite präsentieren

Im ersten Teil „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts“ wurde bereits angesprochen, dass die Qualität des Inhalts eine wichtige Rolle für ein positives Ranking innerhalb der Suchmaschinen spielt. Nebst der Qualität des Inhalts ist auch die Aktualität, sprich wie oft neue Inhalte publiziert oder ältere Inhalte aktualisiert werden, relevant und sorgt natürlich auch dafür, dass Crawler eine Webseite regelmäßiger besuchen könnten. Wenn ein Crawler bemerkt, dass eine Webseite regelmäßig bzw. täglich neue Inhalte veröffentlicht, wird auch der Crawling-Rhythmus automatisch angepasst.

Um dem Crawler relativ schnell mitzuteilen, ob neue Inhalte verfügbar sind, empfehlen die Google Webmaster Richtlinien die Verwendung des http-Headers “If-Modifies-Since“. Anhand dieser Funktion teilt der Webserver dem Crawler mit, wann neue Inhalte auf der Internetseite veröffentlicht wurden – natürlich kann dies auch anhand der Webseite an sich geschehen, wenn beispielsweise eine Zeitangabe für die Erstellung des Artikels existiert. Im Gegensatz zu der Zeitangabe auf der Webseite besitzt die Lösung des http-Headers den Vorteil, dass Bandbreite eingespart werden kann.

Inhalte vor dem Crawler schützen

robots-txt - Alle Suchmaschinen dürfen Inhalte durchsuchen und indexieren
Suchmaschinen ist das Durchsuchen/Indexieren der Webinhalte erlaubt

Selbst in der heutigen Zeit sind für viele Webseiten-Betreiber Begriffe wie Robots.txt und Meta-Robot ein Fremdwort. Doch dabei ist es nicht verkehrt, dem Suchmaschinen-Crawler mithilfe einer Robots.txt mitzuteilen, welche Verzeichnisse durchsucht werden sollen und welche eben nicht durchsucht werden sollen – schließlich muss nicht jeder Inhalt oder gar jedes Bild im Index der Suchmaschinen dargestellt werden.

Besonders wichtig ist dabei, dass der Webseitenbetreiber selbst die vorgenommenen Anweisungen in der eigenen Robots.txt kontrolliert, da es auch passieren kann, dass Suchmaschinen-Crawler komplett ausgeschlossen werden. Als Hilfsmittel für die Kontrolle eigenen sich die Google Webmaster Tools, womit zum einen die Robots.txt geprüft werden kann und zum anderen die Seite durch einen Crawler abgerufen werden kann. An den Resultaten lässt sich erkennen, wie der Google-Bot die Webseite sieht und natürlich welche Inhalte der Bot abgreifen kann und welche nicht.

Das Tool aus den Google Webmaster-Tools nennt sich übrigens „robots.txt“-Analyse Tool.

Informationen zur Erstellung einer Robots.txt finden sich auf nachfolgenden Seiten:

Neben der Erstellung einer Robots.txt gibt es auch die Möglichkeit für einzelne HTML-Seiten mittels dem Meta-Tag „<meta name=“robots“ content=“index,follow“ />“ bestimmte Einstellungen vorzunehmen, die einem Suchmaschinen-Crawler mitteilen, ob die Inhalte indexiert werden dürfen („index“) oder nicht indexiert werden dürfen („noindex“). Zudem kann angegeben werden, ob den Links auf der einzelnen Seite gefolgt („follow“) oder nicht gefolgt („nofollow“) werden sollen.

Die Webseite auf Herz und Nieren testen (Teil 2.1)

Aufgrund des Themenumfangs behandle ich diesen Punkt in einem separaten Artikel. Lesen Sie die Fortsetzung in „Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Weitere Artikel zum Thema Google Webmaster Richtlinien

Wie funktioniert eigentlich Google?

Google Deutschland Logo

Google Deutschland LogoOk, die Frage füllt natürlich Bücher, Seminare und bald vermutlich auch ganze Studiengänge. Kollegin Lorge fragte sich vorgestern ja ganz explizit, wie lange es wohl dauert, bis der Googlebot eine Website gecrawlt hat.

Auf der Comspace-Homepage hatte Anke einige Descriptions verändert und wollte nun gerne wissen, wann diese Änderungen in der Google Suche auftauchen.

Die Frage interessierte mich selber, da SEO nicht gerade mein Fachgebiet ist. Was macht man in so einem Fall als erstes? Klar. Googlen.

Interessant dabei finde ich mal wieder, wie hochaktuell manche Suchergebnisse zufälligerweise sind: Dieses Video wurde gerade heute veröffentlicht. Googlemitarbeiter Matt Cutts erklärt darin, wie genau die Suchmaschine funktioniert. Letztendlich bricht er die Funktionsweise auf einige einfache Schritte herunter:

  1. Crawlen
  2. Indexieren
  3. Suchbegriffe abgleichen
  4. Suchergebnis ausgeben

Beeindruckend: Die Zeitspanne, die Google braucht, um Suchergebnisse mit dem Index abzugleichen und die besten Ergebnisse auszuliefern, ist mal grad eine halbe Sekunde!

Das ist allerdings immer noch keine Antwort auf unsere Frage, wie lange es dauert, bis die Description der Homepage aktualisiert wurde.

Die Hilfe-Sektion der Google Webmaster-Tools bringt etwas mehr Aufschluss über die Funktionsweise der Crawler. Also der Computer bei Google, die täglich Milliarden von Webseiten nach neuen Inhalten durchsuchen. Aber nichts zum Description-Tag einer Seite. Auch nicht auf der ausführlichen Hilfe-Seite der Meta-Tags Title und Description.

Ein halbwegs aktuelles Beispiel konnte ich bei tagseoblog finden. Martin hat dort einmal getestet, wie lange es dauert, bis Google ein neues Bild indexiert hat. Keine 20 Minuten hat es im Versuch gedauert. Beachtlich! Insbesondere, wenn man sich überlegt, das Bing für das gleiche Bild rund 3 Wochen benötigte.

Ich vermute in diesem Falle einfach, dass die Description bei den Crawlern nicht die höchste Priorität haben. Als nächstes werden wir versuchen, einen erneuten Crawl bei Google zu beantragen.

Eine sehr ausführliche Erklärung des Spider/Crawling-Vorgangs gibt es übrigens auch hier beim CTO von Motor-Talk Bert Schulzki zu lesen.

Video von Matt Cutts via Netzpiloten entdeckt

Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)

Google Webmaster Tools und Google Webmaster Richtlinien

Dies ist der erste Artikel zu einer dreiteiligen Artikelserie zu den Google Webmaster Richtlinien – in Teil 2 wird die Thematik „Webmaster Richtlinien zum technischen Aufbau von Webinhalten“ und in Teil 3 „Webmaster Richtlinien zur Qualität“ angesprochen. Begonnen wird nachfolgend mit dem Thema „Webmaster Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts„. „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ weiterlesen

E-Mail-Ärger: Kettenbriefe, Vermisstenmeldungen und Knochenmarkspenden

Sicher haben Sie auch schon einmal eine solche Mail in der Mailbox gehabt:

Ganz DRINGEND!!!! sollen Sie diese Mail an alle Freunde und Bekannte und überhaupt Ihr ganzes Adressbuch weiter leiten. Dabei sind die Themen dieser Mails meist in einem dieser beiden Bereiche zu finden: Empörung stiften oder spontane Hilfe leisten. Also Gründe, die uns über unser Gewissen dazu verleiten, schnell zu reagieren. So schnell, dass wir gar nicht erst daran denken zu hinterfragen, was sich eigentlich genau hinter so einer Mail verbirgt.

Die Geschichten sind meistens ebenso dramatisch wie unterschiedlich:

    • Ein verschwundenes Kind
    • Eine dringend benötigte Knochenmarkspende
    • Viren, die dabei sind, das Internet aufzufressen
    • Firmen, die Spenden entrichten, wenn genug Mails zusammen kommen
    • Lotterie oder andere Gewinne
    • Erbschaften von dubiosen Adeligen, die in Scheckbetrug münden

Warum werden solche Mails verschickt?

Meistens handelt es sich um sogenannte Hoaxe. Das englische Wort Hoax, das vom altenglischen Hocus abstammt, bedeutet soviel wie Scherz oder Veralberung. Sie werden von Menschen initial verschickt, die Spaß daran haben, andere zu verwirren und zu verunsichern.
Darüber hinaus gibt es dann noch die Art von Hoax-Mails, die einen betrügerischen Hintergrund haben und die Empfänger in der Hoffnung auf das schnelle Geld ermutigen, Schecks zu versenden oder internationale Überweisungen zu tätigen.
Und natürlich den guten alten Kettenbrief, der dem Empfänger unglaubliches Glück bringt, wenn er ihn weiter leitet und natürlich ganz großes Unglück verheißt, wenn nicht.

Neben den kriminellen Hintergründen ist bei diesen E-Mails vor allem bedenklich, wie viel Arbeitszeit, Interenttraffic und damit auch Energie verbraucht wird.
Genaue Zahlen zu Hoax-Mails habe ich zwar nicht finden können, aber da Hoaxe auch zum Spam gehören, hier einige Zahlen zu den Auswirkungen von Spam aus dem entsprechenden Wikipedia-Artikel:

Durch Spam entsteht allein in den Vereinigten Staaten pro Jahr ein Schaden von 22 Milliarden US-Dollar. Nach einer 2009 erstellten Studie verbrauchen 62 Billionen Spam-Mails jährlich zirka 33 Milliarden Kilowattstunden Energie sowie 100 Milliarden Stunden Arbeitszeit zum Sichten und Löschen der Spam-Mails.Demnach macht Spam mittlerweile je nach Schätzung 89 bis 97 % des gesamten E-Mail-Volumens aus.

Wie lassen sich Hoaxe erkennen?

Google ist meistens die einzig nötige Prüfung. Googlen Sie eindeutige Begriffe aus der Hoax-Meldung. Die ersten Ergegbnisse bringen meistens schon Aufschluss darüber, ob der Inhalt einer Mail nicht weiter beachtet und auf keinen Fall weiter geschickt werden sollte. Vermisstenmeldungen oder Bitten um Knochenmarkspenden führen bspw. oft auf Zeitungsartikel, die erklären, dass der entsprechenden Person schon lange geholfen wurde.

Zwei weitere exzellente Anlaufstellen sind der Hoax-Info-Dienst der Technischen Uni Berlin und die englischsprachige Seite Snopes.com,  die neben Hoaxes auch urbane Legenden und Verschwörungstheorien aufklärt.

Der gleichen Prüfung sollten Sie übrigens auch Meldungen aus Social Networks unterziehen. Auch dort mehren sich vermeintliche Gewinne, Hilfsmeldungen usw., die sich allerdings auch noch automatisch in Ihrem Kontaktnetzwerk verbreiten.

Danke an Selbstmanagement und XING Experte Oliver Gassner für die Anregung, das Thema mal wieder aufzugreifen

Wie erkenne ich, wann der Googlebot eine Website gecrawlt hat?

Im Zuge der Aktualisierung der Descriptions auf einer Website stellte sich mir die Frage, warum die neuen Descriptions auch 14 Tage nach Veröffentlichung noch nicht in den Google-Suchergebnissen erschienen sind. Auf Nachfrage  bei unserem SEO-Experten Ferit zeigte sich, dass der Googlebot zuletzt vor ca. drei Wochen auf der Website vorbeigeschaut hatte und die neuen Descriptions daher noch nicht berücksichtigt wurden.

Wie aber stellt man fest, wann der Googlebot die Website zuletzt gecrawlt hat? Wie vieles ist auch das recht einfach, wenn man es nur weiß: man sucht die betreffende Website über ein passendes Keyword in Google, z.B. „comspace cms“ für die Seite Content Management Systeme bei comspace. Dann fährt man mit der Maus über den Doppelpfeil rechts vom Suchergebnis, so dass die Seitenvorschau der Ergebnisseite angezeigt wird.

 Im Kopf der Seitenvorschau erkennt man die Worte „Im Cache“ (im Sreenshot rot markiert). Klickt man darauf, erscheint nun die Ergebnisseite mit einem Textkasten darüber, in dem man nachlesen kann, an welchem Tag und um welche Uhrzeit Google sich diese Seite zuletzt angeschaut hat, in diesem Fall am 22. April um 13:32 Uhr.

Problemlösung: Firefox Schrift und WebFonts korrekt darstellen

Gut, wenn man Kollegen hat, die sich auskennen. Seit Tagen hatte ich nach einer Neuinstallation des Firefox Probleme mit der Darstellung von Schriftarten. Die Fonts sahen ausgefranst und alles andere als schön aus.

Aufgefallen war es mir zuerst hier auf dem Blog, aber auch auf anderen Webseiten wurden die Schriftarten fehlerhaft und unscharf dargestellt.

Auf gut Glück fragte ich gerade unseren IT-Service Mann Ufuk, ob er das Problem kennt.

„Klar, du musst nur in den Firefox Einstellungen unter Erweitert im Reiter „Allgemein“ das Häkchen bei „Hardware-Beschleunigung verwenden, wenn verfügbar“ entfernen und den Fuchs neu starten, dann sollten die Schriften wieder OK aussehen.“

Firefox Fonts - Fehlerhafte Darstellung

Was soll ich sagen:
Hat geklappt und ich musste den Browser nicht einmal neu starten 🙂 Einfach mal die Leute fragen, die Bescheid wissen. Da spart man sich stundenlanges Googlen.

HTTP-Cookies: Warum erkennt mich diese Internetseite wieder?

Als unbedarfter Netzreisender trifft man auf seinen Erkundungen immer wieder auf Phänomene, die meist als gegeben akzeptiert werden. Eines dieser Dinge möchte ich heute ansatzweise erklären: Den HTTP-Cookie.

Wie arbeitet ein Cookie?

Schon vor der Verbreitung des Internet bezeichnete man in der Informatik kleine Datenmengen für den Informationsaustausch zwischen Programmen oder zur kurzzeitigen Speicherung als Cookie – zu Deutsch schlicht „Keks“. Dies ist genau das, was auch HTTP- oder Browsercookies leisten, denn sie werden von Webseiten genutzt, um zeitlich begrenzt im Browser des Besuchers kleine Informationshäppchen abzuspeichern. Bei erneuten Besuchen auf dem Webserver schickt der Browser jedes gültige Häppchen, das er für diese Internetadresse vorliegen hat, wieder zurück zum Webserver. Dort wird es ausgelesen und – oft zur Identifikation des Besuchers – weiterverarbeitet.

Wie kann ich mich von Cookies trennen?

Kekse sind nur für eine begrenzte Zeit genießbar, das ist in der Online- wie Offlinewelt ähnlich. Welches Haltbarkeitsdatum auf die Verpackung gedruckt wird, entscheidet im Internet zwar ausschließlich der Webseitenbetreiber, der Konsument kann die Cookies aber auch früher entsorgen, wenn er das möchte.

Wie diese Entsorgung vonstatten geht, unterscheidet sich wie bei den meisten Themen von Programm zu Programm, weshalb ich das Vorgehen in den gängigsten Browsern einmal hier aufführe:

Firefox ab Version 7 (Windows/Linux)

  1. Drücken Sie die Tastenkombination [Strg] + [Umschalt] + [Entf]
  2. Für den Zeitraum wählen Sie „Alles“ aus
  3. Falls die erweiterten Optionen nicht angezeigt werden, aktivieren Sie diese mit einem Klick auf das Knöpfchen neben „Details“
  4. Im unteren Bereich aktivieren Sie das Kontrollkästchen „Cookies“
  5. Ihre Auswahl bestätigen Sie mit einem Klick auf „Jetzt löschen“

Chrome/Chromium

  1. Klicken Sie im Menü mit dem Schraubenschlüssel auf „Tools“ -> „Internetdaten löschen“.
  2. Wählen Sie das Kontrollkästchen für Cookies aus
  3. Bestätigen Sie mit einem Klick auf „Internetdaten löschen“

Safari MacOS / Windows

  1. Klicken Sie im Menü „Safari“ (für Windows: „Bearbeiten“) auf „Einstellungen“
  2. Im Bereich „Sicherheit“ klicken Sie auf „Cookies anzeigen“
  3. Mit einem Klick auf „Alle entfernen“ werden Ihre Cookies gelöscht

Internet Explorer 9 & Internet Explorer 8

  1. Drücken Sie die Tastenkombination [Strg] + [Umschalt] + [Entf]
  2. Haken Sie das Kontrollkästchen „Cookies“ an
  3. Ein Klick auf „Löschen“ bestätigt Ihre Auswahl

Internet Explorer 7

  1. Blenden Sie, falls nötig, das Anwendungsmenü mit Drücken der Taste [Alt] ein.
  2. Unter „Extras“ klicken Sie im Menü auf „Cookies Löschen“
  3. Mit einem Klick auf „Ja“ bestätigen Sie das Vorhaben.

Opera

  1. Im Menü „Einstellungen“ klicken Sie auf „Internetspuren löschen“. Alternativ drücken Sie nacheinander die Tasten [Alt], [i], [i].
  2. Haken Sie die beiden Kontrollkästchen, für (Sitzungs-)Cookies an.
  3. Bestätigen Sie Ihre Auswahl mit einem Klick auf „Löschen“.

Wird uns der ständige Informations-Fluss von der übervollen Mailbox befreien?

Kennen Sie das: Sie haben sich ein neues Auto gekauft und plötzlich sehen Sie überall das Modell herumfahren, was Ihnen früher nie aufgefallen ist?

So geht es mir aktuell mit Activity-Streams.

Wir probieren zur internen Kommunikation aktuell yammer aus. Ich konnte bereits 2009 schon einige Erfahrungen mit dem geschlossenen System machen, das Sie sich wie ein Unternehmens-Twitter bzw. Unternehmens-Facebook vorstellen können. Zu dem Dienst den wir nutzen erhalten nur Personen Zugang, die über eine comspace-Mail-Adresse verfügen. Damit ist gewährleistet, dass sich niemand unbefugten Zugriff verschaffen kann.

Doch wozu braucht es noch ein weiteres Tool?

E-Mails, Chat, Instant Messenger, ein internes Wiki und ein Dokumenten-Management System. Reicht das nicht? Ich kann durchaus verstehen, wenn Kollegen stöhnen, wenn sie sich noch an einen weiteren Kommunikationskanal gewöhnen sollen.

Allerdings denke ich auch, dass sich hier eine grundsätzliche Bereitschaft zum Experimentieren und „auf etwas Neues einlassen“ etablieren sollte. Denn die Werkzeuge werden einfach immer besser und ausgefeilter.

Yammer zum Beispiel ist momentan in einer Phase, wo es immer mehr Funktionen bekommt. Der Dienst sah 2009 noch eher wie ein Twitter-Clone aus, der eben nur einer geschlossenen Gruppe von Mitarbeitern eines Unternehmens zugänglich war. Jetzt, knapp 2 Jahre später, wirkt es schon deutlich mehr wie ein Facebook. Der Funktionsumfang ist stark angestiegen.

Das empfinden Puristen als störend. Diejenigen, die bereits im persönlichen Bereich mit Netzwerken wie Facecbook, XING oder LinkedIn arbeiten, begrüßen die Funktionsvielfalt und dass sie Funktionen wieder finden, die sie in anderen Netzwerken schätzen gelernt haben.

Ich denke, hier wird in den nächsten Jahren noch eine ordentliche Konsolidierung statt finden. Weitere Dienste werden sich entwickeln. Einige werden noch mehr Funktionen ausbilden, andere werden sich sehr stark auf essentielle Funktionen fokussieren.

Was aber jetzt schon deutlich wird:

Wichtig ist, sich bereits frühzeitig über die Zielsetzung der Verwendung klar zu werden und entsprechend etablierte Kanäle und Werkzeuge mit den neu hinzugewonnen Möglichkeiten zu kombinieren.

Bleiben wir beim Beispiel yammer:

Die Vorteile sind eine schnelle, zentrale Kommunikation zu Themen, die man schnell in die Kollegen-Runde werfen möchte. Mit Anhängen versehen und bsw. ergänzt um die Funktion des „Likens“ um schnell eine Bestätigung oder Zustimmung abzugeben. Deutlich übersichtlicher und praktischer als per E-Mail.

So praktisch E-Mails auch sein mögen – es sind eben doch nur elektronische Postkarten / Briefe. Mit allen Vor- und Nachteilen. Das fängt bei unterschiedlichen Formatierungen an, geht über verschiedene Schriftarten, der Empfänger und Absender bis hin zu vergessenen „Antworten an Alle“-Klicks durch die unbeabsichtigt Personen aus einer Diskussion ausgeschlossen werden.

Alte E-Mail Hasen werden nun sicher sagen: „Aber es gibt doch Mailing-Listen! Und Filter-Regeln!“ Ja, die gibt es. Aber hier wird auch eine hohe Nutzerkompetenz voraus gesetzt, um all diese Funktionen korrekt anzuwenden.

Ein spezialisiertes Tool wie yammer gibt einen Rahmen vor. Bringt ein Filter- und Regelwerk mit. Es gibt verglichen mit den hunderten unterschiedlicher E-Mail-Clients nur eine begrenzte Anzahl an Wegen, das Tool zu benutzen. Das was auf der einen Seite zunächst komplex aussieht, führt auf der anderen zu einer einfacheren Nutzung.

Ergebnis einer Dikussion auf yammer kann übrigens auch schnell ein Beitrag wie dieser hier sein. Die Inspiration kam durch diesen Artikel auf Fast Company. Der Inhalt aus diversen Diskussionen des Comspace yammer Livestream.

Übersicht der deutschen Social Media Landschaft im ethority Prisma 4.0

Social Media Prisma

Letzte Woche erschien die vierte Version des Social Media Prisma, das die Monitoring-Firma ethority in unregelmäßigen Abständen für den deutschsprachigen Raum erstellt. Wer auch immer mit Social Media zu tun hat, sollte sich die Grafik-Datei auf den Desktop ablegen und immer mal wieder drauf schauen.

Social Media Prisma
Die insgesamt 25 Blätter des an eine Blume erinnernden Prismas stehen jeweils für eine Kategorie von Social Web Kanälen und Services. Auf dem Blatt selber sind die in Deutschland bedeutenden Plattformen der entsprechenden Kategorien mit Logos abgebildet.

So können Sie einen schnellen Überblick gewinnen, welche Plattformen bsw. besonders geeignet zum Reputations-Management oder zur Kollaboration sind.

Neu hinzugekommen in der Version 4.0 sind neben dem wohl aktuell gehyptesten Photosharing-Dienst Pinterest auch die international bereits lange etablierten Dienste Dailymotion (Videoplattform), Orkut (Googles Social Network, das v.a. in Südamerika stark genutzt wird) und Photobucket, da diese Dienste mittlerweile auch in Deutschland an Bedeutung gewonnen haben.

Hier geht es zum Download in verschiedenen Formaten der deutschen Version des Social Media Prismas.

Ebenfalls verfügbar sind eine chinesische Version und die ursprüngliche US-Version des „Conversation Prism“ von Brian Solis

via t3n

Browser-Cache – Was ist das und wie lösche ich diesen?

Mit dem Begriff Browser-Cache wird eine Art Zwischenspeicher für Internetseiten bezeichnet. Wenn Sie eine Internetseite zum ersten Mal besuchen, speichert der Browser bestimme Teile der Internetseite (z.B. Bilder) auf einem speziellen Ordner Ihrer Festplatte ab.

Besucht man diese Internetseite zu einem späteren Zeitpunkt erneut, dann braucht der Browser nicht mehr alle Inhalte zu laden, sondern kann teilweise schon auf vorhandene aus dem Cache zurückgreifen und die Internetseite somit schneller laden.

Das Problem ist, dass der Browser nicht merkt, dass es auf der Internetseite bereits neuere Inhalte gibt und stattdessen die veralteten Dateien aus dem Cache lädt. In diesem Fall muss man den Browser Cache löschen.

In der folgenden Liste, erkläre ich Ihnen, wie Sie in den verschiedenen Browsern mit Leichtigkeit Ihren Browser-Cache leeren können.

Browser Cache im Internet Explorer 9 löschen

  • Klicken Sie im Menü “Extras” auf “Internetoptionen”.
  • Öffnen Sie das Register “Allgemein”.
  • Im Abschnitt “Browserverlauf” klicken Sie auf “Löschen…”.
  • Im Popup deaktivieren Sie “Bevorzugte Websitedaten beibehalten” und aktivieren “Temporäre Internetdateien” und “Cookies”.
  • Jetzt klicken Sie auf “Löschen”.

Browser Cache im Internet Explorer 8 leeren

  • Klicken Sie im Menü “Extras” auf “Internetoptionen”.
  • Öffnen Sie das Register “Allgemein”.
  • Im Abschnitt “Browserverlauf” klicken Sie auf “Löschen…”.
  • Im Popup deaktivieren Sie “Bevorzugte Websitedaten beibehalten” und aktivieren “Temporäre Internetdateien” und “Cookies”.
  • Jetzt klicken Sie auf “Löschen”.

Browser Cache im Internet Explorer 7 leeren

  • Klicken Sie im Menü “Extras” auf “Internetoptionen”.
  • Öffnen Sie das Register “Allgemein”.
  • Im Abschnitt “Browserverlauf” klicken Sie auf “Löschen…”.
  • Jetzt klicken Sie auf “Dateien löschen” und bestätigen das Ganze mit “Ja”.

Browser Cache im Internet Explorer 6 leeren

  • Klicken Sie im Menü “Extras” auf “Internetoptionen”.
  • Öffnen Sie das Register “Allgemein”.
  • Im Abschnitt “Temporäre Internetdateien” klicken Sie auf “Dateien löschen…”.
  • Jetzt setzen Sie den Haken vor “Alle Offlineinhalte löschen” und bestätigen das Ganze mit “Ja”.

Browser Cache im Firefox ab Version 7 leeren

  • Klicken Sie im Menü “Extras” auf “Einstellungen”.
  • Öffnen Sie das Register “Erweitert”.
  • Sie finden den Abschnitt “Offline Speicher”. Dort klicken Sie auf “Jetzt leeren…”.

Browser Cache in Chrome ab Version 10 leeren

  • Auf den Werkzeugschlüssel klicken.
  • “Optionen” auswählen.
  • “Details” und dann auf “Internetdaten löschen” .

Browser Cache im Safari leeren

  • Im Menü “Safari” klicken Sie auf “Cache leeren” und bestätigen das Ganze mit Klick auf “Leeren”.

Browser Cache in Opera leeren

  • Klicken Sie im Menü “Einstellungen” auf “Einstellungen…”.
  • Öffnen Sie das Register “Erweitert”.
  • Wählen Sie in der linken Navigation “Verlauf” und klicken Sie dann rechts auf “Jetzt leeren”.

Welchen Browser und welche Version nutze ich?

Um Ihren aktuellen Browser und dessen Version mit wenig Aufwand herauszufinden, können Sie folgende Internetseite benutzen: https://www.whatsmybrowser.org/

Fazit

Sie sollten in regelmäßigen Abständen Ihren Browser Cache löschen, da Ihnen eventuell neue Inhalte auf  schon besuchten Internetseiten nicht angezeigt werden. Außerdem wird dadurch unnötiger oder veralteter Datenmüll regelmäßig gelöscht und der Zwischenspeicher aktuell gehalten.