Richtlinien zum technischen Aufbau von Webinhalten: Webcrawler, Aktualität und Geschwindigkeit (Teil 2)

Auch bei den technischen Richtlinien gibt es einige Vorgaben, die in den Google Webmaster Richtlinien Erwähnung finden und nebst den Webmasterrichtlinien zur Gestaltung von Webinhalten als Unterstützung für die Optimierung der eigenen Webseite dienen.

Überprüfung der Webseite durch einen textbasierten Browser

Lynx Viewer vom Comspace Blog
Lynx-Abbild von Comspace Blog

In erster Linie darf man sich einen Crawler, der Webseiten erfasst und ausliest, wie einen einfachen Textbrowser vorstellen. Gängige Browser wie der Mozilla Firefox, Google Chrome, Apple Safari oder den bekannten Microsoft Internet Explorer sind in der heutigen Zeit in der Lage, Webseiten in voller Pracht anzuzeigen, das heißt vorhandene Grafiken oder auch Flash-Videos werden nach dem Wunsch der Seitenbetreiber dargestellt. Textbrowser, wie beispielsweise Lynx, stellen Webseiten – wie der Name es schon sagt – in reiner Textform dar. Bilder und andere Elemente wie zum Beispiel Videos werden in einem Textbrowser nicht angezeigt.

Des Weiteren sind in einem Textbrowser diverse Funktionen wie JavaScripte, Cookies und Session-IDs nicht nutzbar bzw. können für Probleme sorgen. Ähnlich agieren auch Webcrawler – auch wenn diese mittlerweile weiterentwickelt wurden und relativ leistungsfähig sind, kann ein Webcrawler mit den oben genannten Elementen auf einer Webseite Probleme haben.

Pauschal lassen sich natürlich nicht alle Elemente auf einer Webseite entfernen – ein Onlineshop ohne entsprechende Bilder oder Produktvideos wäre im Jahre 2012 undenkbar. Dem entsprechend ist hier die technische Aufgabe des Webseitenbetreibers dafür zu sorgen, dass die Crawler der Suchmaschinen es möglichst einfach haben, die Inhalte der Webseite zu crawlen.

Zum einen hat der Webseitenbetreiber die Möglichkeit, seine Internetpublikation mithilfe des eben erwähnen Lynx Textbrowsers zu prüfen – zum anderen bieten aber auch die Google Webmaster Tools die Möglichkeit, eine Webseite durch einen Crawler abzurufen und sich das Ergebnis ausgeben zu lassen.

Exkurs: Cloaking und ungeeignete Techniken

Die obigen Gründe und die anfänglichen Schwierigkeiten hatten zur Folge, dass in der Anfangszeit des kommerziellen World Wide Webs diverse Techniken entwickelt wurden, die dafür sorgten, dass Suchmaschinen wie Google beim Besuch einer Webseite komplett andere Inhalte angezeigt wurden als dem Endverbraucher. Die Technik war dabei relativ einfach: Wenn eine Webseite besucht wurde, wurde zu Beginn abgefragt, ob es sich um einen realen Besucher handelt oder ob hier ein Suchmaschinencrawler unterwegs ist – sobald ein Suchmaschinencrawler erkannt wurde, zeigte man diesem einfach die Webseite in einer anderen Form.

Mittlerweile sind solche Techniken seitens der Suchmaschinen nicht sonderlich gern gesehen und können im Ranking zu Abwertungen führen. Diese Technik machten sich natürlich auch andere Personen zu Nutze und verschleierten somit Inhalte, die nicht zwangsläufig in Suchergebnissen auftauchen sollten bzw. die seitens der Suchmaschine erst gar nicht erkannt werden sollten.

Suchmaschinen die Aktualität der Seite präsentieren

Im ersten Teil „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts“ wurde bereits angesprochen, dass die Qualität des Inhalts eine wichtige Rolle für ein positives Ranking innerhalb der Suchmaschinen spielt. Nebst der Qualität des Inhalts ist auch die Aktualität, sprich wie oft neue Inhalte publiziert oder ältere Inhalte aktualisiert werden, relevant und sorgt natürlich auch dafür, dass Crawler eine Webseite regelmäßiger besuchen könnten. Wenn ein Crawler bemerkt, dass eine Webseite regelmäßig bzw. täglich neue Inhalte veröffentlicht, wird auch der Crawling-Rhythmus automatisch angepasst.

Um dem Crawler relativ schnell mitzuteilen, ob neue Inhalte verfügbar sind, empfehlen die Google Webmaster Richtlinien die Verwendung des http-Headers “If-Modifies-Since“. Anhand dieser Funktion teilt der Webserver dem Crawler mit, wann neue Inhalte auf der Internetseite veröffentlicht wurden – natürlich kann dies auch anhand der Webseite an sich geschehen, wenn beispielsweise eine Zeitangabe für die Erstellung des Artikels existiert. Im Gegensatz zu der Zeitangabe auf der Webseite besitzt die Lösung des http-Headers den Vorteil, dass Bandbreite eingespart werden kann.

Inhalte vor dem Crawler schützen

robots-txt - Alle Suchmaschinen dürfen Inhalte durchsuchen und indexieren
Suchmaschinen ist das Durchsuchen/Indexieren der Webinhalte erlaubt

Selbst in der heutigen Zeit sind für viele Webseiten-Betreiber Begriffe wie Robots.txt und Meta-Robot ein Fremdwort. Doch dabei ist es nicht verkehrt, dem Suchmaschinen-Crawler mithilfe einer Robots.txt mitzuteilen, welche Verzeichnisse durchsucht werden sollen und welche eben nicht durchsucht werden sollen – schließlich muss nicht jeder Inhalt oder gar jedes Bild im Index der Suchmaschinen dargestellt werden.

Besonders wichtig ist dabei, dass der Webseitenbetreiber selbst die vorgenommenen Anweisungen in der eigenen Robots.txt kontrolliert, da es auch passieren kann, dass Suchmaschinen-Crawler komplett ausgeschlossen werden. Als Hilfsmittel für die Kontrolle eigenen sich die Google Webmaster Tools, womit zum einen die Robots.txt geprüft werden kann und zum anderen die Seite durch einen Crawler abgerufen werden kann. An den Resultaten lässt sich erkennen, wie der Google-Bot die Webseite sieht und natürlich welche Inhalte der Bot abgreifen kann und welche nicht.

Das Tool aus den Google Webmaster-Tools nennt sich übrigens „robots.txt“-Analyse Tool.

Informationen zur Erstellung einer Robots.txt finden sich auf nachfolgenden Seiten:

Neben der Erstellung einer Robots.txt gibt es auch die Möglichkeit für einzelne HTML-Seiten mittels dem Meta-Tag „<meta name=“robots“ content=“index,follow“ />“ bestimmte Einstellungen vorzunehmen, die einem Suchmaschinen-Crawler mitteilen, ob die Inhalte indexiert werden dürfen („index“) oder nicht indexiert werden dürfen („noindex“). Zudem kann angegeben werden, ob den Links auf der einzelnen Seite gefolgt („follow“) oder nicht gefolgt („nofollow“) werden sollen.

Die Webseite auf Herz und Nieren testen (Teil 2.1)

Aufgrund des Themenumfangs behandle ich diesen Punkt in einem separaten Artikel. Lesen Sie die Fortsetzung in „Richtlinien zum technischen Aufbau von Webinhalten: Die Webseite auf Herz und Nieren testen (Teil 2.1)

Weitere Artikel zum Thema Google Webmaster Richtlinien

Seo Poster 2012: Gewinnspiel von Martin Missfeldt

Seo Poster 2011 - Neuauflage für 2012

Bereits im vergangenen Jahr hat Martin Missfeldt sein sogenanntes Seo Poster erschaffen und für eine Vielzahl von Personen sehr schöne Avatare im Comic-Stil gezeichnet. Da laut eigener Aussage sich die Anfragen häufen, bietet  Martin auch in diesem Jahr seine Fähigkeiten an.

Nebst dem konventionellen Weg zum Erwerb eines solchen Avatars, gibt es fünf Comic-Avatare zu gewinnen.

Wie sieht ein Comic-Avatar aus?

Die meisten Leser werden sich nun fragen, wie so ein Comic-Avatar ausschaut. Ein Bild vom Stil der Avatare kann man sich wunderbar durch das Seo Poster 2011 machen.

Als Grundlage für die Zeichnung dient ein Profil-Foto, das natürlich eine gewisse Aussagekraft besitzen sollte. Das bedeutet, das Gesicht derjenigen Person sollte klar zu erkennen sein – dem entsprechend eignet sich für die Bestellung bspw. ein Passfoto.

Seo Poster 2011 - Neuauflage für 2012

Ich möchte am Gewinnspiel teilnehmen…

Bis zum kommenden Dienstag, den 22.05.2012, besteht die Möglichkeit an dem Gewinnspiel teilzunehmen. Die Teilnahme ist denkbar einfach, dazu reicht es beispielsweise den Hauptartikel von Martin per Twitter zu verteilen und dies mit dem Hashtag #comicavatar zu versehen.

Auch andere Möglichkeiten für die Teilnahme durch den Einsatz von Google Plus und auch Facebook sind gegeben. Diese können im Artikel von Martin nachgelesen werden.

Kein Erfolg beim Gewinnspiel gehabt…

Sicherlich nehmen eine Vielzahl von Personen an dem Gewinnspiel teil, so bietet Martin auch die Möglichkeit ein passendes Avatar zu erwerben – mit rund 25 € zzgl. 7 % Mwst. kann sich jeder ein Avatar zaubern lassen.

Wofür sich ein Avatar eignet?

Ein solches Avatar eignet sich hervorragend für die Nutzung im Social Media Bereich, sei es bei Facebook, Google Plus oder Twitter. Gerade für Blogger kann ein Avatar in Verbindung mit dem Dienst Gravatar genutzt werden.

Wie funktioniert eigentlich Google?

Google Deutschland Logo

Google Deutschland LogoOk, die Frage füllt natürlich Bücher, Seminare und bald vermutlich auch ganze Studiengänge. Kollegin Lorge fragte sich vorgestern ja ganz explizit, wie lange es wohl dauert, bis der Googlebot eine Website gecrawlt hat.

Auf der Comspace-Homepage hatte Anke einige Descriptions verändert und wollte nun gerne wissen, wann diese Änderungen in der Google Suche auftauchen.

Die Frage interessierte mich selber, da SEO nicht gerade mein Fachgebiet ist. Was macht man in so einem Fall als erstes? Klar. Googlen.

Interessant dabei finde ich mal wieder, wie hochaktuell manche Suchergebnisse zufälligerweise sind: Dieses Video wurde gerade heute veröffentlicht. Googlemitarbeiter Matt Cutts erklärt darin, wie genau die Suchmaschine funktioniert. Letztendlich bricht er die Funktionsweise auf einige einfache Schritte herunter:

  1. Crawlen
  2. Indexieren
  3. Suchbegriffe abgleichen
  4. Suchergebnis ausgeben

Beeindruckend: Die Zeitspanne, die Google braucht, um Suchergebnisse mit dem Index abzugleichen und die besten Ergebnisse auszuliefern, ist mal grad eine halbe Sekunde!

Das ist allerdings immer noch keine Antwort auf unsere Frage, wie lange es dauert, bis die Description der Homepage aktualisiert wurde.

Die Hilfe-Sektion der Google Webmaster-Tools bringt etwas mehr Aufschluss über die Funktionsweise der Crawler. Also der Computer bei Google, die täglich Milliarden von Webseiten nach neuen Inhalten durchsuchen. Aber nichts zum Description-Tag einer Seite. Auch nicht auf der ausführlichen Hilfe-Seite der Meta-Tags Title und Description.

Ein halbwegs aktuelles Beispiel konnte ich bei tagseoblog finden. Martin hat dort einmal getestet, wie lange es dauert, bis Google ein neues Bild indexiert hat. Keine 20 Minuten hat es im Versuch gedauert. Beachtlich! Insbesondere, wenn man sich überlegt, das Bing für das gleiche Bild rund 3 Wochen benötigte.

Ich vermute in diesem Falle einfach, dass die Description bei den Crawlern nicht die höchste Priorität haben. Als nächstes werden wir versuchen, einen erneuten Crawl bei Google zu beantragen.

Eine sehr ausführliche Erklärung des Spider/Crawling-Vorgangs gibt es übrigens auch hier beim CTO von Motor-Talk Bert Schulzki zu lesen.

Video von Matt Cutts via Netzpiloten entdeckt

Recap re:publica: Von dem Gefühl des überinformiert seins, Rockstars, GEMA und der digitalen Zukunft

Nach mehr als einem Dutzend Sessions weiß ich mal wieder warum ich mir einen Block aus Papier und einen Stift eingepackt habe. Anders könnte ich die Informationsfülle der letzten Tage kaum sortieren und es stellt sich schnell ein „Social Müdia“ bei mir ein. Da sind wir auch schon direkt bei einem Thema der re:publica, denn „Vom Umgang mit dem Informations Overflow“ habe ich mir eigentlich konkretere Hilfestellungen für den Alltag gewünscht. Ich will hier jetzt keine „Mimose“ sein aber „die digitale Fassade“ eines „Rockstars“ muss nun mal auch bei zunehmender „Disruption“ des eigenen digitalen „Geschäftsmodells“ gewahrt bleiben.

In diesem Jahr kam es auch nicht zu einem „Verfall oder Rettung der Esskultur“ (moderiert von kaltmamsell), was sicherlich auf die sehr fairen Preise, das gute Angebot und den wenigen Schlangen an den Essensausgaben lag. Einen eigenen „Foodblog“ (wie die Panelteilnehmer Rettet das Mittagessen, NutriculinaryDeliciousdaysoder das Magazin Effilee) mit tollen neuen Rezepten hätte man zwar nicht mit dem Angebot füllen können aber das erwartet doch nicht wirklich jemand von einer solchen Veranstaltung.

Bei der Session „Creative Internet Business: Made in Germany?“ habe ich dann doch gespürt, dass einige der Leute in der „Blogosphäre veramerikanisiert“ sind und sich hier mein Bingo-Kärtchen aus der Eröffnungsveranstaltung doch noch schnell gefüllt hat. Das dies nicht „die Kultur des Internets“ (mit @kleinodysseebisaz und beetlebum) ist konnte ich zum Glück in vielen anderen Sessions festgestellt. Bei „Slacktivism to real commitment“ haben die Zuhörer leider festellen müssen, dass eine tolle Online-Kampagne nicht immer zu dem gewünschten Ziel führt und wir für die Zukunft noch einiges lernen müssen, um digitale Kampagnen auch in der nicht-digitalen Welt erfolgreich zu machen.

Insgesamt habe ich festgestellt, dass ich mich in der Gegenwart ganz wohl fühle, denn was da „Neues aus der Zukunft“ auf uns zukommt ist alles andere als schön und bei den Themen „Leetspeak bis Ragefaces“ hat mir mein Alter seine ganze Unerbittlichkeit aufgezeigt. Es hilft auch nicht mit „Marken gegen Meinungen“ ins Feld zu ziehen, denn auf dem Schlachtfeld der „Copyriots!“ tobt die letzte große Schlacht um das goldene Content-Vlies. Ob die GEMA am Ende dabei ist werden wir wohl erst bei der 7. re:publica erfahren. Nachdem man die Veranstaltungen 1 – 6 geschwänzt hat sehe ich hier sogar die Versetzung in die digitale Zukunft gefährdet.

Ob es am Ende zu einer „Blogvermarktung“ dieses Blogs kommt bezweifle ich doch sehr. Bannerwerbung in einem Unternehmensblog passt nicht und auch Links können wir hier nicht verkaufen. Was die SEO-Fraktion als sicheren Weg aus der Ein-Bier-Krise sieht ist für die Blogger-Welt mit einer Reliquien-Entweihung vergleichbar.  Vielleicht schnürt die SEO-Fraktion am Jahresende ein paar Care-Pakete, damit die meisten Blogger durch den Winter kommen um auch auf der 7. re:publica eine Session „Blogvermarktung“ ohne großartige neue Erkenntnisse anzubieten. Mich würde es freuen!

Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)

Google Webmaster Tools und Google Webmaster Richtlinien

Dies ist der erste Artikel zu einer dreiteiligen Artikelserie zu den Google Webmaster Richtlinien – in Teil 2 wird die Thematik „Webmaster Richtlinien zum technischen Aufbau von Webinhalten“ und in Teil 3 „Webmaster Richtlinien zur Qualität“ angesprochen. Begonnen wird nachfolgend mit dem Thema „Webmaster Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts„. „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ weiterlesen

E-Mail-Ärger: Kettenbriefe, Vermisstenmeldungen und Knochenmarkspenden

Sicher haben Sie auch schon einmal eine solche Mail in der Mailbox gehabt:

Ganz DRINGEND!!!! sollen Sie diese Mail an alle Freunde und Bekannte und überhaupt Ihr ganzes Adressbuch weiter leiten. Dabei sind die Themen dieser Mails meist in einem dieser beiden Bereiche zu finden: Empörung stiften oder spontane Hilfe leisten. Also Gründe, die uns über unser Gewissen dazu verleiten, schnell zu reagieren. So schnell, dass wir gar nicht erst daran denken zu hinterfragen, was sich eigentlich genau hinter so einer Mail verbirgt.

Die Geschichten sind meistens ebenso dramatisch wie unterschiedlich:

    • Ein verschwundenes Kind
    • Eine dringend benötigte Knochenmarkspende
    • Viren, die dabei sind, das Internet aufzufressen
    • Firmen, die Spenden entrichten, wenn genug Mails zusammen kommen
    • Lotterie oder andere Gewinne
    • Erbschaften von dubiosen Adeligen, die in Scheckbetrug münden

Warum werden solche Mails verschickt?

Meistens handelt es sich um sogenannte Hoaxe. Das englische Wort Hoax, das vom altenglischen Hocus abstammt, bedeutet soviel wie Scherz oder Veralberung. Sie werden von Menschen initial verschickt, die Spaß daran haben, andere zu verwirren und zu verunsichern.
Darüber hinaus gibt es dann noch die Art von Hoax-Mails, die einen betrügerischen Hintergrund haben und die Empfänger in der Hoffnung auf das schnelle Geld ermutigen, Schecks zu versenden oder internationale Überweisungen zu tätigen.
Und natürlich den guten alten Kettenbrief, der dem Empfänger unglaubliches Glück bringt, wenn er ihn weiter leitet und natürlich ganz großes Unglück verheißt, wenn nicht.

Neben den kriminellen Hintergründen ist bei diesen E-Mails vor allem bedenklich, wie viel Arbeitszeit, Interenttraffic und damit auch Energie verbraucht wird.
Genaue Zahlen zu Hoax-Mails habe ich zwar nicht finden können, aber da Hoaxe auch zum Spam gehören, hier einige Zahlen zu den Auswirkungen von Spam aus dem entsprechenden Wikipedia-Artikel:

Durch Spam entsteht allein in den Vereinigten Staaten pro Jahr ein Schaden von 22 Milliarden US-Dollar. Nach einer 2009 erstellten Studie verbrauchen 62 Billionen Spam-Mails jährlich zirka 33 Milliarden Kilowattstunden Energie sowie 100 Milliarden Stunden Arbeitszeit zum Sichten und Löschen der Spam-Mails.Demnach macht Spam mittlerweile je nach Schätzung 89 bis 97 % des gesamten E-Mail-Volumens aus.

Wie lassen sich Hoaxe erkennen?

Google ist meistens die einzig nötige Prüfung. Googlen Sie eindeutige Begriffe aus der Hoax-Meldung. Die ersten Ergegbnisse bringen meistens schon Aufschluss darüber, ob der Inhalt einer Mail nicht weiter beachtet und auf keinen Fall weiter geschickt werden sollte. Vermisstenmeldungen oder Bitten um Knochenmarkspenden führen bspw. oft auf Zeitungsartikel, die erklären, dass der entsprechenden Person schon lange geholfen wurde.

Zwei weitere exzellente Anlaufstellen sind der Hoax-Info-Dienst der Technischen Uni Berlin und die englischsprachige Seite Snopes.com,  die neben Hoaxes auch urbane Legenden und Verschwörungstheorien aufklärt.

Der gleichen Prüfung sollten Sie übrigens auch Meldungen aus Social Networks unterziehen. Auch dort mehren sich vermeintliche Gewinne, Hilfsmeldungen usw., die sich allerdings auch noch automatisch in Ihrem Kontaktnetzwerk verbreiten.

Danke an Selbstmanagement und XING Experte Oliver Gassner für die Anregung, das Thema mal wieder aufzugreifen

Wie erkenne ich, wann der Googlebot eine Website gecrawlt hat?

Im Zuge der Aktualisierung der Descriptions auf einer Website stellte sich mir die Frage, warum die neuen Descriptions auch 14 Tage nach Veröffentlichung noch nicht in den Google-Suchergebnissen erschienen sind. Auf Nachfrage  bei unserem SEO-Experten Ferit zeigte sich, dass der Googlebot zuletzt vor ca. drei Wochen auf der Website vorbeigeschaut hatte und die neuen Descriptions daher noch nicht berücksichtigt wurden.

Wie aber stellt man fest, wann der Googlebot die Website zuletzt gecrawlt hat? Wie vieles ist auch das recht einfach, wenn man es nur weiß: man sucht die betreffende Website über ein passendes Keyword in Google, z.B. „comspace cms“ für die Seite Content Management Systeme bei comspace. Dann fährt man mit der Maus über den Doppelpfeil rechts vom Suchergebnis, so dass die Seitenvorschau der Ergebnisseite angezeigt wird.

 Im Kopf der Seitenvorschau erkennt man die Worte „Im Cache“ (im Sreenshot rot markiert). Klickt man darauf, erscheint nun die Ergebnisseite mit einem Textkasten darüber, in dem man nachlesen kann, an welchem Tag und um welche Uhrzeit Google sich diese Seite zuletzt angeschaut hat, in diesem Fall am 22. April um 13:32 Uhr.

Ist Klout eine verlässliche Messgröße für den Einfluss von Social Media Nutzern?

„Ich hab Dich mal eben geklout ist momentan eine beliebte Nachricht, die sich Social Web Nutzer schicken, um darauf hinzuweisen, dass man jemandem ein +K vergeben hat. Ein +K ist eine Bestätigung, eine Punktevergabe die demonstriert, dass ein Nutzer in einem definierten Thema besonderen Web-Einfluss hat. Klout misst Reichweite, Einfluss, Anzahl von Kontakten, wer sich mit wem zuletzt ausgetauscht – also beeinflusst – hat aus unterschiedlichen Social Networks und erechnet daraus für jeden Social Web Nutzer einen persönlichen Score (übrigens ohne den entsprechenden Nutzer vorher um Erlaubnis zu bitten, doch mehr dazu weiter unten).

In der Modebranche könnte ein hoher Klout-Wert bald vergleichbar oder sogar wertvoller sein als der gute, alte Promistatus, wie die ZEIT im März berichtete. Statt Stars sitzen dann bei den Designern Social Media Nutzer in der ersten Reihe. Stars werden zwar von den herumlaufenden Pressefotografen geknipst und machen damit ein Modelabel kurzfrisitg bekannt. Die nach möglichst hohem Klout-Score ausgewählten Web-Leute sorgen dagegen durch ihre eigene Reichweite für Aufmerksamkeit und Verbreitung.

Kann man Social Web Einfluss als einen Wert darstellen?

Sowohl Klout als auch seine Wettbewerber Peerindex und Kred geben sich eher bedeckt, was die Berechnung der Scores angeht. Was also genau „gemessen“ wird, ist gar nicht klar. Web-Guru Brian Solis sagt deswegen auch, es wird mehr das Potenzial zur Einflussnahme analysiert als tatsächlicher Einfluss.

Viel mehr sollte man sich folgende Frage aus Soli’s Artikel stellen: In welchem Zusammenhang ist Einfluss und Reichweite von Social Media Nutzern für mein Unternehmen von Wert?

Wenn diese Frage beantwortet ist, fällt es deutlich einfacher, Dienste wie Klout zu nutzen, um detailliertere Einordnungen von Social Web Nutzern vorzunehmen:

  • Auf welchen Plattformen sind sie aktiv und mit welcher Nutzungsintensität?
  • Sind die Zielgruppen, die von den Influencern erreicht werden, auch für uns interessant?
  • Schaffen sie eigene Inhalte oder verbreiten sie eher vorhandene Inhalte? usw.
  • Welche unserer Inhalte nutzen sowohl den Influencern, als auch deren Publikum und Zielgruppe?
  • Können wir unsere Ziele durch Ansprache einflussreicher Nutzer besser erreichen?

Die Nutzung von Diensten wie Klout in Deutschland

Was Dienste angeht, die Nutzerdaten auswerten, analysieren, kombinieren und in neuen Kontexten darstellen, müssen wir in Deutschland natürlich immer mit dem großen Spielverderber „Datenschutz“rechnen. Insbesondere, weil Klout die o.g. Daten nicht erst sammelt, wenn der Nutzer es Klout ausdrücklich erlaubt – die Daten werden dauerhaft erhoben und den bei Klout bereits angemeldeten Kontakten präsentiert: „Ihr Kontakt XYZ ist noch nicht bei Klout. Sein Klout-Score beträgt XX – möchten Sie Ihren Kontakt zu Klout einladen?“.

Die Kollegen bei t3n haben Klout daher einmal durchaus kritisch beleuchtet und sich die Frage gestellt, ob Klout eventuell sogar illegal in der EU ist.

Meine persönliche Meinung ist, dass Dienste dieser Art durchaus eine Hilfe sein können, neben den bekannten und „üblichen Verdächtigen“ im Netz, die sich mit bestimmten Themen beschäftigen, neue Ansprechpartner zu finden. Allerdings immer nur als grobe Anhaltspunkte. Auch im Social Web gilt:

Nichts geht über persönliche Kontakte, die eine Verlängerung ins Web haben.

Social TV: Der Trend geht zum 2. Bildschirm

ToDo fürs Wochenende: Vernetztes Fernsehen ausprobieren.

iPod Magic Second Screen

Wenn ein Thema im ZDF Morgenmagazin angekommen ist, dann ist es auch so gut wie im Mainstream angekommen 🙂 In diesem Fall ist es der Trend des „Second Screen“ und meint, dass wir beim fernsehen meist noch einen zweiten Bildschirm in der Hand haben: Smartphone, Tablet und manche auch den guten, alten Laptop.

Die Jungs vom StartUp Couchfunk haben letztens dazu diese Sendung des ZDF Morgenmagazins herum geschickt, in der unter anderem auch Couchfunk besprochen wurde, das über diesen Zweit-Bildschirm ermöglicht, über das gerade geschaute Programm zu diskutieren. Dabei ist Couchfunk extrem aktiv in der Weiterentwicklung der App gemeinsam mit seinen Nutzern .

Ich frage mich ja, wie lange es dauern wird, bis Social Signals aus Twitter, Facebook und Konsorten in die Berechnung der Einschaltquoten einfließen und damit auch relevant für die Werbung werden. Etwas besseres kann einem Werbespot doch nicht passieren, als im Web diskutiert und weiter verteilt zu werden – wie es traditionell bereits seit einigen Jahren mit den Werbespots in der Pause des Super Bowl Finale passiert.

Hier könnte man sich sogar vorstellen, dass nicht nur Predictive behavioral Targeting (Wikipedia-Link) greift, das wir bereits schon einmal kurz hier auf dem Blog angerissen haben, sondern eine semantische Auswertung der Diskussionen möglich wird, wie es YouTube im Februar 2012 bereits vorgemacht hat: Dort hat man den Comedy-Gehalt der Videos am Inhalt bestimmert Schlüsselbegriffe wie LOL, ROFL usw. in den Kommentaren gemessen. Sind die Äußerungen in der Diskussion positiv oder negativ? Witzig, ernst oder anders emotional gefärbt usw.

Übrigens: Wenn zum zweiten Screen noch ein dritter dazu kommt, wird es magisch:

iPod Magic found by yinnyang

Schönes Wochenende! 🙂

Problemlösung: Firefox Schrift und WebFonts korrekt darstellen

Gut, wenn man Kollegen hat, die sich auskennen. Seit Tagen hatte ich nach einer Neuinstallation des Firefox Probleme mit der Darstellung von Schriftarten. Die Fonts sahen ausgefranst und alles andere als schön aus.

Aufgefallen war es mir zuerst hier auf dem Blog, aber auch auf anderen Webseiten wurden die Schriftarten fehlerhaft und unscharf dargestellt.

Auf gut Glück fragte ich gerade unseren IT-Service Mann Ufuk, ob er das Problem kennt.

„Klar, du musst nur in den Firefox Einstellungen unter Erweitert im Reiter „Allgemein“ das Häkchen bei „Hardware-Beschleunigung verwenden, wenn verfügbar“ entfernen und den Fuchs neu starten, dann sollten die Schriften wieder OK aussehen.“

Firefox Fonts - Fehlerhafte Darstellung

Was soll ich sagen:
Hat geklappt und ich musste den Browser nicht einmal neu starten 🙂 Einfach mal die Leute fragen, die Bescheid wissen. Da spart man sich stundenlanges Googlen.