Seo Poster 2012: Gewinnspiel von Martin Missfeldt

Seo Poster 2011 - Neuauflage für 2012

Bereits im vergangenen Jahr hat Martin Missfeldt sein sogenanntes Seo Poster erschaffen und für eine Vielzahl von Personen sehr schöne Avatare im Comic-Stil gezeichnet. Da laut eigener Aussage sich die Anfragen häufen, bietet  Martin auch in diesem Jahr seine Fähigkeiten an.

Nebst dem konventionellen Weg zum Erwerb eines solchen Avatars, gibt es fünf Comic-Avatare zu gewinnen.

Wie sieht ein Comic-Avatar aus?

Die meisten Leser werden sich nun fragen, wie so ein Comic-Avatar ausschaut. Ein Bild vom Stil der Avatare kann man sich wunderbar durch das Seo Poster 2011 machen.

Als Grundlage für die Zeichnung dient ein Profil-Foto, das natürlich eine gewisse Aussagekraft besitzen sollte. Das bedeutet, das Gesicht derjenigen Person sollte klar zu erkennen sein – dem entsprechend eignet sich für die Bestellung bspw. ein Passfoto.

Seo Poster 2011 - Neuauflage für 2012

Ich möchte am Gewinnspiel teilnehmen…

Bis zum kommenden Dienstag, den 22.05.2012, besteht die Möglichkeit an dem Gewinnspiel teilzunehmen. Die Teilnahme ist denkbar einfach, dazu reicht es beispielsweise den Hauptartikel von Martin per Twitter zu verteilen und dies mit dem Hashtag #comicavatar zu versehen.

Auch andere Möglichkeiten für die Teilnahme durch den Einsatz von Google Plus und auch Facebook sind gegeben. Diese können im Artikel von Martin nachgelesen werden.

Kein Erfolg beim Gewinnspiel gehabt…

Sicherlich nehmen eine Vielzahl von Personen an dem Gewinnspiel teil, so bietet Martin auch die Möglichkeit ein passendes Avatar zu erwerben – mit rund 25 € zzgl. 7 % Mwst. kann sich jeder ein Avatar zaubern lassen.

Wofür sich ein Avatar eignet?

Ein solches Avatar eignet sich hervorragend für die Nutzung im Social Media Bereich, sei es bei Facebook, Google Plus oder Twitter. Gerade für Blogger kann ein Avatar in Verbindung mit dem Dienst Gravatar genutzt werden.

Wie funktioniert eigentlich Google?

Google Deutschland Logo

Google Deutschland LogoOk, die Frage füllt natürlich Bücher, Seminare und bald vermutlich auch ganze Studiengänge. Kollegin Lorge fragte sich vorgestern ja ganz explizit, wie lange es wohl dauert, bis der Googlebot eine Website gecrawlt hat.

Auf der Comspace-Homepage hatte Anke einige Descriptions verändert und wollte nun gerne wissen, wann diese Änderungen in der Google Suche auftauchen.

Die Frage interessierte mich selber, da SEO nicht gerade mein Fachgebiet ist. Was macht man in so einem Fall als erstes? Klar. Googlen.

Interessant dabei finde ich mal wieder, wie hochaktuell manche Suchergebnisse zufälligerweise sind: Dieses Video wurde gerade heute veröffentlicht. Googlemitarbeiter Matt Cutts erklärt darin, wie genau die Suchmaschine funktioniert. Letztendlich bricht er die Funktionsweise auf einige einfache Schritte herunter:

  1. Crawlen
  2. Indexieren
  3. Suchbegriffe abgleichen
  4. Suchergebnis ausgeben

Beeindruckend: Die Zeitspanne, die Google braucht, um Suchergebnisse mit dem Index abzugleichen und die besten Ergebnisse auszuliefern, ist mal grad eine halbe Sekunde!

Das ist allerdings immer noch keine Antwort auf unsere Frage, wie lange es dauert, bis die Description der Homepage aktualisiert wurde.

Die Hilfe-Sektion der Google Webmaster-Tools bringt etwas mehr Aufschluss über die Funktionsweise der Crawler. Also der Computer bei Google, die täglich Milliarden von Webseiten nach neuen Inhalten durchsuchen. Aber nichts zum Description-Tag einer Seite. Auch nicht auf der ausführlichen Hilfe-Seite der Meta-Tags Title und Description.

Ein halbwegs aktuelles Beispiel konnte ich bei tagseoblog finden. Martin hat dort einmal getestet, wie lange es dauert, bis Google ein neues Bild indexiert hat. Keine 20 Minuten hat es im Versuch gedauert. Beachtlich! Insbesondere, wenn man sich überlegt, das Bing für das gleiche Bild rund 3 Wochen benötigte.

Ich vermute in diesem Falle einfach, dass die Description bei den Crawlern nicht die höchste Priorität haben. Als nächstes werden wir versuchen, einen erneuten Crawl bei Google zu beantragen.

Eine sehr ausführliche Erklärung des Spider/Crawling-Vorgangs gibt es übrigens auch hier beim CTO von Motor-Talk Bert Schulzki zu lesen.

Video von Matt Cutts via Netzpiloten entdeckt

Recap re:publica: Von dem Gefühl des überinformiert seins, Rockstars, GEMA und der digitalen Zukunft

Nach mehr als einem Dutzend Sessions weiß ich mal wieder warum ich mir einen Block aus Papier und einen Stift eingepackt habe. Anders könnte ich die Informationsfülle der letzten Tage kaum sortieren und es stellt sich schnell ein „Social Müdia“ bei mir ein. Da sind wir auch schon direkt bei einem Thema der re:publica, denn „Vom Umgang mit dem Informations Overflow“ habe ich mir eigentlich konkretere Hilfestellungen für den Alltag gewünscht. Ich will hier jetzt keine „Mimose“ sein aber „die digitale Fassade“ eines „Rockstars“ muss nun mal auch bei zunehmender „Disruption“ des eigenen digitalen „Geschäftsmodells“ gewahrt bleiben.

In diesem Jahr kam es auch nicht zu einem „Verfall oder Rettung der Esskultur“ (moderiert von kaltmamsell), was sicherlich auf die sehr fairen Preise, das gute Angebot und den wenigen Schlangen an den Essensausgaben lag. Einen eigenen „Foodblog“ (wie die Panelteilnehmer Rettet das Mittagessen, NutriculinaryDeliciousdaysoder das Magazin Effilee) mit tollen neuen Rezepten hätte man zwar nicht mit dem Angebot füllen können aber das erwartet doch nicht wirklich jemand von einer solchen Veranstaltung.

Bei der Session „Creative Internet Business: Made in Germany?“ habe ich dann doch gespürt, dass einige der Leute in der „Blogosphäre veramerikanisiert“ sind und sich hier mein Bingo-Kärtchen aus der Eröffnungsveranstaltung doch noch schnell gefüllt hat. Das dies nicht „die Kultur des Internets“ (mit @kleinodysseebisaz und beetlebum) ist konnte ich zum Glück in vielen anderen Sessions festgestellt. Bei „Slacktivism to real commitment“ haben die Zuhörer leider festellen müssen, dass eine tolle Online-Kampagne nicht immer zu dem gewünschten Ziel führt und wir für die Zukunft noch einiges lernen müssen, um digitale Kampagnen auch in der nicht-digitalen Welt erfolgreich zu machen.

Insgesamt habe ich festgestellt, dass ich mich in der Gegenwart ganz wohl fühle, denn was da „Neues aus der Zukunft“ auf uns zukommt ist alles andere als schön und bei den Themen „Leetspeak bis Ragefaces“ hat mir mein Alter seine ganze Unerbittlichkeit aufgezeigt. Es hilft auch nicht mit „Marken gegen Meinungen“ ins Feld zu ziehen, denn auf dem Schlachtfeld der „Copyriots!“ tobt die letzte große Schlacht um das goldene Content-Vlies. Ob die GEMA am Ende dabei ist werden wir wohl erst bei der 7. re:publica erfahren. Nachdem man die Veranstaltungen 1 – 6 geschwänzt hat sehe ich hier sogar die Versetzung in die digitale Zukunft gefährdet.

Ob es am Ende zu einer „Blogvermarktung“ dieses Blogs kommt bezweifle ich doch sehr. Bannerwerbung in einem Unternehmensblog passt nicht und auch Links können wir hier nicht verkaufen. Was die SEO-Fraktion als sicheren Weg aus der Ein-Bier-Krise sieht ist für die Blogger-Welt mit einer Reliquien-Entweihung vergleichbar.  Vielleicht schnürt die SEO-Fraktion am Jahresende ein paar Care-Pakete, damit die meisten Blogger durch den Winter kommen um auch auf der 7. re:publica eine Session „Blogvermarktung“ ohne großartige neue Erkenntnisse anzubieten. Mich würde es freuen!

Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)

Google Webmaster Tools und Google Webmaster Richtlinien

Dies ist der erste Artikel zu einer dreiteiligen Artikelserie zu den Google Webmaster Richtlinien – in Teil 2 wird die Thematik „Webmaster Richtlinien zum technischen Aufbau von Webinhalten“ und in Teil 3 „Webmaster Richtlinien zur Qualität“ angesprochen. Begonnen wird nachfolgend mit dem Thema „Webmaster Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts„. „Richtlinien zur Gestaltung von Webinhalten: Aufbau des Inhalts (Teil 1)“ weiterlesen

E-Mail-Ärger: Kettenbriefe, Vermisstenmeldungen und Knochenmarkspenden

Sicher haben Sie auch schon einmal eine solche Mail in der Mailbox gehabt:

Ganz DRINGEND!!!! sollen Sie diese Mail an alle Freunde und Bekannte und überhaupt Ihr ganzes Adressbuch weiter leiten. Dabei sind die Themen dieser Mails meist in einem dieser beiden Bereiche zu finden: Empörung stiften oder spontane Hilfe leisten. Also Gründe, die uns über unser Gewissen dazu verleiten, schnell zu reagieren. So schnell, dass wir gar nicht erst daran denken zu hinterfragen, was sich eigentlich genau hinter so einer Mail verbirgt.

Die Geschichten sind meistens ebenso dramatisch wie unterschiedlich:

    • Ein verschwundenes Kind
    • Eine dringend benötigte Knochenmarkspende
    • Viren, die dabei sind, das Internet aufzufressen
    • Firmen, die Spenden entrichten, wenn genug Mails zusammen kommen
    • Lotterie oder andere Gewinne
    • Erbschaften von dubiosen Adeligen, die in Scheckbetrug münden

Warum werden solche Mails verschickt?

Meistens handelt es sich um sogenannte Hoaxe. Das englische Wort Hoax, das vom altenglischen Hocus abstammt, bedeutet soviel wie Scherz oder Veralberung. Sie werden von Menschen initial verschickt, die Spaß daran haben, andere zu verwirren und zu verunsichern.
Darüber hinaus gibt es dann noch die Art von Hoax-Mails, die einen betrügerischen Hintergrund haben und die Empfänger in der Hoffnung auf das schnelle Geld ermutigen, Schecks zu versenden oder internationale Überweisungen zu tätigen.
Und natürlich den guten alten Kettenbrief, der dem Empfänger unglaubliches Glück bringt, wenn er ihn weiter leitet und natürlich ganz großes Unglück verheißt, wenn nicht.

Neben den kriminellen Hintergründen ist bei diesen E-Mails vor allem bedenklich, wie viel Arbeitszeit, Interenttraffic und damit auch Energie verbraucht wird.
Genaue Zahlen zu Hoax-Mails habe ich zwar nicht finden können, aber da Hoaxe auch zum Spam gehören, hier einige Zahlen zu den Auswirkungen von Spam aus dem entsprechenden Wikipedia-Artikel:

Durch Spam entsteht allein in den Vereinigten Staaten pro Jahr ein Schaden von 22 Milliarden US-Dollar. Nach einer 2009 erstellten Studie verbrauchen 62 Billionen Spam-Mails jährlich zirka 33 Milliarden Kilowattstunden Energie sowie 100 Milliarden Stunden Arbeitszeit zum Sichten und Löschen der Spam-Mails.Demnach macht Spam mittlerweile je nach Schätzung 89 bis 97 % des gesamten E-Mail-Volumens aus.

Wie lassen sich Hoaxe erkennen?

Google ist meistens die einzig nötige Prüfung. Googlen Sie eindeutige Begriffe aus der Hoax-Meldung. Die ersten Ergegbnisse bringen meistens schon Aufschluss darüber, ob der Inhalt einer Mail nicht weiter beachtet und auf keinen Fall weiter geschickt werden sollte. Vermisstenmeldungen oder Bitten um Knochenmarkspenden führen bspw. oft auf Zeitungsartikel, die erklären, dass der entsprechenden Person schon lange geholfen wurde.

Zwei weitere exzellente Anlaufstellen sind der Hoax-Info-Dienst der Technischen Uni Berlin und die englischsprachige Seite Snopes.com,  die neben Hoaxes auch urbane Legenden und Verschwörungstheorien aufklärt.

Der gleichen Prüfung sollten Sie übrigens auch Meldungen aus Social Networks unterziehen. Auch dort mehren sich vermeintliche Gewinne, Hilfsmeldungen usw., die sich allerdings auch noch automatisch in Ihrem Kontaktnetzwerk verbreiten.

Danke an Selbstmanagement und XING Experte Oliver Gassner für die Anregung, das Thema mal wieder aufzugreifen

Wie erkenne ich, wann der Googlebot eine Website gecrawlt hat?

Im Zuge der Aktualisierung der Descriptions auf einer Website stellte sich mir die Frage, warum die neuen Descriptions auch 14 Tage nach Veröffentlichung noch nicht in den Google-Suchergebnissen erschienen sind. Auf Nachfrage  bei unserem SEO-Experten Ferit zeigte sich, dass der Googlebot zuletzt vor ca. drei Wochen auf der Website vorbeigeschaut hatte und die neuen Descriptions daher noch nicht berücksichtigt wurden.

Wie aber stellt man fest, wann der Googlebot die Website zuletzt gecrawlt hat? Wie vieles ist auch das recht einfach, wenn man es nur weiß: man sucht die betreffende Website über ein passendes Keyword in Google, z.B. „comspace cms“ für die Seite Content Management Systeme bei comspace. Dann fährt man mit der Maus über den Doppelpfeil rechts vom Suchergebnis, so dass die Seitenvorschau der Ergebnisseite angezeigt wird.

 Im Kopf der Seitenvorschau erkennt man die Worte „Im Cache“ (im Sreenshot rot markiert). Klickt man darauf, erscheint nun die Ergebnisseite mit einem Textkasten darüber, in dem man nachlesen kann, an welchem Tag und um welche Uhrzeit Google sich diese Seite zuletzt angeschaut hat, in diesem Fall am 22. April um 13:32 Uhr.

Ist Klout eine verlässliche Messgröße für den Einfluss von Social Media Nutzern?

„Ich hab Dich mal eben geklout ist momentan eine beliebte Nachricht, die sich Social Web Nutzer schicken, um darauf hinzuweisen, dass man jemandem ein +K vergeben hat. Ein +K ist eine Bestätigung, eine Punktevergabe die demonstriert, dass ein Nutzer in einem definierten Thema besonderen Web-Einfluss hat. Klout misst Reichweite, Einfluss, Anzahl von Kontakten, wer sich mit wem zuletzt ausgetauscht – also beeinflusst – hat aus unterschiedlichen Social Networks und erechnet daraus für jeden Social Web Nutzer einen persönlichen Score (übrigens ohne den entsprechenden Nutzer vorher um Erlaubnis zu bitten, doch mehr dazu weiter unten).

In der Modebranche könnte ein hoher Klout-Wert bald vergleichbar oder sogar wertvoller sein als der gute, alte Promistatus, wie die ZEIT im März berichtete. Statt Stars sitzen dann bei den Designern Social Media Nutzer in der ersten Reihe. Stars werden zwar von den herumlaufenden Pressefotografen geknipst und machen damit ein Modelabel kurzfrisitg bekannt. Die nach möglichst hohem Klout-Score ausgewählten Web-Leute sorgen dagegen durch ihre eigene Reichweite für Aufmerksamkeit und Verbreitung.

Kann man Social Web Einfluss als einen Wert darstellen?

Sowohl Klout als auch seine Wettbewerber Peerindex und Kred geben sich eher bedeckt, was die Berechnung der Scores angeht. Was also genau „gemessen“ wird, ist gar nicht klar. Web-Guru Brian Solis sagt deswegen auch, es wird mehr das Potenzial zur Einflussnahme analysiert als tatsächlicher Einfluss.

Viel mehr sollte man sich folgende Frage aus Soli’s Artikel stellen: In welchem Zusammenhang ist Einfluss und Reichweite von Social Media Nutzern für mein Unternehmen von Wert?

Wenn diese Frage beantwortet ist, fällt es deutlich einfacher, Dienste wie Klout zu nutzen, um detailliertere Einordnungen von Social Web Nutzern vorzunehmen:

  • Auf welchen Plattformen sind sie aktiv und mit welcher Nutzungsintensität?
  • Sind die Zielgruppen, die von den Influencern erreicht werden, auch für uns interessant?
  • Schaffen sie eigene Inhalte oder verbreiten sie eher vorhandene Inhalte? usw.
  • Welche unserer Inhalte nutzen sowohl den Influencern, als auch deren Publikum und Zielgruppe?
  • Können wir unsere Ziele durch Ansprache einflussreicher Nutzer besser erreichen?

Die Nutzung von Diensten wie Klout in Deutschland

Was Dienste angeht, die Nutzerdaten auswerten, analysieren, kombinieren und in neuen Kontexten darstellen, müssen wir in Deutschland natürlich immer mit dem großen Spielverderber „Datenschutz“rechnen. Insbesondere, weil Klout die o.g. Daten nicht erst sammelt, wenn der Nutzer es Klout ausdrücklich erlaubt – die Daten werden dauerhaft erhoben und den bei Klout bereits angemeldeten Kontakten präsentiert: „Ihr Kontakt XYZ ist noch nicht bei Klout. Sein Klout-Score beträgt XX – möchten Sie Ihren Kontakt zu Klout einladen?“.

Die Kollegen bei t3n haben Klout daher einmal durchaus kritisch beleuchtet und sich die Frage gestellt, ob Klout eventuell sogar illegal in der EU ist.

Meine persönliche Meinung ist, dass Dienste dieser Art durchaus eine Hilfe sein können, neben den bekannten und „üblichen Verdächtigen“ im Netz, die sich mit bestimmten Themen beschäftigen, neue Ansprechpartner zu finden. Allerdings immer nur als grobe Anhaltspunkte. Auch im Social Web gilt:

Nichts geht über persönliche Kontakte, die eine Verlängerung ins Web haben.

Social TV: Der Trend geht zum 2. Bildschirm

ToDo fürs Wochenende: Vernetztes Fernsehen ausprobieren.

iPod Magic Second Screen

Wenn ein Thema im ZDF Morgenmagazin angekommen ist, dann ist es auch so gut wie im Mainstream angekommen 🙂 In diesem Fall ist es der Trend des „Second Screen“ und meint, dass wir beim fernsehen meist noch einen zweiten Bildschirm in der Hand haben: Smartphone, Tablet und manche auch den guten, alten Laptop.

Die Jungs vom StartUp Couchfunk haben letztens dazu diese Sendung des ZDF Morgenmagazins herum geschickt, in der unter anderem auch Couchfunk besprochen wurde, das über diesen Zweit-Bildschirm ermöglicht, über das gerade geschaute Programm zu diskutieren. Dabei ist Couchfunk extrem aktiv in der Weiterentwicklung der App gemeinsam mit seinen Nutzern .

Ich frage mich ja, wie lange es dauern wird, bis Social Signals aus Twitter, Facebook und Konsorten in die Berechnung der Einschaltquoten einfließen und damit auch relevant für die Werbung werden. Etwas besseres kann einem Werbespot doch nicht passieren, als im Web diskutiert und weiter verteilt zu werden – wie es traditionell bereits seit einigen Jahren mit den Werbespots in der Pause des Super Bowl Finale passiert.

Hier könnte man sich sogar vorstellen, dass nicht nur Predictive behavioral Targeting (Wikipedia-Link) greift, das wir bereits schon einmal kurz hier auf dem Blog angerissen haben, sondern eine semantische Auswertung der Diskussionen möglich wird, wie es YouTube im Februar 2012 bereits vorgemacht hat: Dort hat man den Comedy-Gehalt der Videos am Inhalt bestimmert Schlüsselbegriffe wie LOL, ROFL usw. in den Kommentaren gemessen. Sind die Äußerungen in der Diskussion positiv oder negativ? Witzig, ernst oder anders emotional gefärbt usw.

Übrigens: Wenn zum zweiten Screen noch ein dritter dazu kommt, wird es magisch:

iPod Magic found by yinnyang

Schönes Wochenende! 🙂

Problemlösung: Firefox Schrift und WebFonts korrekt darstellen

Gut, wenn man Kollegen hat, die sich auskennen. Seit Tagen hatte ich nach einer Neuinstallation des Firefox Probleme mit der Darstellung von Schriftarten. Die Fonts sahen ausgefranst und alles andere als schön aus.

Aufgefallen war es mir zuerst hier auf dem Blog, aber auch auf anderen Webseiten wurden die Schriftarten fehlerhaft und unscharf dargestellt.

Auf gut Glück fragte ich gerade unseren IT-Service Mann Ufuk, ob er das Problem kennt.

„Klar, du musst nur in den Firefox Einstellungen unter Erweitert im Reiter „Allgemein“ das Häkchen bei „Hardware-Beschleunigung verwenden, wenn verfügbar“ entfernen und den Fuchs neu starten, dann sollten die Schriften wieder OK aussehen.“

Firefox Fonts - Fehlerhafte Darstellung

Was soll ich sagen:
Hat geklappt und ich musste den Browser nicht einmal neu starten 🙂 Einfach mal die Leute fragen, die Bescheid wissen. Da spart man sich stundenlanges Googlen.

HTTP-Cookies: Warum erkennt mich diese Internetseite wieder?

Als unbedarfter Netzreisender trifft man auf seinen Erkundungen immer wieder auf Phänomene, die meist als gegeben akzeptiert werden. Eines dieser Dinge möchte ich heute ansatzweise erklären: Den HTTP-Cookie.

Wie arbeitet ein Cookie?

Schon vor der Verbreitung des Internet bezeichnete man in der Informatik kleine Datenmengen für den Informationsaustausch zwischen Programmen oder zur kurzzeitigen Speicherung als Cookie – zu Deutsch schlicht „Keks“. Dies ist genau das, was auch HTTP- oder Browsercookies leisten, denn sie werden von Webseiten genutzt, um zeitlich begrenzt im Browser des Besuchers kleine Informationshäppchen abzuspeichern. Bei erneuten Besuchen auf dem Webserver schickt der Browser jedes gültige Häppchen, das er für diese Internetadresse vorliegen hat, wieder zurück zum Webserver. Dort wird es ausgelesen und – oft zur Identifikation des Besuchers – weiterverarbeitet.

Wie kann ich mich von Cookies trennen?

Kekse sind nur für eine begrenzte Zeit genießbar, das ist in der Online- wie Offlinewelt ähnlich. Welches Haltbarkeitsdatum auf die Verpackung gedruckt wird, entscheidet im Internet zwar ausschließlich der Webseitenbetreiber, der Konsument kann die Cookies aber auch früher entsorgen, wenn er das möchte.

Wie diese Entsorgung vonstatten geht, unterscheidet sich wie bei den meisten Themen von Programm zu Programm, weshalb ich das Vorgehen in den gängigsten Browsern einmal hier aufführe:

Firefox ab Version 7 (Windows/Linux)

  1. Drücken Sie die Tastenkombination [Strg] + [Umschalt] + [Entf]
  2. Für den Zeitraum wählen Sie „Alles“ aus
  3. Falls die erweiterten Optionen nicht angezeigt werden, aktivieren Sie diese mit einem Klick auf das Knöpfchen neben „Details“
  4. Im unteren Bereich aktivieren Sie das Kontrollkästchen „Cookies“
  5. Ihre Auswahl bestätigen Sie mit einem Klick auf „Jetzt löschen“

Chrome/Chromium

  1. Klicken Sie im Menü mit dem Schraubenschlüssel auf „Tools“ -> „Internetdaten löschen“.
  2. Wählen Sie das Kontrollkästchen für Cookies aus
  3. Bestätigen Sie mit einem Klick auf „Internetdaten löschen“

Safari MacOS / Windows

  1. Klicken Sie im Menü „Safari“ (für Windows: „Bearbeiten“) auf „Einstellungen“
  2. Im Bereich „Sicherheit“ klicken Sie auf „Cookies anzeigen“
  3. Mit einem Klick auf „Alle entfernen“ werden Ihre Cookies gelöscht

Internet Explorer 9 & Internet Explorer 8

  1. Drücken Sie die Tastenkombination [Strg] + [Umschalt] + [Entf]
  2. Haken Sie das Kontrollkästchen „Cookies“ an
  3. Ein Klick auf „Löschen“ bestätigt Ihre Auswahl

Internet Explorer 7

  1. Blenden Sie, falls nötig, das Anwendungsmenü mit Drücken der Taste [Alt] ein.
  2. Unter „Extras“ klicken Sie im Menü auf „Cookies Löschen“
  3. Mit einem Klick auf „Ja“ bestätigen Sie das Vorhaben.

Opera

  1. Im Menü „Einstellungen“ klicken Sie auf „Internetspuren löschen“. Alternativ drücken Sie nacheinander die Tasten [Alt], [i], [i].
  2. Haken Sie die beiden Kontrollkästchen, für (Sitzungs-)Cookies an.
  3. Bestätigen Sie Ihre Auswahl mit einem Klick auf „Löschen“.