Google & TiVo — WTF?

Boing Boing macht mich gerade auf einen Artikel in der LA Times aufmerksam: Google soll die TiVo Benutzerdaten bekommen. Der Clou daran sei folgendes:

Google promises that advertisers pay only when their ads are seen. But TiVo lets viewers fast-forward through commercials. Now, with TiVo’s data, collected from millions of digital video recorders across the country, Google can tell exactly which of those commercials are being bypassed.

Err..

Moment: TiVo loggt mit, wer wann an welcher Stelle vorspult? Das nenne ich dann mal einen Privacy-Fail. Oder gehen die einfach davon aus, dass aufgenommene Sendungen automatisch werbefrei angeschaut werden? Google bekomme die Daten auf jeden Fall anonymisiert — wobei das doch eigentlich noch das Killerfeature für Google sein könnte: Die Zusammenführung von Fernsehpräferenzen mit dem Web-Benutzerprofil…

Gesucht: Emailclient fürs Web

Eigentlich bin ich ja ein hochzufriedener Google Mail Nutzer. Riesiges Mailarchiv, einfache Zugänglichkeit, prima Suchfunktion, Labels, Thread-View, Komfortfunktionen, über Tastatur bedienbar, funktionierende Spam- und Virenfilter und vor allem natürlich die weltweise Verfügbarkeit, im Gegensatz zu einem lokal installierten Mailclient.

Natürlich, wo viel Licht, da ist auch Schatten: Alle Emails, Kontaktdaten, etcpp liegen bei Google, mit allen Konsequenzen davon. Zusätzlich fehlt mir die Möglichkeit der Verschlüsselung.

Die Frage ist jetzt, gibt es da vernünftige Alternativen?

Ein idealer Web-Mailclient muss aus meiner Sicht folgendes können:

  • sauberes und schnelles UI
  • auch große Mailmengen verwaltbar halten
  • https-Unterstützung
  • Thread-View
  • Spamfilter
  • Mailfilter
  • vernünftige Anhangsverwaltung
  • Unterstützung von PGP-Verschlüsselung
  • Bonus-Level: Das Mailarchiv auf dem Server ist verschlüsselt abgelegt.

Für Vorschläge wäre ich dankbar, ansonsten müsste ich nämlich unter (vielen!) Umständen OpenXP auf einem Linux-Server installieren und ein ssh-to-web-Gateway dahin einrichten…

Google 1 — Verleger 0

Und damit meine ich keinen „oh, Google ist böse und klaut“ Gewinn, sondern einen Argumentationssieg nach Punkten.

Wir erinnern uns, die Hamburger Erklärung richtet sich an die EU und wirft insbesondere Google vor die Verlage mittels Google News quasi zu enteignen:

Der freie Zugang zu unseren Angeboten soll erhalten bleiben, zum Verschenken unseres Eigentums ohne vorherige Zustimmung möchten wir jedoch nicht gezwungen werden

Genau, denn Google News greift böserweise und ungefragt und ohne jegliche Erlaubnis einfach die total wertvollen Inhalte von den Zeitungswebseiten ab und zeigt diese (trafficbringend auf den Originalartikel) auszugsweise an.

Tja, und wie reagiert Google?

Genau so, wie es sein sollte, mit einem hämischennüchternen simplen Verweis auf noch simplere existierende Technik:

For more than a decade, search engines have routinely checked for permissions before fetching pages from a web site. Millions of webmasters around the world, including news publishers, use a technical standard known as the Robots Exclusion Protocol (REP) to tell search engines whether or not their sites, or even just a particular web page, can be crawled.

Da muss NICHTS reguliert werden. Da braucht es NULL neue Gesetze. Nur Menschen in den Verlagen die sich entscheiden können zwischen „Wir müssen ganz oben bei Google stehen“ und „OMG, Google darf unsere Inhalte aber nicht zeigen!“

Das reicht.

Konfigurationslasten im Netz

Das Landgericht Hamburg hat mal wieder zugeschlagen: Googles Bildersuche ist urheberrechtswidrig, siehe auch Heise.de:

Das Gericht verbietet Google Deutschland, bestimmte Bilder als Thumbnail in der Suchergebnisliste zu zeigen.

Tja, streng nach deutschem Urheberrecht ist dem eben so. Generell ist die automatische Verwurstung von Inhalten fremder Webseiten immer etwas problematisch, sei es in Form einer Zusammenfassung in der Google Ergebnisliste, News-Aggregatoren oder beliebige Web-Mashups — stets wird mit den Inhalten anderer „Schindluder“ getrieben.

Internet-affine Menschen verweisen bei solchen Meldungen gerne mit dem Tonfall der Entrüstung auf die Möglichkeit der robots.txt und Suchmaschinen auszusperren. Diejenigen, die solche Entscheidungen wie die vom LG Hamburg anstrengen, denken aber wohl eher wie folgt:

Wieso muss ausgerechnet ich mich darum kümmern, wen ich gezielt aussperre? Eine Webseite ist meistens erst einmal „nur“ zum Anschauen durch Menschen gebaut, nicht um als Futter für Suchmaschinen zu dienen. Warum muss ich mich nun ständig schlau machen und Aufwand betreiben um festzustellen welche Roboter gerade unterwegs sind, und wie ich deren Treiben Einhalt gebieten kann?

Die (etwas holprige) Analogie ist doch diese:

Ich veröffentliche eine Zeitschrift, und gehe erst einmal davon aus, dass diese ohne meine Zustimmung eben nicht vervielfältigt wird. Ich muss keinen Extraaufwand treiben, um jedem Copyshop gesondert zu verbieten, bitteschön nicht meine Artikel zu kopieren und unters Volk zu werfen. Warum bitteschön muss ich das nun fürs Web machen? Warum muss ich die Wahrnehmung meiner Rechte stets explizit fordern?

Und irgendwie kann ich diesen Gedankengang verstehen. Warum gilt eigentlich nicht: Solange keine robots.txt da ist, die erklärt was automatisch indiziert werden darf, darf eben gar nichts indiziert werden, Punkt.

Stellen wir doch das System mal auf den Kopf: Suchmaschinen, Mashups, etc. indizieren wirklich nur das, was ihnen per robots.txt gestattet ist. Finden sie eine solche Datei nicht, ignorieren sie die Seite, fertig. Leute, die gefunden werden wollen, werden sich solche Dateien schnell zulegen, und können dann hinterher auch nicht meckern, dass sie gefunden wurden.

Leute, die einfach zu unbedarft waren, werden aber eben nicht gefunden/indiziert/ver-mashupt, und schützen den Rest der Welt damit aber eben auch vor lästigen Klagen.