Konfigurationslasten im Netz

Das Landgericht Hamburg hat mal wieder zugeschlagen: Googles Bildersuche ist urheberrechtswidrig, siehe auch Heise.de:

Das Gericht verbietet Google Deutschland, bestimmte Bilder als Thumbnail in der Suchergebnisliste zu zeigen.

Tja, streng nach deutschem Urheberrecht ist dem eben so. Generell ist die automatische Verwurstung von Inhalten fremder Webseiten immer etwas problematisch, sei es in Form einer Zusammenfassung in der Google Ergebnisliste, News-Aggregatoren oder beliebige Web-Mashups — stets wird mit den Inhalten anderer „Schindluder“ getrieben.

Internet-affine Menschen verweisen bei solchen Meldungen gerne mit dem Tonfall der Entrüstung auf die Möglichkeit der robots.txt und Suchmaschinen auszusperren. Diejenigen, die solche Entscheidungen wie die vom LG Hamburg anstrengen, denken aber wohl eher wie folgt:

Wieso muss ausgerechnet ich mich darum kümmern, wen ich gezielt aussperre? Eine Webseite ist meistens erst einmal „nur“ zum Anschauen durch Menschen gebaut, nicht um als Futter für Suchmaschinen zu dienen. Warum muss ich mich nun ständig schlau machen und Aufwand betreiben um festzustellen welche Roboter gerade unterwegs sind, und wie ich deren Treiben Einhalt gebieten kann?

Die (etwas holprige) Analogie ist doch diese:

Ich veröffentliche eine Zeitschrift, und gehe erst einmal davon aus, dass diese ohne meine Zustimmung eben nicht vervielfältigt wird. Ich muss keinen Extraaufwand treiben, um jedem Copyshop gesondert zu verbieten, bitteschön nicht meine Artikel zu kopieren und unters Volk zu werfen. Warum bitteschön muss ich das nun fürs Web machen? Warum muss ich die Wahrnehmung meiner Rechte stets explizit fordern?

Und irgendwie kann ich diesen Gedankengang verstehen. Warum gilt eigentlich nicht: Solange keine robots.txt da ist, die erklärt was automatisch indiziert werden darf, darf eben gar nichts indiziert werden, Punkt.

Stellen wir doch das System mal auf den Kopf: Suchmaschinen, Mashups, etc. indizieren wirklich nur das, was ihnen per robots.txt gestattet ist. Finden sie eine solche Datei nicht, ignorieren sie die Seite, fertig. Leute, die gefunden werden wollen, werden sich solche Dateien schnell zulegen, und können dann hinterher auch nicht meckern, dass sie gefunden wurden.

Leute, die einfach zu unbedarft waren, werden aber eben nicht gefunden/indiziert/ver-mashupt, und schützen den Rest der Welt damit aber eben auch vor lästigen Klagen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.