We see the future of web archiving relying less on robots.txt file declarations geared toward search engines, and more on representing the web as it really was, and is, from a user’s perspective.
Mit der Wayback Machine bietet das Internet Archive ein Archiv des Internets an. Das zeigt, wie Internetseiten früher aussahen. Immer öfter wird das aber durch Einträge in einer robotx.txt unterbunden. Deswegen steuert das Archiv nun gegen.
Rund 600 Informationskategorien bezieht Facebook einem Bericht nach von großen Auskunfteien wie Acxiom oder Datalogix, um Anzeigen etwa auch auf das Einkommen der Nutzer zuzuschneiden. Da geschehe nicht transparent, rügen Bürgerrechtler.