02.12.2012 Aufrufe

Archiving websites Archivierungskonzept für das Intranet der Dresdner

Archiving websites Archivierungskonzept für das Intranet der Dresdner

Archiving websites Archivierungskonzept für das Intranet der Dresdner

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Archivierung von Webseiten<br />

durch „The Internet Archive“, die Archivierung des schwedischen Internets<br />

im Kulturarw3-Projekt, sowie die Gründung <strong>der</strong> Vereinigung EWA<br />

(European Web Archive) und <strong>der</strong> Vereinigung europäischer nationaler<br />

Bibliotheken NEDLIB (Networked European Deposit LIBrary) zur<br />

Entwicklung einer Infrastruktur <strong>für</strong> digitale Publikationen. Aus diesen<br />

Projekten <strong>der</strong> Zusammenarbeit gehen weitere Projekte hervor. Archive sind<br />

auf dem Fachgebiet noch eindeutig unterrepräsentiert. Es ist aber auch<br />

festzustellen, <strong>das</strong>s die Archivierung <strong>der</strong> Websites immer mehr zum Thema<br />

wird 13 .<br />

4.3 Herangehensweisen<br />

In den bereits laufenden Projekten zur Archivierung von Webseiten wird<br />

zwischen zwei Vorgehensweisen unterschieden. Die eine wird oft als<br />

„comprehensive approach“ 14 (vollständige Herangehensweise), die an<strong>der</strong>e<br />

als „selective approach“ (auswählende Herangehensweise) bezeichnet 15 .<br />

Die vollständige Herangehensweise stellt die Sichtweise von<br />

Computerfachleuten dar, <strong>der</strong>en Schwerpunkt es ist, eine Technologie zu<br />

benutzen, um Informationen zu verlinken. Hierbei liegt <strong>der</strong> Fokus auf <strong>der</strong><br />

Entwicklung von Suchmaschinen. Diese Strategie setzt bereits vorhandene<br />

Technik ein, die bei Suchmaschinen wie Google o<strong>der</strong> Altavista angewendet<br />

werden. Auf eine Anfrage des Benutzers wird mit einem „Web crawler“,<br />

auch „Web harvester“ (Engl: Ernter, von „Ernten“ abgeleitet) genannt, <strong>das</strong><br />

gesamte Web nach einem vordefinierten „web space“ durchsucht, z. B. *.de,<br />

*.com, *.dresdner.net. Das Ergebnis wird in einem Ranking dargestellt.<br />

Diese URL-Seiten werden „geholt“ und auf eingebettete Links analysiert.<br />

Das „Ernten“ von Webseiten wird erst beendet, wenn alle URLs des<br />

vordefinierten Bereichs abgefragt wurden.<br />

13 Vgl. Schmitz, Archivierung, 2002. Auch auf <strong>der</strong> Jahrestagung 2003 <strong>der</strong> Vereinigung<br />

deutscher Wirtschaftsarchivare e.V. berichtete Frau Dr. Helen Müller, <strong>das</strong>s <strong>das</strong> Historische<br />

Archiv <strong>der</strong> Bertelsmann AG sich mit dieser Problematik auseinan<strong>der</strong>setzen muss.<br />

14 Im Englischen wird diese Herangehensweise bezeichnet als „comprehensive approach“<br />

o<strong>der</strong> auch „bulk approach“. Julien Masanès beschreibt diese Strategie als eine „automatic<br />

harvesting policies“ (automatisch erntende Strategie). (Masanès, Web <strong>Archiving</strong>, 2001)<br />

15 Vgl. Masanès, Web <strong>Archiving</strong>, 2001; Lyman, <strong>Archiving</strong> WWW, 2002; Mannerheim,<br />

heritage, 2000.<br />

11

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!