Wie arbeiten die (WebCrawler-) Automaten?
- Sammeln der Daten (gatherer, robot scooter, ...)
- Vorgaben: Einstiegs-URLs ins Internet
- Verfolgen der Links (Breitendurchlauf - Tiefendurchlauf)
- Übertragen der Daten
- erforderlich: CPU + Netzresourcen
- Anlegen einer Datenbank
- Indexieren ("verschlagworten") der Daten,
Schlüsselworte generieren
- nach Schlüsselwort-Tabellen, Thesaurus
- Meta-Tags
- automatisch/Volltext (Häufigkeitsverteilungen)
- erforderlich: Plattenplatz
- Anbieten der Abfrage-Schnittstelle
start
(C) RRZN, W.Sander-Beuermann