Als Wrapper bezeichnet man im Informatik-Teilbereich der Informationsextraktion eine Gruppe von speziellen Prozeduren zur automatischen Extrahierung von (semi-)strukturierten Daten aus einer bestimmten Datenquelle (Text). Dabei werden je nach Art der zu extrahierenden Datensätze unterschiedliche Wrapper benötigt. Im Zusammenhang mit Feature Subset Selection existieren zudem unterschiedliche Ansätze zur Auswahl einer optimalen Menge von Feature Subsets aus den Datensätzen.
Allgemeines
LR-Wrapper
Ein LR-Wrapper besteht aus abgrenzenden Paaren
foreach
- finde das nächste
- finde das nächste
- extrahiere den Text dazwischen und speichere ihn als -ten Wert des Tupels
Einschränkungen:
- Jedes muss ein "echtes" Suffix des Textes vor jeder Instanz des Zielobjekts sein. Echt heißt, es muss vor jeder Instanz stehen und darf nirgendwo anders vorkommen. Ansonsten werden falsche Tupel extrahiert.
- Jedes muss ein Präfix des Textes nach jeder Instanz des Zielobjekts sein. Ansonsten wird die Extraktion vorzeitig abgebrochen.
Quelle:
Weitere Wrapper
- HLRT-Wrapper (Head-Left-Right-Tail-Wrappers)
- Lerne einen eigenen Begrenzer für den Kopf und das Ende eines Dokumentes. Vor dem Head und nach dem Tail werden alle Vorkommnisse von ignoriert.
- OCLR- und HOCLRT-Wrapper
- Lerne für jedes Tupel ein eigenes Begrenzungspaar.
- N-LR- und N-HLRT-Wrapper
- Erlaube mehrwertige und optionale Attribute
Quelle:
Wrapper und FSS
Folgende einfache Möglichkeiten der Auswahl bestehen:
- Forward selection
- Starte mit einer leeren Menge von Features und füge immer das Feature hinzu, das die Accuracy am meisten erhöht, bis die Accuracy nicht mehr deutlich zunimmt.
- Backward elimination
- Starte mit allen Features und versuche ungeeignete zu entfernen.
- Simple heuristic search
- Füge ein Feature nach dem anderen hinzu, bis die Accuracy nicht mehr deutlich zunimmt.
Einschränkungen
- Keine Permutationen von Attributen möglich
- Die Begrenzungspaare sind evtl. nicht ausreichend zur Identifizierung von Texten
Um diese Probleme zu lösen, müssen andere Algorithmen zur Informationsextraktion verwendet werden, etwa ein nicht-deterministischer, adaptiver Mealy-Automat (z. B. SoftMealy), der diese Einschränkungen nicht besitzt.
Einzelnachweise
Literatur
- B. Chidlovskii, U. Borghoff, P. Chevalier: Towards sophisticated wrapping of web-based information repositories. In: Proceedings of the Conference on Computer-Assisted Information Retrieval. 1997, S. 123–155.
- M. Roth, P. Schwartz: Don’t scrap it, wrap it! In: Proceedings of the 22nd VLDB Conference. 1997, S. 266–275,