Akquisition komplexer Lexeme aus Textkorpora / / Lothar Lemnitzer.

Aus der Verfügbarkeit großer Textkorpora ergeben sich für die maschinelle Sprachverarbeitung, für die Lexikographie und für das Information Retrieval neue Perspektiven. In dieser Arbeit werden Möglichkeiten aufgezeigt, mit Hilfe statistischer Verfahren zu verläßlichen Aussagen über die Existenz komp...

ver descrição completa

Na minha lista:
Detalhes bibliográficos
Superior document:Title is part of eBook package: De Gruyter DGBA Linguistics and Semiotics 1990 - 1999
VerfasserIn:
Place / Publishing House:Tübingen : : Max Niemeyer Verlag, , [2011]
Max Niemeyer Verlag, , [1997]
©1997
Ano de Publicação:2011
1997
Edição:Reprint 2010
Idioma:German
coleção:Reihe Germanistische Linguistik , 180
Acesso em linha:
Descrição Física:1 online resource (258 p.)
Tags: Adicionar Tag
Sem tags, seja o primeiro a adicionar uma tag!
Descrição
Other title:I-X --
1 Einleitung --
I Hintergrund --
2 Lexikon, Text und Grammatik --
3 Lexikalische und textuelle Zeichen --
II Korpusanalyse --
4 Gegenstand und Methoden der Untersuchung --
5 Fallstudien --
6 Das Computerlexikon von morgen --
III Anhang --
7 Literatur --
8 Glossar --
9 Häufigkeitslisten --
10 MLexD-Formalismus --
11 Document Type Definition für die FAZ-Zeitungsartikel
Resumo:Aus der Verfügbarkeit großer Textkorpora ergeben sich für die maschinelle Sprachverarbeitung, für die Lexikographie und für das Information Retrieval neue Perspektiven. In dieser Arbeit werden Möglichkeiten aufgezeigt, mit Hilfe statistischer Verfahren zu verläßlichen Aussagen über die Existenz komplexer lexikalischer Einheiten zu kommen. Zu diesen Lexikoneinheiten zählen Funktionswörter ebenso wie Kollokationen und feste Wendungen. Grundlage der Untersuchungen sind Textkorpora des Deutschen. Bei der Bewertung der Güte verschiedener statistischer Verfahren zeigt es sich, daß die Wahl eines Verfahrens von der konkreten Aufgabe abhängig ist. Anhand dreier Fallstudien - Abtönungspartikeln, Verbpartikeln und Pronomen - wird anschaulich dargelegt, welcher Erkenntnisgewinn für die lexikalische Arbeit aus der Wahl des geeigneten statistischen Verfahrens zu ziehen ist. Für die maschinelle Sprachverarbeitung und das Computerlexikon von morgen folgt, daß korpusgestützte lexikalische Arbeit fruchtbringender ist als die systematische Auswertung gedruckter Wörterbücher. Es wird auch gezeigt, wie orthographisch komplexe Lexikoneinheiten angemessen in einem Computerlexikon repräsentiert werden können. Mit einem um komplexe Einheiten bereicherten Lexikon sind auch Probleme der Worterkennung beim Information Retrieval und in der Lexikostatistik besser zu meistern.
The availability of extensive text corpora opens up new vistas for computer language processing and lexicography. This study points up ways of using statistic procedures to arrive at reliable statements on complex lexical units on the basis of their recurrent incidence in text corpora. Various statistic approaches are discussed and their quality compared. Finally, three case studies (taken from German-language corpora) are presented to demonstrate the potentialities and limitations displayed by machine acquisition of complex lexical units.
Formato:Mode of access: Internet via World Wide Web.
ISBN:9783110927986
9783110636895
ISSN:0344-6778 ;
DOI:10.1515/9783110927986
Acesso:restricted access
Hierarchical level:Monograph
Statement of Responsibility: Lothar Lemnitzer.