Donnerstag, 6. August 2020

Tokenisierung

Tokenisierung bezeichnet in der Computerlinguistik die Segmentierung eines Textes in Einheiten der Wortebene (manchmal auch Sätze, Absätze o. Ä.). Die Tokenisierung des Textes ist Voraussetzung für dessen Weiterverarbeitung, beispielsweise zur syntaktischen Analyse durch Parser, im Textmining oder Information Retrieval.

Quelle Wikipedia


Keine Kommentare:

Kommentar veröffentlichen

Resilienz

P sychische Widerstandskraft. Fähigkeit, schwierige Lebenssituationen ohne anhaltende Beeinträchtigung zu überstehen.