Kapitel 3: Pipelines für Textverarbeitung

In diesem Kapitel geht es um alles, was du über spaCys Pipelines für Textverarbeitung wissen musst. Du lernst, was hinter den Kulissen passiert, wenn du einen Text verarbeitest, wie du deine eigenen Komponenten erstellen und sie zur Pipeline hinzufügen kannst, und wie du benutzerdefinierte Attribute nutzen kannst, um deine eigenen Metainformationen zu Dokumenten, Spans und Tokens hinzuzufügen.

1Pipelines für Textverarbeitung

2Was passiert, wenn du nlp ausführst?

3Pipeline inspizieren

4Benutzerdefinierte Pipeline-Komponenten

5Anwendungsbereiche für benutzerdefinierte Komponenten

6Einfache Komponenten

7Komplexe Komponenten

8Erweiterte Attribute

9Erweiterungen festlegen (1)

10Erweiterungen festlegen (2)

11Entitäten und Erweiterungen

12Komponenten mit Erweiterungen

13Skalieren und Performance

14Verarbeitung von Streams

15Verarbeitung von Daten mit Kontext

16Selektive Verarbeitung

Über diesen Kurs

spaCy ist eine moderne Python-Bibliothek für industriestarkes Natural Language Processing. In diesem kostenlosen und interaktiven Onlinekurs lernst du, mithilfe von spaCy fortgeschrittene Systeme für die Analyse natürlicher Sprache zu entwickeln und dabei sowohl regelbasierte Verfahren, als auch moderne Machine-Learning-Technologie einzusetzen.

Über mich

Ich bin Ines, eine Hauptentwicklerin von spaCy und Gründerin von Explosion. Mein Spezialgebiet sind moderne Entwicklertools für KI, Machine Learning und NLP. Ich baue außerdem supergern Dinge fürs Web.