Capítulo 3: Pipelines de procesamiento

En este capítulo aprenderás todo lo que necesitas saber sobre el pipeline de procesamiento de spaCy. Aprenderás lo que sucede cuando procesas un texto, cómo escribir tus propios componentes y añadirlos al pipeline y cómo usar atributos personalizados para añadir tus propios metadatos a los documentos, spans y tokens.

1Pipelines de procesamiento

2¿Qué sucede cuando llamas al objeto nlp?

3Inspeccionando el pipeline

4Componentes personalizados del pipeline

5Casos prácticos para los componentes personalizados

6Componentes simples

7Componentes complejos

8Extensión de atributos

9Añadiendo extensiones de atributos (1)

10Añadiendo extensiones de atributos (2)

11Entidades y extensiones

12Componentes con extensiones

13Aumentando la escala y el desempeño

14Procesando streams

15Procesando datos con contexto

16Procesamiento selectivo

Sobre este curso

spaCy es un paquete moderno de Python para hacer Procesamiento de Lenguaje Natural de potencia industrial. En este curso en línea, interactivo y gratuito, aprenderás a usar spaCy para construir sistemas avanzados de comprensión de lenguaje natural usando enfoques basados en reglas y en machine learning.

Sobre mi

Soy Ines, una de las programadoras principales de spaCy y cofundadora de Explosion. Me especializo en herramientas modernas de desarrollo para AI, Machine Learning y NLP. También amo construir cosas para la web.