Capítulo 1: Selecionando palavras, frases, nomes e alguns conceitos

Neste capítulo vamos apresentar os conceitos básicos de processamento de texto utilizando a biblioteca spaCy. Você vai aprender sobre as estruturas de dados, como trabalhar fluxos de processamento (pipelines) treinados e como usá-los para prever anotações linguísticas do seu texto.

Chapter 2: Análise da dados em larga escala usando a biblioteca spaCy

Neste capítulo você desenvolverá novas habilidades ao extrair informações específicas de um grande volume de texto. Você vai aprender a otimizar o uso das estruturas de dados da spaCy e como criar estratégias combinadas de estatística e baseadas em regras para efetuar análises de textos de maneira eficiente.

Chapter 3: Fluxos (pipelines) de processamento

Neste capítulo apresentaremos os fluxos (pipelines) de processamento da spaCy. Você entenderá o que acontece nos bastidores quando você processa um texto. Vai aprender a escrever seus próprios componentes e adicioná-los ao fluxo de processamento, e também a usar atributos personalizados para adicionar metadados aos seus documentos, partições e tokens.

Chapter 4: Treinando um modelo de rede neural

Neste capítulo, você aprenderá a atualizar os modelos estatísticos da spaCy de maneira a adequá-los aos seus casos de uso, como por exemplo, prever um novo tipo de entidade em textos de comentários. Você treinará seu próprio modelo a partir do zero, e entenderá o ciclo de treinamento, bem como aprenderá algumas dicas sobre como ter sucesso em seus projetos de processamento de linguagem natural (PLN).

Sobre o curso

spaCy é uma biblioteca moderna em Python para Processamento de Linguagem Natural (PLN) em escala profissional. Neste curso online, gratuito e interativo, você aprenderá a utilizar a biblioteca spaCy para construir sistemas avançados de entendimento de linguagem natural, usando tanto estratégias baseadas em regras como aprendizado de máquina.

Sobre mim

Sou Ines, uma desenvolvedora principal da spaCy e co-fundadora da Explosion. Sou especialista em ferramentas modernas de Inteligência Artificial, Aprendizado de Máquina e Processamento de Linguagem Natural (PLN). E também amo construir coisas para a Internet.