Udemy

Platform

Português

Language

Data & Analytics

Category

Processamento de Linguagem Natural com Deep Learning

Crie um tradutor de idiomas e um classificador de sentimento com Transformer e Redes Convolucionais no TensorFlow 2.0

4.65 (119 reviews)

Processamento de Linguagem Natural com Deep Learning

Students

10 hours

Content

Jan 2021

Last Update
Regular Price


What you will learn

Crie um Transformer, nova arquitetura criada pelo Google para qualquer tarefa de sequência para sequência (por exemplo, um tradutor de idiomas)

Crie uma Rede Neural Convolucional especializada em Processamento de Linguagem Natural para qualquer tarefa de classificação (análise de sentimentos, por exemplo)

Personalize os métodos de treinamento de redes neurais no TensorFlow 2.0

Aprenda a criar camadas personalizadas no TensorFlow 2.0

Use o Google Colab e o Tensorflow 2.0 para suas implementações de Inteligência Artificial

Entenda como os algoritmos de inteligência artificial fazem com que os computadores dêem sentido à linguagem humana

Entenda sobre o mecanismo de atenção, por trás dos algoritmos de PLN mais novos e mais poderosos


Description

A área de Processamento de Linguagem Natural - PLN (Natural Language Processing - NLP) é uma subárea da Inteligência Artificial que tem como objetivo tornar os computadores capazes de entender a linguagem humana, tanto escrita quanto falada. Alguns exemplo de aplicações práticas são: tradutores entre idiomas, tradução de texto para fala ou fala para texto, chatbots, sistemas automáticos de perguntas e respostas, sumarização de textos, geração automática de descrições para imagens, adição de legendas em vídeos, classificação de sentimentos em frases, dentre várias outras!

Atualmente, este setor está cada vez mais necessitando de soluções de Processamento de Linguagem Natural, ou seja, aprender essa área pode ser a chave para trazer soluções reais para necessidades presentes e futuras. Baseado nisso, este curso foi projetado para quem deseja crescer ou iniciar uma nova carreira na área de Processamento de Linguagem Natural, obtendo uma sólida experiência nessa área utilizando modernas técnicas de Deep Learning e Redes Neurais Artificiais!

Aproveitaremos a enorme quantidade de dados de texto disponíveis on-line (duas bases de dados reais) e exploraremos duas das principais técnicas de PLN, o que lhe dará o poder necessário para enfrentar com êxito qualquer desafio do mundo real! O curso está dividido em duas partes:

  1. Criação de um classificador de sentimentos utilizando dados do Twitter e Redes Neurais Convolucionais

  2. Criação de um tradutor de idiomas, passando como entrada um texto em Inglês e tendo como retorno um texto em Português. Neste estudo de caso desenvolveremos passo a passo a arquitetura Transformer desenvolvida pelo Google

Utilizaremos tecnologias modernas, como a linguagem Python, o TensorFlow 2.0 e o Google Colab, garantindo que você não tenha problemas com instalações ou configurações de softwares na sua máquina local.

Preparado(a) para dar um importante passo na sua carreira? Aguardamos você no curso! :)


Content

Introdução

Boas-vindas e conteúdo do curso

Mais sobre Inteligência Artificial

Slides + recursos

Redes neurais convolucionais para PLN - intuição

Introdução a redes neurais convolucionais

Imagem para texto

Redes neurais convolucionais para PLN

Redes neurais convolucionais para PLN - implementação

Importação das bibliotecas

Carregamento da base de dados

Limpeza de dados 1

Limpeza de dados 2

Limpeza de dados 3

Limpeza de dados 4

Tokenização

Padding (preenchimento)

Divisão da base de dados

Construção do modelo 1

Construção do modelo 2

Configuração dos parâmetros da rede neural

Treinamento da rede neural

Avaliação do modelo 1

Avaliação do modelo 2

Previsões com novos textos

Arquitetura Transformer - intuição

Redes neurais recorrentes para PLN

Arquitetura Transformer

Mecanismo de atenção 1

Mecanismo de atenção 2

Mais detalhes sobre a arquitetura

Arquitetura Transformer - implementação

Importação das bibliotecas e base de dados

Limpeza dos dados

Tokenização

Remoção de sentenças muito longas

Padding e batches

Embedding

Mecanismo de atenção 1

Mecanismo de atenção 2

Encoder 1

Encoder 2

Decoder 1

Decoder 2

Transformer 1

Transformer 2

Treinamento 1

Treinamento 2

Treinamento 3

Treinamento 4

Avaliação 1

Avaliação 2

Anexo I - Redes Neurais Artificiais

Perceptron de uma camada

Redes multicamada - função soma e função de ativação

Redes multicamada - cálculo do erro

Descida do gradiente

Cálculo do parâmetro delta

Ajuste dos pesos com backpropagation

Bias, erro, descida do gradiente estocástica e mais parâmetros

Funções de ativação I

Funções de ativação II

Anexo II - Redes neurais recorrentes

O que são redes neurais recorrentes

Problema do gradiente desaparecendo (vanish gradient problem)

Long short term memory - LSTM

Intuição prática

Variações de LSTM


Reviews

D
David17 June 2021

Ótimo curso. Transformers tem uma arquitetura bem complexa e pude aprender muito com o curso. Recomendo.

P
Paulo15 June 2021

Curso abordou muito bem o transformer, ilustrou bastante a arquitetura detalhadamente e principal ao transformer e recorrentes. Correções de bugs vale o respeito pois já nos gera visão do que está sendo tratado. Máximo respeito.

Y
Yan5 February 2021

o Curso é muito bom. Como sugestão, gostaria que você fizesse uma aula com a implementação do BLEU score para avaliarmos se o nosso model é bom.

K
Katharine25 December 2020

Nossa ... curso muito bom! Achei sensacional o modelo do tradutor. Com esse código, dá para treinar com outras línguas e fazer alterações para um melhor resultado, como sugerido pelo próprio professor!! Parabéns!! Muito bom

J
Jean17 November 2020

Excelente curso, Excelente professor! Pude absorver bastante o conteúdo e conseguir aplicar no meu Trabalho de Conclusão de Curso

C
Clébio25 August 2020

O curso como sempre foi muito bom. Eu não sabia como utilizar redes neurais convolucionais para processamento de textos, porém com este curso ficou bem mais claro.

P
Paulo28 July 2020

Gostei bastante do curso mas acredito que poderiam ter sido abordadas mais áreas de estudo em NLP (não somente a tradução e análise de sentimentos), tais como sumarização, reconhecimento de fala etc. A arquitetura Transfomer também é bastante pesada (complexa) e talvez alguns conceitos (tais os que foram referenciados em links) poderiam ter sido abordados com mais profundidade e para isso, quem sabe, um curso só para ela.


2789292

Udemy ID

1/31/2020

Course created date

2/16/2020

Course Indexed date
Bot
Course Submitted by