Udemy

Platform

中文

Language

Data Science

Category

Python自然语言处理-BERT实战

NLP-BERT实战

4.05 (44 reviews)

Students

8 hours

Content

Feb 2020

Last Update
Regular Price


What you will learn

掌握NLP当下核心算法模型

熟练掌握Transformer网络架构

熟悉注意力机制的作用(Attention)

熟练掌握BERT模型原理及应用

熟练使用谷歌开源项目BERT

基于BERT开源模型构建自己的项目

将预训练模型应用到自己的任务中

熟悉当下NLP常规解决方案


Description

Python自然语言处理-BERT模型实战课程旨在帮助同学们快速掌握当下NLP领域最核心的算法模型BERT的原理构造与应用实例。通俗讲解BERT模型中所涉及的核心知识点(Transformer,self-attention等),基于google开源BERT项目从零开始讲解如何搭建自然语言处理通用框架,通过debug源码详细解读其中每一核心代码模块的功能与作用。最后基于BERT框架进行中文情感分析与命名实体识别等主流项目实战。


Screenshots

Python自然语言处理-BERT实战
Python自然语言处理-BERT实战
Python自然语言处理-BERT实战
Python自然语言处理-BERT实战

Content

自然语言处理通用框架BERT原理解读

课程简介

BERT任务目标概述

课程数据代码下载(谷歌网盘)

传统解决方案遇到的问题

注意力机制的作用

self-attention计算方法

特征分配与softmax机制

Multi-head的作用

位置编码与多层堆叠

transformer整体架构梳理

BERT模型训练方法

训练实例

谷歌开源项目BERT源码解读与应用实例

BERT开源项目简介

项目参数配置

数据读取模块

数据预处理模块

tfrecord制作

Embedding层的作用

加入额外编码特征

加入位置编码特征

mask机制

构建QKV矩阵

完成Transformer模块构建

训练BERT模型

项目实战-基于BERT的中文情感分析实战

中文分类数据与任务概述

读取处理自己的数据集

训练BERT中文分类模型

项目实战-基于BERT的中文命名实体识别实战

命名实体识别数据分析与任务目标

NER标注数据处理与读取

构建BERT与CRF模型

必备基知识点-word2vec模型通俗解读

词向量模型通俗解释

模型整体框架

训练数据构建

CBOW与Skip-gram模型

负采样方案

必备基础-Tensorflow实现word2vec模型

数据与任务流程

数据清洗

batch数据制作

网络训练

可视化展示

必备基础-RNN网络架构与情感分析应用实例

RNN网络模型解读

NLP应用领域与任务简介

项目流程解读

加载词向量特征

正负样本数据读取

构建LSTM网络模型

训练与测试效果

必备基础-医学糖尿病数据命名实体识别

数据与任务介绍

整体模型架构

数据-标签-语料库处理

输入样本填充补齐

训练网络模型

医疗数据集(糖尿病)实体识别


2683950

Udemy ID

12/2/2019

Course created date

12/5/2019

Course Indexed date
Bot
Course Submitted by