小象-自然语言处理算法精讲课程介绍:
NLP中的算法复杂,应用场景多变,涉及数学,哲学,语言学等多类学科,理解起来很抽象,通过学习,你将掌握包括文本分析,语义分析和机器翻译等技术在内的自然语言处理核心技能,在课程中学到的理论推导和算法应用能直接丰富你的硬实力,打磨自然语言处理的专业技能
课程大纲:
课程目录:
——/XX-自然语言处理/ ├──01-第1章:自然语言与数学之美 | ├──1.1 课程简介及推荐书目.flv 9.91M | ├──1.10 凸集合和凸函数.flv 6.51M | ├──1.2 NLP的研究领域及应用.flv 12.59M | ├──1.3 自然语言的6个重要术语.flv 6.07M | ├──1.4 语言学的发展史 1.flv 27.07M | ├──1.5 语言学的发展史 2.flv 19.80M | ├──1.6 语言学的发展史 3.flv 24.63M | ├──1.7 函数.flv 8.97M | ├──1.8 向量与向量的模.flv 11.48M | └──1.9 矩阵和矩阵运算.flv 11.88M ├──02-第2章:基于机器学习方法的自然语言处理 | ├──2.1 主观概率和客观概率.flv 8.11M | ├──2.10 辛普森悖论和贝叶斯概率解题实例.flv 21.80M | ├──2.2 概率模型与条件概率.flv 12.63M | ├──2.3 贝叶斯原理与推理.flv 18.30M | ├──2.4 随机变量:二项式概率.flv 15.09M | ├──2.5 随机变量:期望与方差.flv 10.85M | ├──2.6 随机变量:联合概率.flv 3.33M | ├──2.7 伯努利分布和二项式分布.flv 12.97M | ├──2.8 多项式分布、伽玛分布和Beta分布.flv 9.12M | └──2.9 泊松分布、高斯分布、对数正态分布和指数分布.flv 11.25M ├──03-第三章:1、2章答疑 | └──第一周答疑.flv 85.58M ├──04-第四章:自然语言 | ├──3.1 语言的进化:来自自然选择的社会协作.flv 20.40M | ├──3.2 语言的进化:语言游戏与摩斯密码.flv 13.31M | ├──3.3 语言与智能:信息熵.flv 15.22M | ├──3.4 语言与智能:交叉熵的定义.flv 21.51M | ├──3.5 语义的进化.flv 20.31M | ├──3.6 语言模型:语言概率.flv 7.07M | ├──3.7 词袋模型.flv 10.35M | └──3.8 二元语言模型:CR情感分析.flv 27.54M ├──05-第5章:语言模型和中文分词 | ├──4.1 三元语言模型.flv 18.06M | ├──4.10 N-Gram模型.flv 3.34M | ├──4.11 Optimal Path 最优路径模型.flv 1.56M | ├──4.12 中文分词工具:Jieba.flv 8.40M | ├──4.2 语言模型评价:交叉熵.flv 8.43M | ├──4.3 语言模型评价:Perplexity(困惑度).flv 9.47M | ├──4.4 语言评价模型:Interpolation(插值法).flv 5.13M | ├──4.5 概率模型:垃圾邮件分类.flv 17.99M | ├──4.6 概率模型:拼写检查.flv 29.38M | ├──4.7 语音模型和机器翻译模型.flv 5.43M | ├──4.8 中文构词法.flv 13.87M | └──4.9 最大化匹配.flv 3.25M ├──06-第6章:第二周答疑 | └──第二周答疑.flv 140.36M ├──07-第7章:语言技术-词表达和Word2Vec | ├──5.1 词表达.flv 6.30M | ├──5.10 Word2Vec-Part 3.flv 23.82M | ├──5.2 语义相似度.flv 12.01M | ├──5.3 TF-IDF权重处理.flv 5.17M | ├──5.4 One-Hot表达.flv 5.28M | ├──5.5 神经网络基础.flv 15.30M | ├──5.6 神经网络:反向传播 1.flv 9.05M | ├──5.7 神经网络:反向传播 2.flv 19.26M | ├──5.8 Word2Vec-Part 1.flv 21.52M | └──5.9 Word2Vec-Part 2.flv 25.45M ├──08-第8章:语言技术-词性 | ├──6.1 什么是词性标注(POS Tagging).flv 7.61M | ├──6.10 混合模型详解5:隐马尔科夫模型.flv 21.36M | ├──6.2 词性标注的方法.flv 7.21M | ├──6.3 词性的标注类别和标注集.flv 9.38M | ├──6.4 规则标注和N-Gram方法.flv 6.02M | ├──6.5 从混合模型到HMM.flv 14.31M | ├──6.6 混合模型详解1:EM模型.flv 32.65M | ├──6.7 混合模型详解2:EM模型.flv 22.88M | ├──6.8 混合模型详解3:高斯混合模型.flv 16.78M | └──6.9 混合模型详解4:隐马尔可夫模型.flv 21.71M ├──09-第9章:第三周答疑 | └──第三周答疑.flv 28.43M ├──10-第10章:语言技术-概率图模型 | ├──7.1 概率图模型:贝叶斯网络(有向无环图).flv 8.31M | ├──7.2 概率图模型:分层图模型.flv 4.04M | ├──7.3 概率图模型:隐马尔科夫链.flv 3.68M | ├──7.4 隐马尔可夫模型的推导 1.flv 25.84M | ├──7.5 隐马尔科夫模型的推导 2.flv 25.88M | ├──7.6 隐马尔科夫模型的推导 3.flv 33.31M | ├──7.7 隐马尔科夫模型的推导 4.flv 29.12M | ├──7.8 PLSA主题模型1.flv 11.97M | └──7.9 PLSA主题模型 2.flv 11.25M ├──11-第11章:语言技术-文本与LDA主题模型 | ├──8.1 向量表达和潜在语义索引(LSI).flv 6.56M | ├──8.10 实验报告:文本语义相似度.flv 5.83M | ├──8.11 延展实验:主题模型引入字词关系的实现.flv 15.36M | ├──8.12 实验总结.flv 5.26M | ├──8.2 LDA和狄利克雷分布.flv 17.13M | ├──8.3 LDA主题模型.flv 24.67M | ├──8.4 主题模型的深化与对比.flv 18.30M | ├──8.5 语义距离(Semantic Distance).flv 6.84M | ├──8.6 中文LDA模型:Word-base 和 Character-Base.flv 6.91M | ├──8.7 实验报告:困惑度(Perplexity).flv 3.48M | ├──8.8 实验报告:文本分类准确度.flv 8.13M | └──8.9 中英双语料库实验.flv 3.45M ├──12-第12章:第四周答疑 | └──第四周答疑.flv 51.72M ├──13-第13章:语言技术-句法 | ├──9.1 上下文无关句法(CFG)-Part 1.flv 31.42M | ├──9.2 上下文无关句法(CFG)-Part 2.flv 30.86M | ├──9.3 概率上下文无关句法(PCFG)- Part 1.flv 59.30M | ├──9.4 概率上下文无关句法(PCFG)-Part 2.flv 31.32M | └──9.5 概率上下文无关句法(PCGF)-Part 3.flv 43.95M ├──14-第14章:机器翻译 | ├──10.1 机器翻译(Machine Translation)-Part 1.flv 15.03M | ├──10.2 机器翻译(Machine Translation)-Part 2.flv 18.25M | ├──10.3 机器翻译(Machine Translation)-Part 3.flv 37.06M | ├──10.4 机器翻译(Machine Translation)-Part 4.flv 26.51M | ├──10.5 机器翻译(Machine Translation)-Part 5.flv 34.76M | └──10.6 机器翻译(Machine Translation)-Part 6.flv 39.90M ├──15-第15章:第五周答疑 | └──第五周答疑.flv 30.24M ├──16-第16章:卷积神经网络CNN | ├──11.1 神经元.flv 5.54M | ├──11.2 全连接网络及特性.flv 15.85M | ├──11.3 Auto-Encode 自编码器.flv 6.02M | ├──11.4 反向传播(BP).flv 33.44M | ├──11.5 卷积神经网络(CNN)的理解.flv 7.40M | ├──11.6 CNN的基本原理:卷积核、权重和池化.flv 11.27M | ├──11.7 CNN的计算过程.flv 13.47M | └──11.8 CNN如何应用在自然语言处理中.flv 15.92M ├──17-第17章:循环神经网络RNN | ├──12.1 循环神经网络的基本原理.flv 18.03M | ├──12.2 Elman Network和Jordan Networ.flv 2.64M | ├──12.3 LSTM的核心思想.flv 11.45M | ├──12.4 LSTM的分步实现详解.flv 17.15M | ├──12.5 Encoder-Decoder 框架.flv 15.26M | ├──12.6 Seq2Seq 模型.flv 24.49M | └──12.7 注意力机制(Attention Mechanism).flv 17.27M ├──18-第18章:第六周答疑 | └──第六周答疑.flv 23.31M ├──19-第19章:注意力机制 | ├──13.1 注意力机制产生的背景回顾.flv 20.67M | ├──13.2 注意力模型的实现原理.flv 7.57M | ├──13.3 注意力模型的应用领域.flv 8.75M | ├──13.4 记忆网络(Memory Network)的组成.flv 18.61M | ├──13.5 记忆网络的计算过程和实现方法.flv 22.62M | ├──13.6 匹配函数(Match Function).flv 5.52M | ├──13.7 注意力模型的延展1:Neural Programmer.flv 6.54M | └──13.8 注意力模型的延展2:神经图灵机.flv 27.65M ├──20-第20章:广义模型(Universal Transformer) | ├──14.1 UT的典型结构:Stack of Encoder and Decoder.flv 7.16M | ├──14.2 Self-Attention的计算.flv 17.08M | ├──14.3 Multi-Head Attention 和前向反馈神经网络FFNN.flv 8.81M | ├──14.4 位置编码(Positional Encoding).flv 4.51M | ├──14.5 层泛化(Lay Normalization).flv 7.00M | ├──14.6 Softmax Layer:交叉熵和损失函数的计算.flv 10.85M | ├──14.7 ACT模型(Adaptive Computation Time).flv 25.35M | └──14.8 Universal Transformer 的完整实现流程.flv 9.90M ├──21-第21章:第七周答疑 | └──第七周答疑.flv 17.61M ├──22-第22章:自然语言研究的未来方向 | ├──15.1 自然语言研究可行方向:知识图谱与深度学习的结合.flv 6.61M | ├──15.2 语义关系计算与知识库.flv 17.11M | ├──15.3 知识库推理学习:Neural Tensor Network.flv 21.51M | ├──15.4 跨媒体信息搜索:CMIR.flv 13.73M | ├──15.5 文本图卷积网络(Text GCN).flv 39.91M | └──15.6 NLP未来的探索方向.flv 15.40M └──资料.zip
此隐藏内容仅限VIP查看升级VIP