DaNing
ELMo, GPT, BERT ELMo, GPT, BERT
本文的前置知识: RNN Transformer Language Model ELMo, GPT, BERT本文是对ELMo, GPT, BERT三个模型的结构介绍以及个人理解, 多图预警. Introduction由于NLP领域
2020-10-04
Pytorch学习: 张量进阶操作 Pytorch学习: 张量进阶操作
2020.10.03: 因torch版本更新, 对gather描述进行了修正. 2021.03.11: 更新了对gather的描述. Pytorch学习: 张量进阶操作整理内容顺序来自龙龙老师的<深度学习与PyTorch入门实战教
2020-10-03
Pytorch学习: 张量基础操作 Pytorch学习: 张量基础操作
Pytorch学习: 张量基础操作整理内容顺序来自龙龙老师的<深度学习与PyTorch入门实战教程>, 根据个人所需情况进行删减或扩充. 如果想要自己创建新的模块, 这些操作都是基本功, 需要掌握扎实. 张量数据类型下表摘自Py
2020-10-02
指针网络家族 指针网络家族
本文介绍了Pointer Network, CopyNet, Pointer-Generator Network以及Coverage机制在文本摘要与对话系统中的应用, 既可以作为知识点介绍, 也可以作为论文阅读笔记. 此外, 该部分内容为外
2020-09-28
Transformer精讲 Transformer精讲
2020.10.05: 更新训练技巧. 2020.09.27: 更新Masked Multi - Head Attention理解. 2021.06.08: 更新Teacher Forcing. 2024.09.17: 更新了LN的描述.
2020-09-21
卷积神经网络发展史 卷积神经网络发展史
LeNetLeNet可以说是CNN的开山鼻祖之一了, 虽然它不是CNN的起点, 但是可以称为CNN兴起的标志. 它由图灵奖得主LeCun Yann在1998年的Gradient-based learning applied to docum
2020-09-07
Seq2Seq和Attention Seq2Seq和Attention
2020.09.25: 本质部分的猜想被证实. 2020.09.21: 更新Attention的本质. 2020.09.19: 在接触了更多NLP内容后, 发现Attention是一个有特殊表征意义的结构, 以后会加入更深的理解. Se
2020-08-25
DL目标检测 DL目标检测
目标检测目标检测是CV里一个重要方向, 对于一张图片, 我们应该能够给出图中含有的物体(单个或多个)的位置以及他们的大小和类别. 目标定位假设我们已经能够利用CNN对一张图片是否含有某个物体而进行分类. 应该先搞清楚要的输出是什么. 在上
2020-08-18
循环神经网络小结 循环神经网络小结
2020.09.07: 重写了LSTM和GRU的描述. 2020.08.22: 对部分内容进行了更新. 循环神经网络 Recurrent Neural Network面对时序型数据, 如自然语言, 乐谱, 金融数据等包含隐含的时间信息在
2020-07-30
卷积神经网络小结 卷积神经网络小结
卷积神经网络 Convolutional Neural Network卷积神经网络是一种含有空间信息的数据表示方法. 它与普通的DNN不同, 它包含了数据的位置信息, 以保证每次看到的是数据矩阵的一个区域, 而不是单纯的矩阵某一维. 卷积神
2020-07-29
深度神经网络小结 深度神经网络小结
2020.09.09: 叙述调整. 深度神经网络 Deep Neural Network在本文中的神经网络是指的深度神经网络 Deep Neural Network. 进入到深度学习领域后, 除去DL计算量大, 参数多的特点外, 还会发
2020-07-28
5 / 5