ELMo, GPT, BERT本文的前置知识: RNN Transformer Language Model ELMo, GPT, BERT本文是对ELMo, GPT, BERT三个模型的结构介绍以及个人理解, 多图预警. Introduction由于NLP领域2020-10-04 深度学习NLP 词向量 Pytorch学习: 张量进阶操作2020.10.03: 因torch版本更新, 对gather描述进行了修正. 2021.03.11: 更新了对gather的描述. Pytorch学习: 张量进阶操作整理内容顺序来自龙龙老师的<深度学习与PyTorch入门实战教2020-10-03 深度学习编程 Pytorch Pytorch学习: 张量基础操作Pytorch学习: 张量基础操作整理内容顺序来自龙龙老师的<深度学习与PyTorch入门实战教程>, 根据个人所需情况进行删减或扩充. 如果想要自己创建新的模块, 这些操作都是基本功, 需要掌握扎实. 张量数据类型下表摘自Py2020-10-02 深度学习编程 Pytorch 指针网络家族本文介绍了Pointer Network, CopyNet, Pointer-Generator Network以及Coverage机制在文本摘要与对话系统中的应用, 既可以作为知识点介绍, 也可以作为论文阅读笔记. 此外, 该部分内容为外2020-09-28 深度学习NLP Attention 摘要生成 Transformer精讲2020.10.05: 更新训练技巧. 2020.09.27: 更新Masked Multi - Head Attention理解. 2021.06.08: 更新Teacher Forcing. 2024.09.17: 更新了LN的描述.2020-09-21 深度学习NLP Attention Transformer 卷积神经网络发展史LeNetLeNet可以说是CNN的开山鼻祖之一了, 虽然它不是CNN的起点, 但是可以称为CNN兴起的标志. 它由图灵奖得主LeCun Yann在1998年的Gradient-based learning applied to docum2020-09-07 深度学习CNN Seq2Seq和Attention2020.09.25: 本质部分的猜想被证实. 2020.09.21: 更新Attention的本质. 2020.09.19: 在接触了更多NLP内容后, 发现Attention是一个有特殊表征意义的结构, 以后会加入更深的理解. Se2020-08-25 深度学习Attention RNN DL目标检测目标检测目标检测是CV里一个重要方向, 对于一张图片, 我们应该能够给出图中含有的物体(单个或多个)的位置以及他们的大小和类别. 目标定位假设我们已经能够利用CNN对一张图片是否含有某个物体而进行分类. 应该先搞清楚要的输出是什么. 在上2020-08-18 深度学习CV 目标检测 循环神经网络小结2020.09.07: 重写了LSTM和GRU的描述. 2020.08.22: 对部分内容进行了更新. 循环神经网络 Recurrent Neural Network面对时序型数据, 如自然语言, 乐谱, 金融数据等包含隐含的时间信息在2020-07-30 深度学习RNN 神经网络 卷积神经网络小结卷积神经网络 Convolutional Neural Network卷积神经网络是一种含有空间信息的数据表示方法. 它与普通的DNN不同, 它包含了数据的位置信息, 以保证每次看到的是数据矩阵的一个区域, 而不是单纯的矩阵某一维. 卷积神2020-07-29 深度学习CNN 神经网络 深度神经网络小结2020.09.09: 叙述调整. 深度神经网络 Deep Neural Network在本文中的神经网络是指的深度神经网络 Deep Neural Network. 进入到深度学习领域后, 除去DL计算量大, 参数多的特点外, 还会发2020-07-28 深度学习神经网络