Pytorch实现: BERT本文前置知识: Transformer: 详见Transformer精讲 BERT: 详见ELMo, GPT, BERT Pytorch实现: Transformer 2022.04.03: 修正Pre Norm效果好于Post No2021-03-12 深度学习NLP Transformer Pytorch Introduction: Graph Neural Network本文前置知识: 图结构基础知识(数据结构相关内容, 自行查阅). 2021.04.06: 更新GraphSAGE的理解. Introduction: Graph Neural Network本文介绍的是GNN方面入门级别的知识, 其2021-03-04 深度学习GNN ConvBERT: Improving BERT with Span-based Dynamic ConvolutionConvBERT: Improving BERT with Span-based Dynamic Convolution 本文前置知识: Light Weight Convolution: 详见基于轻量级卷积和动态卷积替代的注意力机制.2021-02-12 深度学习NLP CNN Attention 基于轻量级卷积和动态卷积替代的注意力机制本文前置知识: Depthwise Convolution: 详见深度可分离卷积与分组卷积. Attention: 详见Seq2Seq和Attention. Transformer: 详见Transformer精讲. 本文是论文PA2020-12-05 深度学习CNN Attention 深度可分离卷积与分组卷积本文前置知识: CNN: 详见卷积神经网络小结. 本文着重介绍深度可分离卷积和分组卷积两种操作. 深度可分离卷积深度可分离卷积(Depthwise Separable Convolution)应用在MobileNet和Xceptio2020-11-26 深度学习CNN Pytorch实现: Transformer本文前置知识: Pytorch基本操作 Transformer: 详见Transformer精讲 2022.04.03: 去掉了Pre Norm比Post Norm效果好的表述. Pytorch实现: Transformer本文是T2020-11-23 深度学习NLP Transformer Pytorch Pytorch实现: Skip-Gram本文前置知识: Pytorch基本操作 Word2Vec Pytorch实现: Skip-Gram本文用Pytorch实现了Skip - Gram, 它是Word2Vec的其中一种. 本文实现参考PyTorch 实现 Word2Ve2020-11-19 深度学习Word2Vec Pytorch RoBERTa: A Robustly Optimized BERT Pretraining Approach本文前置知识: BERT(详见ELMo, GPT, BERT) RoBERTa: A Robustly Optimized BERT Pretraining Approach本文是论文RoBERTa: A Robustly Opti2020-11-18 深度学习NLP BERT Transformer-XL与XLNet本文前置知识: Transformer(Masked Self - Attention和FFN) BERT(与XLNet做对比) Seq2Seq(AutoRegressive & AutoEncoding) 2020.10.22020-10-14 深度学习NLP Transformer ELMo, GPT, BERT本文的前置知识: RNN Transformer Language Model ELMo, GPT, BERT本文是对ELMo, GPT, BERT三个模型的结构介绍以及个人理解, 多图预警. Introduction由于NLP领域2020-10-04 深度学习NLP 词向量 Pytorch学习: 张量进阶操作2020.10.03: 因torch版本更新, 对gather描述进行了修正. 2021.03.11: 更新了对gather的描述. Pytorch学习: 张量进阶操作整理内容顺序来自龙龙老师的<深度学习与PyTorch入门实战教2020-10-03 深度学习编程 Pytorch Pytorch学习: 张量基础操作2025.03.07: 增加了Tensor.repeat_interleave. Pytorch学习: 张量基础操作整理内容顺序来自龙龙老师的<深度学习与PyTorch入门实战教程>, 根据个人所需情况进行删减或扩充. 如果2020-10-02 深度学习编程 Pytorch