Whisper: Robust Speech Recognition via Large-Scale Weak SupervisionRobust Speech Recognition via Large-Scale Weak Supervision本文是论文Robust Speech Recognition via Large-Scale Weak Supervisio2025-01-14 DaNingAudio ASR
HiFi-GAN: Generative Adversarial Networks for Efficient and High Fidelity Speech SynthesisHiFi-GAN: Generative Adversarial Networks for Efficient and High Fidelity Speech Synthesis本文是论文HiFi-GAN: Generative Adve2025-01-03 深度学习SVS Audio Vocoder TTS
DiffSinger: Singing Voice Synthesis via Shallow Diffusion Mechanism本文前置知识: DDPM: Denoising Diffusion Probabilistic Model. DiffSinger: Singing Voice Synthesis via Shallow Diffusion Me2024-10-18 深度学习DDPM Diffusion SVS
DDPM: Denoising Diffusion Probabilistic ModelDDPM: Denoising Diffusion Probabilistic ModelDDPM Overview DDPM: Denoising Diffusion Probabilistic Models. 扩散概率模型(Diffu2024-10-07 深度学习DDPM Diffusion
Pytorch实现: VQ-VAE本文前置知识: VQ基本知识: Introduction: Vector Quantization Vector Quantization. Pytorch实现: VQ - VAE本文是VQ - VAE的Pytorch版本实现, 并2024-07-28 DaNingVQ-VAE Pytorch
Introduction: Vector QuantizationIntroduction: Vector QuantizationVector QuantizationAutoEncoder(AE)由Encoder和Decoder组成, Encoder将图像压缩为一个低维的隐向量(Latent), 再由2024-07-16 深度学习VQ VQ-VAE VQ-GAN
Multimodal Large Language Model 总结本文前置知识: Vision & Language Pretrained Model 总结. Multimodal Large Language Model 总结最近MLLM的进展实在是太快了, 必须得赶紧写一篇博客出来了… 再2024-07-03 深度学习MLLM MM
通用信息抽取(下) - UniEX, Mirror, RexUIE本文前置知识: 通用信息抽取(上) - UIE, USM, InstructUIE. 通用信息抽取(下) - UniEX, Mirror, RexUIE本文为介绍通用信息抽取领域经典模型的下篇, 将会介绍了UniEX, Mirror2024-05-29 深度学习NER EE IE UIE RE
通用信息抽取(上) - UIE, USM, InstructUIE2024.5.27: 稍微补充了UIE的其中一个改进版MetaRetriever. 本文前置知识: T5: Exploring the Limits of Transfer Learning with a Unified Text-to2024-01-21 深度学习NER EE IE UIE RE
2024-元旦2024-元旦都有小半年没更新博客了, 已经鸽了好久了… 首先祝大家元旦快乐! 这半年来, 找工作和申博我都试了试, 最后是选择了自己觉得更合适的一条路, 也算是人生中做的一个关键的节点吧. 2023年是LLM横行霸道的一年, 我印象中光是2024-01-01 心情随笔心情随笔
Vision & Language Pretrained Model 总结2024.4.21: 添加CoCa, 并修改对WPA的描述. 2024.4.23: 增加了BLIP-2的部分描述. Vision & Language Pretraining 总结本文只是以总结的形式梳理了近期比较有代表性的VL2023-07-18 深度学习MM VLP
大模型并行优化大模型并行优化为什么要并行优化?大就是好, 虽然丛2019年人们的认识普遍就是大就是好, 这个概念在当今依然没有被改变, 只是有了更深刻的认识. 所以, 为什么要并行? 虽然大就是好, 模型太大显存吃不消(空间). 虽然大就是好2023-06-01 深度学习并行计算 分布式 ZeRO