Vision & Language Pretrained Model 总结2024.4.21: 添加CoCa, 并修改对WPA的描述. 2024.4.23: 增加了BLIP-2的部分描述. Vision & Language Pretraining 总结本文只是以总结的形式梳理了近期比较有代表性的VL2023-07-18 深度学习MM VLP
大模型并行优化大模型并行优化为什么要并行优化?大就是好, 虽然丛2019年人们的认识普遍就是大就是好, 这个概念在当今依然没有被改变, 只是有了更深刻的认识. 所以, 为什么要并行? 虽然大就是好, 模型太大显存吃不消(空间). 虽然大就是好2023-06-01 深度学习并行计算 分布式 ZeRO
QIDN: Query-based Instance Discrimination Network for Relational Triple ExtractionQuery-based Instance Discrimination Network for Relational Triple Extraction本文是论文Query-based Instance Discrimination Net2023-02-10 深度学习RTE ERE
UniRel: Unified Representation and Interaction for Joint Relational Triple ExtractionUniRel: Unified Representation and Interaction for Joint Relational Triple Extraction本文是论文UniRel: Unified Representation2023-01-03 深度学习RTE