ViT(Vision Transformer)原理与代码精讲

admin

ViT(Vision Transformer)原理与代码精讲


Transformer在许多NLP(自然语言处理)任务中取得了SOTA的成果。 

ViT (Vision Transformer)是Transformer应用于CV(计算机视觉)领域里程碑式的工作,后面发展出更多的变体,如Swin Transformer。 

ViT (Vision Transformer)模型发表于论文An Image is Worth 16X16 Words: Transformer For Image Recognition At Scale,使用纯Transformer进行图像分类。ViT在JFT-300M数据集上预训练后,可超过卷积神经网络ResNet的性能,并且所用的训练计算资源可更少。 

本课程对ViT的原理与PyTorch实现代码进行精讲,来帮助大家掌握其详细原理和具体实现。其中代码实现包含两种代码实现方式,一种是采用timm库,另一种是采用einops/einsum。  

原理精讲部分包括:Transformer的架构概述、Transformer的Encoder 、Transformer的Decoder、ViT架构概述、ViT模型详解、ViT性能及分析。  

代码精讲部分使用Jupyter Notebook对ViT的PyTorch代码进行逐行解读,包括:安装PyTorch、ViT的timm库实现代码解读、 einops/einsum 、ViT的einops/einsum实现代码解读。


image.png

1 课程介绍.mp4

2 Transformer架构概述.mp4

3 Transformer的Encoder.mp4

4 Transformer的Decoder.mp4

5 ViT架构概述.mp4

6 ViT模型详解.mp4

7 ViT性能及分析.mp4

8 安装pytorch.mp4

9 ViT的timm库实现代码精讲.mp4

10 einops和einsum.mp4

11 ViT的einops einsum代码实现精讲.mp4

ViT(VisionTransformer)原理与代码精讲.zip


付费内容
售价:5 积分
开通超级VIP会员或更高级的会员可免费查看该内容
登录注册购买 如果不想注册,可直接点击 免登录购买
文章版权声明:除非注明,否则均为ZBLOG原创文章,转载或复制请以超链接形式并注明出处。

发表评论

快捷回复: 表情:
AddoilApplauseBadlaughBombCoffeeFabulousFacepalmFecesFrownHeyhaInsidiousKeepFightingNoProbPigHeadShockedSinistersmileSlapSocialSweatTolaughWatermelonWittyWowYeahYellowdog
评论列表 (暂无评论,10人围观)

还没有评论,来说两句吧...