欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 社会 > 一文读懂 | Vision Transformer(ViT)计算机视觉中的注意力模型始祖

一文读懂 | Vision Transformer(ViT)计算机视觉中的注意力模型始祖

2024/10/23 11:32:01 来源:https://blog.csdn.net/2401_85328934/article/details/143104520  浏览:    关键词:一文读懂 | Vision Transformer(ViT)计算机视觉中的注意力模型始祖

摘要

Vision Transformer(ViT)通过将最初为NLP中的顺序数据设计的Transformer架构应用于图像数据,代表了图像处理的范式转变。它通过将图像划分为固定大小的块,将它们扁平化为向量,并将它们视为类似于句子中的单词的token。然后,这些token由多个Transformer编码器层处理,其中包括用于捕获补丁之间关系的多头自注意机制,用于增强学习的前馈神经网络,以及用于稳定训练的残差连接的归一化。一个特殊的类标记用于分类,它通过一个完全连接的层进行处理以输出预测。ViT的优势包括全局上下文理解,处理不同输入大小和任务的灵活性,以及大型数据集的可扩展性。然而,它也有局限性,如高数据要求的最佳性能和计算成本,由于自注意机制的二次复杂度。

Vision Transformer(ViT)

Vision Transformer(ViT)是一种专为图像处理任务设计的模型架构,利用了最初为自然语言处理开发的Transformer模型的概念。以下是其结构和功能的详细分解:

关键概念

Transformer

  • Transformer是一种神经网络架构,它利用自注意机制来捕获序列中元素之间的关系,使其对于涉及上下文理解的任务非常有效。

基于补丁的表示

  • 在ViT中,图像被划分为固定大小的块(例如,16x16像素)。每个补丁都被扁平化为一个向量,并被视为一个token,类似于NLP中处理单词的方式。

在这里插入图片描述

模型架构

输入准备

  • 输入图像被分割成不重叠的块。然后将每个面片展平并线性嵌入到向量空间中。添加位置嵌入以保留空间信息。

Transformer编码器

  • 该模型由多个Transformer编码器层组成,每个编码器层包含:

  • 多头自注意力:该机制计算所有补丁对之间的注意力分数,允许模型学习关系,而不管图像中的距离如何。

  • 前馈神经网络:每个注意力输出都通过前馈网络(具有激活功能)来增强学习能力。

  • 层归一化和残差连接:这些用于稳定训练和提高收敛性。

分类头

  • 在通过编码器层之后,一个特殊的token(通常称为类token)用于最终分类。对应于该token的输出被馈送到分类器(通常是全连接层)以产生最终预测。

优势

全球背景理解

  • 自注意机制允许模型捕获图像中的长距离依赖关系,这对于理解复杂的视觉模式是有利的。

灵活性

  • Vision Transformers可以处理不同的输入大小,并通过微调或迁移学习来适应不同的视觉任务。

可扩展性

  • ViT可以通过调整层的数量、隐藏维度和注意力头的数量来缩放,使其适合大型数据集和复杂任务。

限制

数据要求

  • 与传统的CNN相比,Vision Transformers通常需要大量的训练数据才能表现良好,而传统的CNN可以更好地推广较小的数据集。

计算成本

  • 当处理非常高分辨率的图像时,自我注意的二次复杂性(相对于补丁的数量)可能是一个限制,尽管这在后续的Transformer模型(如Swin Transformer)中得到了缓解。

代码示例

# Define transformations
transform = transforms.Compose([transforms.Resize((224, 224)),  # Resize to 224x224 for ViTtransforms.ToTensor(),           # Convert to tensortransforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),  # Normalize
])# Load the dataset
train_dataset = CIFAR10(root='./data', train=True, download=True, transform=transform)
train_loader = DataLoader(train_dataset, batch_size=32, shuffle=True)#Load a pre-trained Vision Transformer model.
model = ViTForImageClassification.from_pretrained("google/vit-base-patch16-224-in21k", num_labels=10)  # CIFAR-10 has 10 classes
model.train()  # Set the model to training modecriterion = torch.nn.CrossEntropyLoss()
optimizer = torch.optim.AdamW(model.parameters(), lr=5e-5)for epoch in range(5):  # Number of epochsfor images, labels in train_loader:optimizer.zero_grad()  # Clear gradientsoutputs = model(images).logits  # Forward passloss = criterion(outputs, labels)  # Compute lossloss.backward()  # Backward passoptimizer.step()  # Update weightsprint(f"Epoch [{epoch+1}/5], Loss: {loss.item():.4f}")model.eval()  # Set to evaluation mode# Example image
example_image = train_dataset[0][0].unsqueeze(0)  # Get an image and add batch dimension
with torch.no_grad():  # Disable gradient calculationlogits = model(example_image).logitspredicted_class = torch.argmax(logits, dim=1)print(f"Predicted class: {predicted_class.item()}")

如何学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈

学习路线

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com