欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 美景 > 深度学习篇---张量数据流动处理

深度学习篇---张量数据流动处理

2025/2/6 11:40:14 来源:https://blog.csdn.net/2301_79556402/article/details/145421914  浏览:    关键词:深度学习篇---张量数据流动处理

文章目录

  • 前言
  • 第一部分:张量
    • 张量的基本概念
      • 1.维度
        • 标量(0维)
        • 向量(1维)
        • 矩阵(2维)
        • 三维张量
      • 2.形状
    • 张量运算
      • 1.基本运算
        • 加法
        • 减法
        • 乘法
        • 除法
      • 2.广播
      • 3.变形
      • 4.转置
      • 5.切片
      • 6.拼接
      • 7.矩阵分解
      • 8.梯度运算:
    • 深度学习框架中的张量运算
      • 1.自动求导
      • 2.硬件加速
      • 3.高度优化
  • 第二部分:数据流动与处理
    • 1. 磁盘(硬盘或固态硬盘)
      • 读取数据
      • 写入数据
    • 2. 内存(RAM)
      • 加载程序和数据
      • 数据交换
    • 3. 缓存
      • CPU缓存
      • 磁盘缓存
    • 4.数据流动的具体过程
      • 程序执行
      • 数据读写
      • 缓存一致性
      • 内存管理
      • 磁盘I/O
  • 总结


前言

以上就是今天要讲的内容,本文仅仅简单介绍了深度学习中的张量以及数据在计算机中的流动处理过程。


第一部分:张量

在深度学习中,张量(Tensor)是一种多维数组,它是深度学习框架中的基本数据结构。张量运算是指在这些多维数组上进行的各种数学运算。以下是张量运算的详细介绍:

张量的基本概念

1.维度

维度(Rank):张量的维度指的是它的阶数,即张量具有的维度的数量。例如:

标量(0维)

标量(0维张量):一个数字,如5。

向量(1维)

向量(1维张量):一维数组,如[1, 2, 3]。

矩阵(2维)

矩阵(2维张量):二维数组,如[[1, 2], [3, 4]]。

三维张量

3维张量:可以理解为立方体数组,如 [[[1], [2]], [[3], [4]]]。
以此类推,可以有更高维的张量。

2.形状

形状(Shape):张量的形状是指每个维度的大小。例如,一个形状为(2, 3)的矩阵有两行三列。

张量运算

1.基本运算

加法

加法(Addition):两个形状相同的张量可以进行逐元素加法。

减法

减法(Subtraction):两个形状相同的张量可以进行逐元素减法。

乘法

乘法(Multiplication):分为逐元素乘法(Hadamard乘法)矩阵乘法(点积)

除法

除法(Division):两个形状相同的张量可以进行逐元素除法

2.广播

广播(Broadcasting):
广播是一种特殊的运算规则,它允许形状不同的张量进行运算。在运算过程中,较小的张量会自动扩展到较大的张量的形状。

3.变形

变形(Reshape):
变形操作可以改变张量的形状,但保持其元素的总数不变。例如,将一个形状为(2, 3)的矩阵变形为(6,)的向量。

4.转置

转置(Transpose):
转置操作用于交换张量的两个维度。例如,将一个形状为(2, 3)的矩阵转置为(3, 2)。

5.切片

切片(Slicing):
切片操作用于获取张量的一个子集。例如,从矩阵中提取某一行或某一列。

6.拼接

拼接(Concatenation):
拼接操作将多个张量沿某个维度连接起来。例如,将两个形状为(2, 3)的矩阵沿第一个维度拼接,得到一个形状为(4, 3)的矩阵。

7.矩阵分解

矩阵分解(Decomposition):
奇异值分解(SVD)、特征分解等,用于提取矩阵的特征

8.梯度运算:

在深度学习中,梯度运算是非常重要的。它用于计算损失函数关于模型参数的导数,以便进行参数更新。

深度学习框架中的张量运算

在深度学习框架(如TensorFlow、PyTorch等)中,张量运算通常具有以下特点:

1.自动求导

自动求导:框架会自动计算张量运算的梯度,方便进行反向传播

2.硬件加速

硬件加速:张量运算通常可以在GPU或TPU上运行,以加速计算。

3.高度优化

高度优化:框架对张量运算进行了高度优化,以提高计算效率。
通过这些张量运算,深度学习模型能够在训练过程中高效地处理大量数据,实现复杂的计算任务。

第二部分:数据流动与处理

计算机系统中,数据的流动和处理涉及到多个层次和组件,包括**磁盘、内存(RAM)、缓存(包括CPU缓存和磁盘缓存)**等。以下是详细的数据流动过程:

1. 磁盘(硬盘或固态硬盘)

磁盘是计算机系统中用于长期存储数据的设备。数据在磁盘上的流动过程如下:

读取数据

  1. 当计算机需要读取数据时,操作系统会向磁盘发送读取请求。
  2. 磁盘控制器定位到数据所在的磁道和扇区
  3. 磁盘旋转到正确的位置,磁头读取数据。
  4. 读取的数据通过磁盘控制器发送到内存。

写入数据

  1. 写入过程与读取类似,但方向相反。
  2. 操作系统将数据发送到磁盘控制器。
  3. 磁盘控制器将数据写入磁盘的空闲扇区。

2. 内存(RAM)

内存是计算机中用于临时存储数据和指令的高速存储设备。数据在内存中的流动过程如下:

加载程序和数据

  1. 操作系统将磁盘上的程序和数据加载到内存中,以便CPU快速访问
  2. 内存中的数据按照地址进行管理

数据交换

当内存空间不足时,操作系统可能会将不常用的数据暂时交换到磁盘上的交换空间(swap space)。

3. 缓存

缓存是位于内存和CPU之间的小容量但非常快速的存储器,用于减少CPU访问内存所需的时间

CPU缓存

  1. L1缓存:速度最快,容量最小,通常集成在CPU核心内部
  2. L2缓存:速度较快,容量比L1大,通常也集成在CPU内部或非常靠近CPU
  3. L3缓存:速度较L2慢,但容量更大,通常集成在CPU芯片上
    当CPU需要数据时,首先检查L1缓存,如果没有找到,再检查L2,然后是L3,最后才访问内存。

磁盘缓存

磁盘缓存位于磁盘和内存之间,用于存储最近从磁盘读取或写入的数据
当进行磁盘操作时,数据首先写入磁盘缓存,然后由缓存管理器定期将数据刷新到磁盘上

4.数据流动的具体过程

程序执行

  1. 操作系统从磁盘加载程序到内存
  2. CPU从内存中读取指令和数据到CPU缓存
  3. CPU执行指令,处理数据。

数据读写

当CPU需要读取数据时,首先检查CPU缓存
如果数据不在缓存中(缓存未命中),CPU从内存中读取数据,并将其存储在缓存中以供将来使用
如果数据需要写入,CPU首先写入缓存,并可能标记为“脏”数据(表示缓存中的数据与内存或磁盘上的数据不一致)。
缓存管理器负责将脏数据定期刷新到内存,然后由内存管理器将数据写入磁盘。

缓存一致性

在多核心CPU系统中,需要维护缓存一致性,确保所有核心看到的内存数据是一致的

内存管理

操作系统负责内存管理,包括分配和回收内存,以及处理内存页的换入换出。

磁盘I/O

当内存中的数据需要持久化时,操作系统会将数据写入磁盘。
磁盘缓存可以减少磁盘I/O操作的次数,提高系统性能。
整个数据流动过程是由操作系统和硬件协同工作来管理的,以确保数据能够高效、准确地流动和处理。


总结

以上就是今天要讲的内容,本文仅仅简单介绍了深度学习中的张量以及数据在计算机中的流动处理过程。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com