欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 科技 > 名人名企 > 【PyTorch基础】PyTorch还支持线性代数运算?PyTorch的内置线性代数运算示例

【PyTorch基础】PyTorch还支持线性代数运算?PyTorch的内置线性代数运算示例

2025/3/21 17:42:35 来源:https://blog.csdn.net/rzjslSe/article/details/146368173  浏览:    关键词:【PyTorch基础】PyTorch还支持线性代数运算?PyTorch的内置线性代数运算示例

目录

引言

1. trace - 对角线元素之和(矩阵的迹)

2. diag - 提取对角线元素 

3. triu / tril - 上三角/下三角矩阵

4. mm / bmm - 矩阵乘法 / 批量矩阵乘法

5. addmm / addbmm / addmv / addr / baddbmm - 矩阵运算

6. t - 转置矩阵

7. dot / cross - 内积 / 外积

8. inverse - 求逆矩阵

9. svd - 奇异值分解

结语


引言

PyTorch 作为一个强大的深度学习框架,提供了丰富的线性代数功能,使得开发者能够高效地进行各种矩阵运算。通过使用 PyTorch 中的相关库,我们可以避免重复“造轮子”,从而专注于实现更高层次的算法和模型。本文将介绍几个常用的 PyTorch 中的线性代数功能,帮助您更轻松地进行矩阵操作,从而提升您的开发效率。

另外,若有进一步研究需求,可以参考官方文档

1. trace - 对角线元素之和(矩阵的迹)

# 1. trace - 对角线元素之和(矩阵的迹)
import torch# 创建一个 3x3 矩阵
tensor = torch.tensor([[1., 2., 3.], [4., 5., 6.], [7., 8., 9.]])
# 计算矩阵的迹
trace_value = torch.trace(tensor)
print(f"矩阵的迹: {trace_value}")

 

2. diag - 提取对角线元素 

# 2. diag - 提取对角线元素
# 提取对角线元素
diagonal_elements = torch.diag(tensor)
print(f"对角线元素: {diagonal_elements}")

 

3. triu / tril - 上三角/下三角矩阵

# 3. triu / tril - 上三角/下三角矩阵
# 创建一个 3x3 矩阵
tensor = torch.tensor([[1., 2., 3.], [4., 5., 6.], [7., 8., 9.]])
# 获取上三角矩阵
upper_triangle = torch.triu(tensor)
print(f"上三角矩阵:\n{upper_triangle}")# 获取下三角矩阵
lower_triangle = torch.tril(tensor)
print(f"下三角矩阵:\n{lower_triangle}")

 

4. mm / bmm - 矩阵乘法 / 批量矩阵乘法

# 4. mm / bmm - 矩阵乘法 / 批量矩阵乘法
# 创建两个 3x3 矩阵
A = torch.tensor([[1., 2., 3.], [4., 5., 6.], [7., 8., 9.]])
B = torch.tensor([[9., 8., 7.], [6., 5., 4.], [3., 2., 1.]])
# 矩阵乘法
result_mm = torch.mm(A, B)
print(f"矩阵乘法结果:\n{result_mm}")# 批量矩阵乘法 (batch matrix multiplication)
batch_A = torch.rand(10, 3, 3)  # 10 个 3x3 矩阵
batch_B = torch.rand(10, 3, 3)
result_bmm = torch.bmm(batch_A, batch_B)
print(f"批量矩阵乘法结果:\n{result_bmm[0]}")  # 显示第一个批次的结果

 

5. addmm / addbmm / addmv / addr / baddbmm - 矩阵运算

# 5. addmm / addbmm / addmv / addr / baddbmm - 矩阵运算
# 使用 addmm 函数,矩阵加法加乘法
C = torch.tensor([[1., 1., 1.], [1., 1., 1.], [1., 1., 1.]])
result_addmm = torch.addmm(C, A, B)
print(f"addmm 矩阵加法加乘法结果:\n{result_addmm}")# 使用 addbmm 批量矩阵运算
# 创建批量矩阵
batch_A = torch.rand(10, 3, 4)  # 10 个 3x4 矩阵
batch_B = torch.rand(10, 4, 3)  # 10 个 4x3 矩阵
batch_C = torch.rand(3, 3)# 使用 addbmm 进行批量矩阵运算 C = A @ B + C
result_addbmm = torch.addbmm(batch_C, batch_A, batch_B)
print(f"addbmm 批量矩阵运算结果:\n{result_addbmm[0]}")  # 显示第一个批次的结果

 

6. t - 转置矩阵

# 6. t - 转置矩阵
# 创建一个 2x3 矩阵
tensor = torch.tensor([[1., 2., 3.], [4., 5., 6.]])
# 转置矩阵
transposed_tensor = tensor.t()
print(f"转置后的矩阵:\n{transposed_tensor}")

 

7. dot / cross - 内积 / 外积

# 7. dot / cross - 内积 / 外积
# 创建两个向量
vector1 = torch.tensor([1., 2., 3.])
vector2 = torch.tensor([4., 5., 6.])# 计算内积
dot_product = torch.dot(vector1, vector2)
print(f"内积: {dot_product}")# 计算外积
cross_product = torch.cross(vector1, vector2)
print(f"外积: {cross_product}")

 

8. inverse - 求逆矩阵

# 8. inverse - 求逆矩阵
# 创建一个 2x2 矩阵
matrix = torch.tensor([[4., 7.], [2., 6.]])
# 求矩阵的逆
inverse_matrix = torch.inverse(matrix)
print(f"矩阵的逆:\n{inverse_matrix}")

 

9. svd - 奇异值分解

# 9. svd - 奇异值分解
# 创建一个 3x3 矩阵
matrix = torch.tensor([[1., 2., 3.], [4., 5., 6.], [7., 8., 9.]])
# 进行奇异值分解
U, S, V = torch.svd(matrix)
print(f"U 矩阵:\n{U}")
print(f"S 奇异值:\n{S}")
print(f"V 矩阵:\n{V}")

 


结语

在这篇博客中,我们探讨了如何使用 PyTorch 中的线性代数功能来简化矩阵操作。通过利用这些内置的高效函数,不仅可以节省时间和精力,还能减少潜在的错误,提升代码的可读性和可维护性。希望大家在使用 PyTorch 进行矩阵运算时,能够充分利用这些强大的工具,而不再需要自己重复实现基础功能。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词