欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 教育 > 锐评 > 【ML】自注意力机制selfattention

【ML】自注意力机制selfattention

2024/10/24 16:21:56 来源:https://blog.csdn.net/Darlingqiang/article/details/140937737  浏览:    关键词:【ML】自注意力机制selfattention

【ML】自注意力机制selfattention

      • 1. input vetor /graph/
      • 2. output
      • 3. self-attention 如何计算
      • 4. 从矩阵乘法 看 self-attention

1. input vetor /graph/

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2. output

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3. self-attention 如何计算

在这里插入图片描述
在这里插入图片描述

a1 a2 a3 a4 (代表输入的句子:比如 this is a tree)
计算出来的结果 称作 attention score ,其中四个相关性中的第一个为自相关性计算
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4. 从矩阵乘法 看 self-attention

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这里面I 是input 具体的内容为 this is a tree
在这里插入图片描述
所以 这里 self-attention 输入是 I 输出是 O
在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com