欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 资讯 > win10下cuda12.1 +troch2.4.1+vs2022环境下编译安装flash-attn

win10下cuda12.1 +troch2.4.1+vs2022环境下编译安装flash-attn

2025/2/25 22:16:24 来源:https://blog.csdn.net/a486259/article/details/142695690  浏览:    关键词:win10下cuda12.1 +troch2.4.1+vs2022环境下编译安装flash-attn

步骤一 下载项目
先下载 https://github.com/Dao-AILab/flash-attention,然后在conda环境中进入项目目录

步骤二 安装依赖项
执行以下命令,安装cutlass库,该库为编译flash-attn的必须依赖

conda update --force conda 
conda install conda-forge::cutlass

conda下查找: https://anaconda.org/conda-forge/

步骤三 设置include目录
在flash-attention项目下,setup.py,第300行,添加 "c:/Users/Administrator/miniconda3/Library/include",这里为自己conda环境下的include目录,该命令下有conda安装的库文件,如cutlass。
在这里插入图片描述
具体修改效果如下
在这里插入图片描述

步骤四 突破vs2022与cuda版本限制
在cuda v12.1\include\crt\host_config.h下,表明不支持vs2022,强制进行编译会输出以下报错

error -- unsupported Microsoft Visual Studio version! Only the versions between 2017 and 2022 (inclusive) are supported! The nvcc flag '-allow-unsupported-compiler' can be used to override this version check; however, using an unsupported host compiler may cause compilation failure or incorrect run time execution. Use at your own risk

参考:https://blog.csdn.net/lishiyu93/article/details/114599859,修改_MSC_VER的版本范围 原先是1940,被博主修改成了2940
在这里插入图片描述

在C:\Program Files\Microsoft Visual Studio\2022\Community\VC\Tools\MSVC\14.41.34120\include\yvals_core.h中,表明只支持cuda12.4以上的版本,将原来的代码参考 https://blog.csdn.net/weixin_55361556/article/details/141465456 ,修改为 #if __CUDACC_VER_MAJOR__ < 10 || (__CUDACC_VER_MAJOR__ == 10 && __CUDACC_VER_MINOR__ < 1)

在这里插入图片描述

步骤五 进行编译
执行 python setup.py build,进行编译
在这里插入图片描述

步骤六 生成whl文件
执行python .\setup.py bdist_wheel生成whl文件,命令行输出如下
在这里插入图片描述
生成的whl文件在dist目录下
在这里插入图片描述
博主编译好的whl文件下载地址: https://download.csdn.net/download/a486259/89839302

步骤七 安装包
执行 pip install .\flash_attn-2.6.3-cp38-cp38-win_amd64.whl 安装包
在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词