欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 明星 > 安装vllm

安装vllm

2025/4/21 16:32:18 来源:https://blog.csdn.net/m0_52111823/article/details/147154629  浏览:    关键词:安装vllm

ubuntu 22.04, RTX3080, cuda 12.1, cudnn 8.9.7,cuda和cudnn的安装参考:https://blog.csdn.net/m0_52111823/article/details/147154526?spm=1001.2014.3001.5501。

  1. 查看版本对应关系,下载12.1对应的whl包,https://github.com/vllm-project/vllm/releases/download/v0.8.3/vllm-0.8.3+cu121-cp38-abi3-manylinux1_x86_64.whl

  2. uv创建基于Python 3.11的虚拟环境,参考https://blog.csdn.net/m0_52111823/article/details/147154513?spm=1001.2014.3001.5502

    1. 修改xxx/bin/activate,提供必要的cuda变量引用。
  3. 开始安装whl包,然后安装setuptools包,因为vllm项目默认为没有该包。

  4. 激活环境,测试命令

    python -c "from vllm import LLM, SamplingParams; llm = LLM('facebook/opt-125m'); sampling_params = SamplingParams(temperature=0.8, top_p=0.95); outputs = llm.generate('Hello,', sampling_params); print(outputs[0].outputs[0].text)"
    

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词