欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 房产 > 建筑 > OpenManus:开源版Manus的快速安装及使用「喂饭教程」

OpenManus:开源版Manus的快速安装及使用「喂饭教程」

2025/3/9 21:50:41 来源:https://blog.csdn.net/weixin_48321392/article/details/146118179  浏览:    关键词:OpenManus:开源版Manus的快速安装及使用「喂饭教程」

OpenManus:开源版Manus的快速安装及使用「喂饭教程」

    • OpenManus是什么?
    • OpenManus的核心理念
    • 1. 安装
    • 2. 配置
      • 2.1 线上模型
      • 2.2 本地模型
    • 3. 运行项目
    • 常见问题:如何设置项目执行的Steps?

OpenManus是什么?

OpenManus是由 MetaGPT 社区成员开发的Manus开源版本。与 Manus 相比,OpenManus 的主要优势在于其本地化部署能力,用户可以在个人电脑上运行 AI 代理,并观察其执行任务的过程。

在这里插入图片描述
该项目无需邀请码,用户只需克隆代码并配置 LLM API 即可快速上手。OpenManus 基于 Python 开发,代码结构清晰,易于理解和扩展。通过终端输入指令,用户可以驱动智能体执行各种任务。

OpenManus的核心理念

OpenManus利用大型语言模型(如:DeepSeek)的强大规划能力,能够理解复杂任务的需求,并生成详细的执行计划。为了将大型模型的规划能力转化为实际执行能力,OpenManus整合了多种工程化工具,如:Python代码执行器、网络搜索工具、浏览器自动化工具文件处理系统。另外,OpenManus还引入了小型视觉模型,用于视觉识别处理任务,打造出具备实际执行能力的智能体,使其不仅拥有“大脑”,还具备“手脚”功能。

1. 安装

  • python版本 = 3.12

  • 克隆项目:

    git clone https://github.com/mannaandpoem/OpenManus.git
    
  • 创建 Python 虚拟环境:

    python -m venv .venv
    
  • 激活使用虚拟环境:

    # 在 Windows 上
    .venv\Scripts\activate  
    
    # 在 macOS/Linux 上
    source .venv/bin/activate
    
  • 下载依赖:

    pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
    
  • 安装 playwright 的 chromium 内核浏览器:

    playwright install chromium 
    

    在这里插入图片描述

2. 配置

  • 创建 config.toml 文件:
    cp config/config.example.toml config/config.toml
    

在这里插入图片描述

  • 修改 config/config.toml 添加 API 密钥和自定义设置,线上模型或本地模型任选其一,具体配置如下:

    2.1 线上模型

    # 全局LLM配置
    [llm]
    model = "deepseek-chat"
    base_url = "https://api.deepseek.com/v1"
    api_key = "sk-***"  # 替换成你的 API key
    max_tokens = 4096
    temperature = 0.0# 视觉模型配置(可选)
    [llm.vision]
    model = "deepseek-chat"
    base_url = "https://api.deepseek.com/v1"
    api_key = "sk-***"  # 替换成你的 API key
    

    2.2 本地模型

    1. 需要选择支持调用toolsfunction call的本地模型,查看链接:https://ollama.com/search?c=tools
      在这里插入图片描述
    2. 运行模型
      在这里的示例,语言模型我选择qwen2.5-7b,视觉模型选择llava
      ollama run qwen2.5:7b
      ollama run llava
      
      首次运行模型时,如果不存在则会自动下载,本地部署具体教程请参考:一文学会用Ollama在本地快速部署;
    3. 启动完两个本地模型后,修改 config/config.toml 配置文件如下:
      [llm]
      model ="qwen2.5:7b"
      base_url = "http://127.0.0.1:11434/v1"
      api_key = "ollama"
      max_tokens =8192
      temperature =0.0[llm.vision]
      model = "llava"
      base_url = "http://127.0.0.1:11434/v1"
      api_key = "ollama"
      

3. 运行项目

运行稳定版:

python main.py

下面是一个从某东上搜索笔记本电脑,并获取前10的销量品牌和机型的例子:
在这里插入图片描述
在这里插入图片描述

运行实验性版本:

python run_flow.py

下面是一个执行编写代码&保存文件到本地的任务示例:
在这里插入图片描述

常见问题:如何设置项目执行的Steps?

因为项目默认的执行max_steps是30,我们想修改max_steps的话,可以在 .\app\agent\toolcall.py文件里找到max_steps参数进行配置。
在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词