OpenManus:开源版Manus的快速安装及使用「喂饭教程」
- OpenManus是什么?
- OpenManus的核心理念
- 1. 安装
- 2. 配置
- 2.1 线上模型
- 2.2 本地模型
- 3. 运行项目
- 常见问题:如何设置项目执行的Steps?
OpenManus是什么?
OpenManus是由 MetaGPT 社区成员开发的Manus开源版本。与 Manus 相比,OpenManus 的主要优势在于其本地化部署能力,用户可以在个人电脑上运行 AI 代理,并观察其执行任务的过程。
该项目无需邀请码,用户只需克隆代码并配置 LLM API 即可快速上手。OpenManus 基于 Python 开发,代码结构清晰,易于理解和扩展。通过终端输入指令,用户可以驱动智能体执行各种任务。
OpenManus的核心理念
OpenManus利用大型语言模型(如:DeepSeek)的强大规划能力,能够理解复杂任务的需求,并生成详细的执行计划。为了将大型模型的规划能力转化为实际执行能力,OpenManus整合了多种工程化工具,如:Python代码执行器、网络搜索工具、浏览器自动化工具和文件处理系统。另外,OpenManus还引入了小型视觉模型,用于视觉识别处理任务,打造出具备实际执行能力的智能体,使其不仅拥有“大脑”,还具备“手脚”功能。
1. 安装
-
python版本 = 3.12
-
克隆项目:
git clone https://github.com/mannaandpoem/OpenManus.git
-
创建 Python 虚拟环境:
python -m venv .venv
-
激活使用虚拟环境:
# 在 Windows 上 .venv\Scripts\activate
# 在 macOS/Linux 上 source .venv/bin/activate
-
下载依赖:
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
-
安装 playwright 的 chromium 内核浏览器:
playwright install chromium
2. 配置
- 创建 config.toml 文件:
cp config/config.example.toml config/config.toml
-
修改
config/config.toml
添加 API 密钥和自定义设置,线上模型或本地模型任选其一,具体配置如下:2.1 线上模型
# 全局LLM配置 [llm] model = "deepseek-chat" base_url = "https://api.deepseek.com/v1" api_key = "sk-***" # 替换成你的 API key max_tokens = 4096 temperature = 0.0# 视觉模型配置(可选) [llm.vision] model = "deepseek-chat" base_url = "https://api.deepseek.com/v1" api_key = "sk-***" # 替换成你的 API key
2.2 本地模型
- 需要选择支持调用
tools
、function call
的本地模型,查看链接:https://ollama.com/search?c=tools
- 运行模型
在这里的示例,语言模型我选择qwen2.5-7b
,视觉模型选择llava
;
首次运行模型时,如果不存在则会自动下载,本地部署具体教程请参考:一文学会用Ollama在本地快速部署;ollama run qwen2.5:7b ollama run llava
- 启动完两个本地模型后,修改
config/config.toml
配置文件如下:[llm] model ="qwen2.5:7b" base_url = "http://127.0.0.1:11434/v1" api_key = "ollama" max_tokens =8192 temperature =0.0[llm.vision] model = "llava" base_url = "http://127.0.0.1:11434/v1" api_key = "ollama"
- 需要选择支持调用
3. 运行项目
运行稳定版:
python main.py
下面是一个从某东上搜索笔记本电脑,并获取前10的销量品牌和机型的例子:
运行实验性版本:
python run_flow.py
下面是一个执行编写代码&保存文件到本地的任务示例:
常见问题:如何设置项目执行的Steps?
因为项目默认的执行max_steps
是30,我们想修改max_steps
的话,可以在 .\app\agent\toolcall.py
文件里找到max_steps
参数进行配置。