近期,一款名为 OpenManus 的开源项目在 AI 开发者社区引发热议。作为知名模型 Manus 的开源替代方案,OpenManus 凭借无需邀请码、支持本地部署、无缝对接 Ollama 开源大模型等特性,迅速成为技术爱好者关注的焦点。
![图片[1]-Manus平替教程:本地部署OpenManus 对接 Ollama 大模型替代 ,无需邀请码-牛仔AI](https://niuzaiai.com/wp-content/uploads/2025/03/image-50-1024x491.png)
一、OpenManus 核心优势解析
- 完全开源免费
基于 Apache 2.0 协议,用户可自由获取代码并进行二次开发,彻底摆脱商业模型的授权限制。 - Ollama 生态无缝对接
内置 Ollama 接口,支持一键调用 Llama2、Mistral 等主流开源大模型,实测在代码生成、多轮对话等场景中性能接近 GPT-3.5。 - 多平台兼容性
支持 Windows、macOS、Linux 系统,普通消费级硬件(如 RTX 3060 及以上显卡)即可流畅运行。
二、本地部署过程:
提前准备安装 python 3.12 【点击下载】和 conda 【点击前往】(注意需要使用python 3.12版本)
提供两种不同的安装方法,分别适合Windows 和 macOS 、Linux用户
方法 1:使用 conda ( 适合 Windows 用户)
1、创建一个新的 conda 环境:
conda create -n open_manus python=3.12
conda activate open_manus
2、克隆存储库:
git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus
3、安装依赖项:
pip install -r requirements.txt
4、安装Ollama 本地部署AI大模型
Ollama 官方下载:【点击前往】
由于本地对接的AI模型,必须使用有函数调用的模型才可以, 比如 qwen2.5-coder:14b、qwen2.5-coder:14b-instruct-q5_K_S、qwen2.5-coder:32b 都可以,视觉模型可以使用 minicpm-v
本地模型安装命令:
ollama run qwen2.5-coder:14b
视觉模型安装命令:
ollama run minicpm-v
当然你可以安装任何你想要的,只要支持函数调用的模型就可以, 只需在安装命令 ollama run 后面跟上模型名称即可!
5、修改配置文件
在安装目录下,找到 OpenManus\config\config.example.toml ,把config.example.toml 改成 config.toml
然后将里面的内容改成如下:
# Global LLM configuration
[llm]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = "sk-..."
max_tokens = 4096
temperature = 0.0
# [llm] #AZURE OPENAI:
# api_type= 'azure'
# model = "YOUR_MODEL_NAME" #"gpt-4o-mini"
# base_url = "{YOUR_AZURE_ENDPOINT.rstrip('/')}/openai/deployments/{AZURE_DEPOLYMENT_ID}"
# api_key = "AZURE API KEY"
# max_tokens = 8096
# temperature = 0.0
# api_version="AZURE API VERSION" #"2024-08-01-preview"
# Optional configuration for specific LLM models
[llm.vision]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = "sk-..."
注意:里面的模型文件名称要改成你自己安装的,后面的视觉模型可以和上面的一致,也可以自定义其它的视觉模型!
最后运行即可
python main.py
运行以后就可以进行使用了!它就可以完全自动调用浏览器,打开并浏览,查询并收集需要的信息
下次打开运行的命令如下:
conda activate open_manus
cd OpenManus
python main.py
方法 2:使用 uv(适合macOS用户)
1、安装 uv(快速 Python 包安装程序和解析器):
curl -LsSf https://astral.sh/uv/install.sh | sh
2、克隆存储库:
git clone https://github.com/mannaandpoem/OpenManus.gitcd OpenManus
3、创建一个新的虚拟环境并激活它:
Windows 系统
uv venv
.venv\Scripts\activate
macOS系统
uv venv
source .venv/bin/activate
4、安装依赖:
uv pip install -r requirements.txt
5、安装Ollama 本地部署AI大模型(官网MAC版本,按照要求部署即可)
官方开源项目:【链接直达】
暂无评论内容