Clawdbot 是一个开源的个人 AI 助手,你可以运行在自己的设备上。它通过你已有的通讯渠道与你交流:
| 特性 | 说明 |
|---|---|
| 本地优先 | 数据完全由你控制,不需要依赖云服务 |
| 多平台支持 | macOS, Linux, Windows (WSL2), Raspberry Pi |
| 多 Agent 系统 | 可以运行多个隔离的 AI 代理 |
| 浏览器控制 | 自动控制 Chrome/Chromium 浏览器 |
| Canvas | AI 驱动的可视化工作区 |
| 语音唤醒 | 持续语音对话功能 |
| 技能扩展 | 可安装/自定义技能插件 |
| 原因 | 说明 |
|---|---|
| 隐私优先 | 本地运行,数据不泄露 |
| 功能强大 | 集成浏览器控制、文件操作、多平台通讯 |
| 完全开源 | MIT 许可证,社区活跃 |
| 部署灵活 | 从树莓派到云服务器都能跑 |
| Claude 深度集成 | 优先推荐使用 Claude Opus 4.5 |
| AI Agent 体验 | 让 AI 真正"干活",不只是聊天 |
| 配置 | 最低要求 | 推荐配置 |
|---|---|---|
| RAM | 512MB - 1GB | 2GB+ |
| CPU | 1 核 | 2 核+ |
| 磁盘 | ~500MB | 更多(日志/媒体) |
| 网络 | 稳定互联网 | 24/7 在线 |
| 组件 | 要求 |
|---|---|
| Node.js | ≥22 |
| 系统 | macOS, Linux, Windows (WSL2) |
结论:4090 完全足够,甚至有点"杀鸡用牛刀"
Clawdbot 本身不需要显卡运行 LLM。它是一个网关/控制层,实际的 AI 推理通过 API 调用完成(如 Anthropic API 、OpenAI API )。
如果你想让 Clawdbot 使用本地 LLM 模型(不调用云端 API ),4090 可以用来运行:
┌─────────────────────────────────────────────────────────┐
│ 你的 4090 机器 │
│ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │
│ │ Clawdbot │────│ Ollama/ │────│ 本地 LLM │ │
│ │ (网关) │ │ vLLM │ │ (4090 推理) │ │
│ └─────────────┘ └─────────────┘ └─────────────┘ │
│ │ │ │
│ └───────────────────────┬───────────────────┘ │
│ ▼ │
│ 或使用云端 API (Claude/OpenAI) │
└─────────────────────────────────────────────────────────┘
方案 A:纯 API 模式(最简单)
方案 B:混合模式(推荐)
方案 C:轻量本地模型
# 安装 Clawdbot
npm install -g clawdbot@latest
# 运行向导
clawdbot onboard --install-daemon
# 启动网关
clawdbot gateway --port 18789
1
akiyamamio 2 小时 48 分钟前
那么具体能做些什么呢?
|
2
ihainan 2 小时 45 分钟前
最近中文推圈又开始炒这东西了。
|
3
yeteng 2 小时 42 分钟前
又开始忽悠了 哈哈哈
|
4
IlIl 2 小时 25 分钟前
炒这个的意义是啥 库克安排的人来清 mac mini m4 的库存 m5 的要出了?
|
5
MoozLee 2 小时 2 分钟前
api 模式和数据不泄露不矛盾吗?
|
6
newtype0092 1 小时 17 分钟前
看起来又是 AI 生成的文章?
这东西只是调用 API ,又不用自己推理,按正常人的思考模式,你讨论的不是显卡,一句“不需要”就可以终止无关的话题了。 这里反复强调 4090 能怎么用、该怎么用,完全和主题无关,就是 LLM 根据问题里的关键字硬给推理出来的,看起来真难受。 建议还是用 AI 帮自己整理思路、优化内容,而不是完全放弃思考把 AI 当自己的脑子和嘴。 |
7
darksword21 PRO 什么傻逼标题,被恶心到了,想法这种东西滚去小红书发,block 了
|