V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
pks
V2EX  ›  AI Agent 智能体

Clawdbot 是什么,为什么这么火,如果部署需要什么条件, 4090 显卡是不是够的?

  •  
  •   pks · 2 小时 57 分钟前 · 869 次点击

    Clawdbot 详解

    Clawdbot 是什么?

    Clawdbot 是一个开源的个人 AI 助手,你可以运行在自己的设备上。它通过你已有的通讯渠道与你交流:

    • WhatsApp, Telegram, Slack, Discord
    • Google Chat, Signal, iMessage, Microsoft Teams
    • 语音交互( macOS/iOS/Android )
    • WebChat 界面

    核心特点

    特性 说明
    本地优先 数据完全由你控制,不需要依赖云服务
    多平台支持 macOS, Linux, Windows (WSL2), Raspberry Pi
    多 Agent 系统 可以运行多个隔离的 AI 代理
    浏览器控制 自动控制 Chrome/Chromium 浏览器
    Canvas AI 驱动的可视化工作区
    语音唤醒 持续语音对话功能
    技能扩展 可安装/自定义技能插件

    为什么这么火?

    原因 说明
    隐私优先 本地运行,数据不泄露
    功能强大 集成浏览器控制、文件操作、多平台通讯
    完全开源 MIT 许可证,社区活跃
    部署灵活 从树莓派到云服务器都能跑
    Claude 深度集成 优先推荐使用 Claude Opus 4.5
    AI Agent 体验 让 AI 真正"干活",不只是聊天

    部署需求

    硬件需求(官方)

    配置 最低要求 推荐配置
    RAM 512MB - 1GB 2GB+
    CPU 1 核 2 核+
    磁盘 ~500MB 更多(日志/媒体)
    网络 稳定互联网 24/7 在线

    软件需求

    组件 要求
    Node.js ≥22
    系统 macOS, Linux, Windows (WSL2)

    4090 显卡够吗?

    结论:4090 完全足够,甚至有点"杀鸡用牛刀"

    为什么?

    Clawdbot 本身不需要显卡运行 LLM。它是一个网关/控制层,实际的 AI 推理通过 API 调用完成(如 Anthropic API 、OpenAI API )。

    4090 的使用场景

    如果你想让 Clawdbot 使用本地 LLM 模型(不调用云端 API ),4090 可以用来运行:

    • Ollama 本地模型
    • vLLM 推理服务
    • 其他本地推理框架

    部署选项

    ┌─────────────────────────────────────────────────────────┐
    │                    你的 4090 机器                        │
    │  ┌─────────────┐    ┌─────────────┐    ┌─────────────┐  │
    │  │  Clawdbot   │────│  Ollama/    │────│  本地 LLM   │  │
    │  │  (网关)     │    │  vLLM       │    │  (4090 推理) │  │
    │  └─────────────┘    └─────────────┘    └─────────────┘  │
    │         │                                           │    │
    │         └───────────────────────┬───────────────────┘    │
    │                                 ▼                        │
    │                         或使用云端 API (Claude/OpenAI)    │
    └─────────────────────────────────────────────────────────┘
    

    推荐配置

    方案 A:纯 API 模式(最简单)

    • Clawdbot 直接调用 Claude/OpenAI API
    • 不需要本地 GPU
    • 4090 可以用于其他任务

    方案 B:混合模式(推荐)

    • 4090 运行本地模型( Ollama + Qwen/Llama 等)
    • Clawdbot 配置使用本地推理端点
    • 省钱 + 隐私

    方案 C:轻量本地模型

    • 使用量化模型(如 Qwen-7B-Int4 )
    • 4090 可以同时跑多个实例

    快速开始

    # 安装 Clawdbot
    npm install -g clawdbot@latest
    
    # 运行向导
    clawdbot onboard --install-daemon
    
    # 启动网关
    clawdbot gateway --port 18789
    

    Sources

    7 条回复    2026-01-26 11:22:36 +08:00
    akiyamamio
        1
    akiyamamio  
       2 小时 48 分钟前
    那么具体能做些什么呢?
    ihainan
        2
    ihainan  
       2 小时 45 分钟前
    最近中文推圈又开始炒这东西了。
    yeteng
        3
    yeteng  
       2 小时 42 分钟前
    又开始忽悠了 哈哈哈
    IlIl
        4
    IlIl  
       2 小时 25 分钟前
    炒这个的意义是啥 库克安排的人来清 mac mini m4 的库存 m5 的要出了?
    MoozLee
        5
    MoozLee  
       2 小时 2 分钟前
    api 模式和数据不泄露不矛盾吗?
    newtype0092
        6
    newtype0092  
       1 小时 17 分钟前
    看起来又是 AI 生成的文章?

    这东西只是调用 API ,又不用自己推理,按正常人的思考模式,你讨论的不是显卡,一句“不需要”就可以终止无关的话题了。
    这里反复强调 4090 能怎么用、该怎么用,完全和主题无关,就是 LLM 根据问题里的关键字硬给推理出来的,看起来真难受。

    建议还是用 AI 帮自己整理思路、优化内容,而不是完全放弃思考把 AI 当自己的脑子和嘴。
    darksword21
        7
    darksword21  
    PRO
       1 小时 14 分钟前
    什么傻逼标题,被恶心到了,想法这种东西滚去小红书发,block 了
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3597 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 04:37 · PVG 12:37 · LAX 20:37 · JFK 23:37
    ♥ Do have faith in what you're doing.