V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
seerhu
V2EX  ›  Local LLM

V 友们,有没有推荐的本地台式机文生图的方案?

  •  
  •   seerhu · 2025 年 12 月 15 日 · 1280 次点击
    这是一个创建于 42 天前的主题,其中的信息可能已经有所发展或是发生改变。

    大概介绍一下我的配置: 显卡:5060Ti 16G 内存:32G CPU:7500F

    本地跑文生图听说也有别人二开封装好的,就是不知道目前哪个方案好玩一些。

    6 条回复    2025-12-17 14:19:42 +08:00
    wanghui22718
        1
    wanghui22718  
       2025 年 12 月 15 日   ❤️ 1
    comfy ? civitai ?
    qwen image nsfw ?
    b 站搜下 nunchaku 整合包?
    clementewy
        2
    clementewy  
       2025 年 12 月 15 日   ❤️ 1
    秋葉整合包,16G 可以直接本地跑 阿里的 z image 了
    liuxey
        3
    liuxey  
       2025 年 12 月 15 日   ❤️ 1
    comfy + z-image-turbo
    my101du
        4
    my101du  
       2025 年 12 月 15 日   ❤️ 1
    我的笔记本 Ultra 2 ,本地都能跑 ComfyUI + Z-Image-Turbo ,这应该是目前最流畅的搭配了。
    用自带模板,把模型都改成 GGUF 量化版,慢是慢一点,但是出图还是 ok 的。
    h4ckm310n
        5
    h4ckm310n  
       2025 年 12 月 17 日
    都玩一遍,如果你的硬盘够大的话。我也是 5060Ti 16G ,系统是 Ubuntu Server 。我是直接从 github 上面把 comfyui 给 pull 下来,切到某个 tag (不喜欢用最新的),然后 pip 安装依赖包。再下个 comfyui manager 方便安装插件。一开始就是用 comfyui 自带的模板来简单搭工作流,熟悉之后尝试更多不同玩法,同时也试试各种不同的模型,比较知名的模型基本都会玩玩(除非是我电脑带不动的),目前玩了大半年了。
    CraftDeadMRC
        6
    CraftDeadMRC  
       2025 年 12 月 17 日
    50 系有个优势是 fp4 tensor 加速,也就是说 qwen-image 20b fp4 可以来到 10G 左右,z-image-turbo 还是略逊一点,当然在意精度的话就选后者高精度( fp8 起,其实我还发现 fp8 对比 fp16 下降也挺惊人)。GGUF 都要反量化,速度不一定喜人,不过精度会高一点
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5436 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 01:38 · PVG 09:38 · LAX 17:38 · JFK 20:38
    ♥ Do have faith in what you're doing.