V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  llama2
silencelixing Mac mini 适合跑什么本地模型?
Mac mini  •  silencelixing  •  1 月 22 日  •  最后回复来自 qiancheng
1
xiaohupro Ollama 运行 Llama2 大模型,怎么友好的支持中文
Local LLM  •  xiaohupro  •  2024 年 7 月 23 日  •  最后回复来自 kangfenmao
13
lwch 无需量化,在树莓派上运行 LLaMA2 70B 模型
  •  2   
    分享创造  •  lwch  •  2023 年 10 月 21 日  •  最后回复来自 lwch
    28
    KangKang625 Llama2 下载问题
    问与答  •  KangKang625  •  2023 年 8 月 30 日
    xiaoding 可以终结 macbook 选择 8G 还是 16G 内存的讨论了
    问与答  •  xiaoding  •  2023 年 8 月 4 日  •  最后回复来自 chengxiao
    42
    chinesehuazhou Python 潮流周刊第 13 期(2023-07-29)
  •  1   
    Python  •  chinesehuazhou  •  2023 年 7 月 29 日
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2891 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 10:11 · PVG 18:11 · LAX 03:11 · JFK 06:11
    ♥ Do have faith in what you're doing.