| Gemma4 + LiteRT-LM 真得有点的东西, e2b 内存仅 2G 左右占用, 在 天玑 的安卓机上跑的飞快. dacapoday • 17 小时 8 分钟前 • 最后回复来自 jaoyina | 4 |
| 闲置 16GB M1 Pro MBP 跑大模型 ahdw • 8 小时 57 分钟前 • 最后回复来自 iango | 17 |
| 有人用 mac studio 测试过 gemma4 31b 16 吗 wali77 • 2 天前 • 最后回复来自 nrtEBH | 4 |
| gemma4:e4b 的效果出乎意料, 1050ti 也能很好的生成文章 andyskaura • 2 天前 • 最后回复来自 iango | 29 |
| Gemma 4 31B 大概什么水平,本地部署是不是又成为现实了 unt • 1 天前 • 最后回复来自 chenjunqiang | 44 |
| 谷歌的 Gemma 4 怎么样,有必须要本地弄一下吗 wszzh • 2 天前 • 最后回复来自 longxinglink | 18 |
| 2 年以后的硬件和本地大模型 workbest • 4 天前 • 最后回复来自 jackqian | 26 |
| 为什么 Qwen 吹这么牛,但是用起来体验这么拉啊,它的真实能力究竟怎么样 unt • 5 天前 • 最后回复来自 cvbnt | 5 |
| qwen 本地大模型的问题 workbest • 7 天前 • 最后回复来自 workbest | 3 |
| 好奇有没有人用本地模型写代码? turfbook • 8 天前 • 最后回复来自 turfbook | 3 |
| macbook 32G 内存, M5 芯片本地跑大模型有推荐的吗? Hermitist • 8 天前 • 最后回复来自 SayHelloHi | 24 |
| 本地部署 deepseek 70B,回答乱码 weishao666 • 3 月 28 日 • 最后回复来自 gigishy | 10 |
| [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? diudiuu • 14 小时 39 分钟前 • 最后回复来自 diudiuu | 27 |
| 3090 跑文本向量模型可以么? 3090 是不是有点过剩? catyun88 • 3 月 23 日 • 最后回复来自 coefu | 2 |
| 家用机带宽太小玩不转 local llm 啊 Eleutherios • 3 月 19 日 • 最后回复来自 Eleutherios | 11 |
| 想部署本地大模型来分析股票趋势,有没有专门针对股票的大模型? pangfahe • 3 月 12 日 • 最后回复来自 beasnail | 5 |
| 如何在 vs code 上应用自建的 ollama 模型 davidyin • 3 月 15 日 • 最后回复来自 oldlamp | 9 |
| qwen3.5 过度思考的问题 cat9life • 3 月 24 日 • 最后回复来自 cat9life | 12 |
| minimax 挂了?? 57show • 3 月 8 日 |
| Qwen3.5-35B-A3B
Livid PRO |
6 |