V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
spike0100
0.01D
V2EX  ›  Local LLM

经过我一个多月的测试,我发现本地部署的 qwen3-vl-8b 比 qwen3-8b 在新闻和游戏名词等翻译上面更有优势

  •  
  •   spike0100 · 2025 年 11 月 4 日 · 1281 次点击
    这是一个创建于 101 天前的主题,其中的信息可能已经有所发展或是发生改变。


    图中最后两条是 qwen3-vl-8b 翻译的,基本已经接近母语直接阅读的翻译水平。
    gemma3-4b ,qwen3-8b ,gpt-oss-20b 都达不到这个水平
    12 条回复    2026-02-01 18:38:38 +08:00
    Tose
        1
    Tose  
       2025 年 11 月 5 日 via Android
    你这 mac 上的 rss 阅读器 UI 很不错!
    spike0100
        2
    spike0100  
    OP
       2025 年 11 月 5 日


    也有比较离谱的翻译。。。
    spike0100
        3
    spike0100  
    OP
       2025 年 11 月 5 日
    @Tose 哈哈哈,这是我自己写的应用! https://sidefyapp.com/
    liuyuntian
        4
    liuyuntian  
       2025 年 11 月 30 日
    问一下,除了新闻和游戏名词,整体的翻译是 8b 好,还是 vl-8b 好啊?多谢!
    spike0100
        5
    spike0100  
    OP
       2025 年 11 月 30 日
    @liuyuntian 没严格测试过。主要拿来翻译新闻了
    spike0100
        6
    spike0100  
    OP
       1 月 23 日
    @liuyuntian 现在我确定 translategemma 是本地大模型里面最适合做通用翻译的。
    k4x7UW92WE8
        7
    k4x7UW92WE8  
       1 月 26 日
    @spike0100 比 Hunyuan-MT 还强吗
    liuyuntian
        8
    liuyuntian  
       1 月 26 日
    @spike0100 感谢提醒,没想到两个月后还能得到回复,我去下载一个试一下。
    spike0100
        9
    spike0100  
    OP
       1 月 26 日
    @gangstar902 我只测试了 ollama.com 的模型
    liuyuntian
        10
    liuyuntian  
       1 月 27 日
    @spike0100 真是好用好用,省了在本地加载多个模型!
    liuyuntian
        11
    liuyuntian  
       1 月 30 日   ❤️ 1
    @spike0100 不甘心又找了一下,发现这个似乎快一点点:rinex20/translategemma3:12b
    k4x7UW92WE8
        12
    k4x7UW92WE8  
       12 天前
    @liuyuntian 你好 我想问一下 目前有没有什么手段可以把这种翻译模型精简化 只保留几种常用的需要的语言比方说中文和英语还有日语之类的 然后整体上让整个模型的参数降下来以适应各种设备的需要
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2259 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 56ms · UTC 14:45 · PVG 22:45 · LAX 06:45 · JFK 09:45
    ♥ Do have faith in what you're doing.