V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
lesismal
V2EX  ›  程序员

好奇, 很多人讨论 cursor 之类的 viber coding, 但是很少见有人说 github copilot 的, 但我体感 copilot 非常给力

  •  
  •   lesismal ·
    lesismal · 16 天前 · 1829 次点击

    个人: Copilot Pro+ subscription , 390 刀包年, 1500 premium requests/month.

    可以用 GPT/Gemini/Grok/Claude Code 各种模型, 包括 Claude Code Sonnet4.5 / Opus4.5

    用 Opus 4.5 应该是当下最强了, 准确率较高, vscode agent 模式也基本是自己只要出嘴(打字)即可, 完全不需要自己写任何代码, 甚至偶尔自己想修改一些简单地方效率比 AI 低得多, 只要自己描述的够清楚就好.

    1500/30 = 50 premium requests/day, 如果按照 22-23 天工作日计算, 就 60 多次每天了. 对我来说也足够, 毕竟每次请求出去, agent 也要思考和处理一阵, 50 次已经足够处理大量.

    相比于其他家的 token 费用报表, copilot 价格应该算是非常良心的了, 而且我基本用不完, 每月大概也就用 20-30%.

    copilot 给我体感上非常满意, 现在经常提醒/告诫自己, 不要自己写代码, 全都讲给 agent 让它做, 因为自己不如它做得好, 命名不如它规范, 文档不如它漂亮, 出活速度更是远不如它, 自己亲力亲为成为绊脚石.

    所以好奇, cursor 那些, 比 vscode+copilot 强在哪里?

    codehz
        1
    codehz  
       16 天前 via Android
    主要问题是上下文阉割,啥模型进来都给你卡到 128k 上下文()
    也许这就是 copilot 还能保持按请求付费的原因
    lesismal
        2
    lesismal  
    OP
       16 天前
    @codehz
    几个月前只有 sonnet 4.0/4.1 的时候, 一个 chat 经常就满了请求失败, 或者准确率很低. sonnet4.5 和 opus4.5 之后, 从零开始数万行代码一个 chat 从未切换, 准确率和完成质量很高了.

    所以得看下你#1 结论是什么时间点, 什么套餐, 是普通请求还是 premium 请求, 用的什么模型. 毕竟现在迭代速度太快了, 三日不见当刮目相看效果了.
    sillydaddy
        3
    sillydaddy  
       16 天前
    我是 Cursor 和 Copilot 都开了付费,这样请求次数会更多些。但一般有的选的话,我会选 Cursor ,感觉上会比 Copilot 更好些。

    举一个具体的例子,同样是 Opus 4.5 模型,在 Cursor 里面它能完整的打开浏览器、自测、截图,跑完整个流程。但 Copilot 里面就不能,经常卡住,印象中一次都没有像 Cursor 那样跑完循环。
    codehz
        4
    codehz  
       16 天前 via Android   ❤️ 1
    @lesismal 无关模型,因为是 api 那边的限制,opus 能完成是 opus 模型本来就好,你看这不给了个 3x 吗🌚上下文限制的影响是大项目经常陷入总结上下文,优化工具调用的循环(尤其是重构时,改文件次数较多的情况)😂opus 一次性做好不需要多少上下文自然没啥影响,倒是进行一个大规模重构试试,读几十个文件后 128k 就满了,个别模型用的人多的时候还会给你限制到 64k ,更加没法用了
    longxk
        5
    longxk  
       16 天前 via Android
    我刚看了眼我的 Pro 套餐订阅,居然只有 300 premium requests ,我咋记得之前是 1000 来着?
    codehz
        6
    codehz  
       16 天前 via Android
    检查了下,唯一给“长”上下文支持的是 0x 模型 raptor mini (GPT 5 mini 的微调),给到了 200k ,但因为是 thinking 模型,本身吃 token 就厉害,所以实际上也不太好用
    lesismal
        7
    lesismal  
    OP
       16 天前
    @codehz 大型工程这个上下文限制确实是影响挺大, 可能我目前用 copilot 处理的都是新工具/工程, 大一点的也才不到 10w 行代码, 而且 vscode 客户端应该是有归纳整理压缩索引之类的功能而不是直接把原始代码文件内容全部发送给 server 端, 而且每次也是发相关文件而不是发完整工程, 所以即使是 64-128k 也足够处理绝大多数的中小项目了.

    大型工程, 目前还是不太敢让 ai 做大动作的. 希望今年各大模型和 IDE 能进步再快一点.
    lesismal
        8
    lesismal  
    OP
       16 天前
    @sillydaddy 这样看来 cursor 确实是更强. 但我有时候甚至嫌 agent 这样跑完整的麻烦, 因为即使它跑完整流程我也不太敢相信, 总是需要自己再测一道兜底😂, 所有我经常禁止它做浏览器或者脚本测试之类的.


    @longxk 我也记不清了, 最初试用是付费 Pro, 但是我记得好像是 500 次, 但试用够爽我就升级 Pro+了, 也记不起具体是多少了
    sillydaddy
        9
    sillydaddy  
       16 天前   ❤️ 1
    @lesismal 有机会可以试一下,就是对于前端项目,它会截图,通过截图检查效果对不对,然后有时会发现,哎呀,不对,这个列表是空的,不应该,我来再检查一下代码,哦原来是这里的问题,blabla 修改,再启动,再截图,OK ,修好好了,完美!

    就是上面这样的一个流程。
    lesismal
        10
    lesismal  
    OP
       16 天前
    @sillydaddy #9 copilot 确实不如, 虽然给我感觉挺强了, 但是从来没遇到过像你讲的 cursor 这么聪明过, 我也试试 cursor
    DiffView
        11
    DiffView  
       16 天前
    听了这个帖子的讨论,又回去开了 cursor 。
    没想到现在已经是按照 token 付费了
    pro 套餐随便几个问题就用了 30%,一个问题要 1 美金,简直是搞笑。
    那我还不如 copilot 去。
    nmap
        12
    nmap  
       15 天前
    我的怎么没有 Claude 系列的模型?
    FlashEcho
        13
    FlashEcho  
       15 天前
    copilot 限制了 openai 系列的 reasoning effort ,不给你选只有 medium ,让人感觉很难受
    lesismal
        14
    lesismal  
    OP
       15 天前
    @nmap Pro 好像是没有 Claude 高阶模型,要 Pro+
    FarAhead
        15
    FarAhead  
       15 天前
    cursor 有点禁不住造了,这个 MAX 我也没选,不知道为啥 agent 会自己选这个模式
    anan1314git
        16
    anan1314git  
       10 天前
    我也有点困惑, 曾经的 AI 编程王者, 如今失宠被冷落在一旁, 少有人问津. 上下文长度限制确实是个大问题, 好在现在最新的 gpt 5.2 codex 上下文终于给到 256k 了
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   957 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 37ms · UTC 21:42 · PVG 05:42 · LAX 13:42 · JFK 16:42
    ♥ Do have faith in what you're doing.