因为用了个新技术
不可避免要反复修改尝试
改到第 3 还是第 4 次时候, ai 想放弃了
还找理由说新技术不成熟风险高, 建议放弃使用老技术
我坚决制止, 继续强烈要求它改动, 最后又坚持改了 3 轮, 终于调试成功
1
canyue7897 8 小时 7 分钟前
不明觉厉
啥新技术现在的 ai 没学过? 目前的知识库都到 2025 年 12 月 除非是 1 月新出的技术? |
2
netabare 1 小时 47 分钟前 via Android
说到这个,我想到我让 AI 诊断某个 day 0 legacy 的时候,上来 AI 就给我说「 vite dev tool 可能不干净,HMR 很脆弱,你应该手写」然后折腾了几轮后我感觉不对劲直接中断然后反问他说「不干净」是否能搜到讨论,他推荐的浏览器插件方案是不是在 DOM 上更不干净。然后得出的结论是,整个问题一开始压根不是跟 vite dev tool 相关的。
第二天遇到奇怪的问题,问其他人,别人不知道什么地方出问题了并且回答我「我感觉你代码没问题啊」,然后我遇到一个很奇怪的响应式断掉的问题,并且断掉的方向很巧合的有种镜子的感觉。 然后我直接拿这个逻辑去质疑 AI 了: 这个链条是: -- 我拒绝 Chrome Devtool -> 我就要 HMR -> 我拒绝 Vite 的浏览器插件 -> 我就要自带的 vite dev tool -> 我拒绝「 vue 在 window 」 -> 我就要把 vue 收回来,所以我暴露了 component+mount/unmount -> 完美的镜面 bug 每一步,都是在逆着 LLM 被训练的偏好走。 如果从一开始我没有质疑、质疑、顶撞「 vite dev tool 真的是不干净的吗」和否定「浏览器插件」,那也许压根发现不了 bug ,连「这里有什么地方很不对劲」都不知道了。 然后我能分析出的唯一的结论就是大数原理和语料问题还有 LLM 天然倾向于打圆场做老好人而不是直接攻进问题核心区。并且这跟 LLM 倾向于一个 commit 在一行改动的同时引入三行无关参数和两行 trivial 注释是类似的。 不过我也在想,也许有问题的远远不止是 LLM 。 |