V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  xjiang1982154112  ›  全部回复第 3 页 / 共 3 页
回复总数  55
1  2  3  
2025 年 12 月 17 日
回复了 xjiang1982154112 创建的主题 分享创造 我把 AI 用到了爬虫上,做了一款工具
@MEIerer 马上改进
2025 年 12 月 17 日
回复了 RITd 创建的主题 职场话题 我的人生好像有点坏掉了,请大家给点建议
@sss393 -_-! 我认识的绝大部分已婚的男的,给我的反馈都是,如果离婚了,要是再结婚就是狗。虽然这些人家庭都挺美满的
2025 年 12 月 17 日
回复了 RITd 创建的主题 职场话题 我的人生好像有点坏掉了,请大家给点建议
你这样已经算相当不错了。。
人生是一个非常非常漫长的旅途,也是一场容错率极高的游戏。
往前走,不管是家庭还是事业,只要继续往前走,就算很慢,就算会停下来休息一段时间,不要有愧疚感,只要你还能再动起来,只要你没有退,你基本已经赢了大部分同龄人。
和光同尘也好,特立独行也罢;嗷嗷叫的奋斗也行,躺平摆烂不思进取也是一个选择。只要你还能收拾心情继续走就行。
30 岁是个很有意思的分界线,会有人劝你考编,告诉你年纪再大就考不了了,铁饭碗才是真;完全没错,但是你完全不用纠结,考不考,会不会错失啥好机会,根本不重要,重要的是你的心态,不乱不退就行,人这一生措施的机会和缘分,数不胜数,不差这一次的。

我说的全是屁话~~你想要的“人生建议”也都是屁话。人活自己,如人饮水,冷暖自知
2025 年 12 月 17 日
回复了 xjiang1982154112 创建的主题 问与答 我想收集一些爬虫的需求场景
@lisxour 感谢提醒,我们马上改进
2025 年 12 月 17 日
回复了 xjiang1982154112 创建的主题 问与答 我想收集一些爬虫的需求场景
@FireKnight 这是我们考虑不周,马上改进,添加邮箱登录
2025 年 12 月 17 日
回复了 xjiang1982154112 创建的主题 问与答 我想收集一些爬虫的需求场景
@zbuhui2013 这两个工具都需要配置 xpath 这样的操作,非程序员很难使用。我这个工具不需要配置任何东西,用一句大白话说明你要关注的内容就行。
2025 年 12 月 17 日
回复了 guiyumin 创建的主题 程序员 有大佬用过 browser use 吗?效果怎么样?
不管是 browser-use 、computer-use 还是 app-use ,都非常有前途,我也坚信这个技术会在近期出现杀手级应用。但是啊,做通用方向的落地难度远超想象,我的建议是,落到具体的某个场景去,这个场景越小越好,仅仅只是替代某个现实岗位的某个日常任务中,他的价值都难以想象。加油!
2025 年 12 月 17 日
回复了 pureGirl 创建的主题 程序员 现在大型的爬虫项目用的是什么框架, scrapy 过时了吗
考虑真实性模拟,最简单的是 playwright ,甚至可以直接拿一个 mac mini ,操作真实浏览器(非无头);方便程度超出你的想象~~
一般场景用 scrapy 够了
你说的大型,如果是指数据量巨大,那其实爬虫不是重点,手搓 python 脚本都不是问题,问题是 IP 池等各种"反-反爬"处理。
如果指的是网站类型超多(几百几千,甚至几万种),要吗人肉堆脚本,要吗用 AI (安利一下我们的东西:猫头鹰 AI:mtywatch.com
如果指的是"突破"难度很大,那么你重点研究的是法律风险
2025 年 12 月 17 日
回复了 xjiang1982154112 创建的主题 分享创造 我把 AI 用到了爬虫上,做了一款工具
@dacapoday 合理合规使用,没问题的。
最高检,2025 年 11 月 29 号 刚发的解释:厘定边界合理规制网络爬虫行为 https://www.spp.gov.cn//llyj/202511/t20251129_712355.shtml
2025 年 12 月 17 日
回复了 xjiang1982154112 创建的主题 分享创造 我把 AI 用到了爬虫上,做了一款工具
@lswlray /抱拳/抱拳 多谢建议,您建议的产品功能正在开发中
2025 年 12 月 17 日
回复了 xjiang1982154112 创建的主题 分享创造 我把 AI 用到了爬虫上,做了一款工具
@shouh @zhangk23 马上上线邮箱登录
@brave256 你问到我们痛点上了,都还没开始想呢。目前所有的心思都放在如何找到第一批使用人群。我只能抱着只要我们把"一句话就能监控网页"这个能力做好,应该有我们一口汤喝-_-!
@BenCoper @x86 我们只做了轻微的“反-反爬”处理,并且把抓取频率控制在最低 15 分钟。

我们这个产品需求的出发点,是为了服务原来一直都存在的一类人群:
1 、因为自己的工作、学业、娱乐的需要,要盯某几个网站;
2 、不是为了获取大量数据,也不会为了秒级抢购,只是需要一天刷几次网站,甚至几天刷一次;
3 、这类人群,愿意为此付出一点点的金钱,但是无法被有效服务(找不到程序员帮忙写爬虫,也学不来八爪鱼这类的工具);

20 多年前,我接触爬虫技术的时候,就在想办法如何有效服务这些人(挨个写代码配脚本绝对不是好方式,八爪鱼这种方式对普通人还是鸡肋了点)。

这次 AI 技术变革,带来了真正的解决方法。任意一个页面,理论上-_-AI 都能帮你自动识别并抓取。

所以做了这套工具,我们的重点确实不是处理反爬问题,我们的重点只有一个:
相当于你请了一个兼职,每天帮你刷十几次网站,有你关心的数据就通知你;
或者是相当于你请了一个 1 年的程序员,帮你写写代码配脚本,并保证可以持续工作。
而你只要花一点点钱(一个月几块钱)

这是我的初心与设想,不知道是否能有足够的需求群体支撑这个产品走下去(想把 AI 优化的能处理好各种页面和不同需求,难度还挺高 -_-!!)/抱拳/抱拳
@lswlray 重点是因为合规性和防止滥用的考虑,
1 、SaaS 版本只是做内容监控通知,完整内容的抓取,后续会现在浏览器插件版本开发
2 、关于“反-反爬”技术,我们只做轻微的处理(低频率、使用真实浏览器访问)
3 、IP 限制问题,我们仅绕开部分 WAF 会拦截机房 IP 的限制,gfw 的问题不处理,可自行翻墙后用浏览器插件版本
4 、验证码这个问题,暂时不处理

浏览器插件版本会在本月发布
@nananqujava 多个模型组合的,视觉+代码+文本大模型
1  2  3  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2153 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 18ms · UTC 09:05 · PVG 17:05 · LAX 01:05 · JFK 04:05
♥ Do have faith in what you're doing.