C#爬虫通过代理刷文章浏览量

2020-01-05 09:14:19王振洲

IP限制

一些网站为了防止爬虫,可能会对每个ip进行访问频率的限制,访问频率一个是速度,可以同Thread.Sleep来进行休眠,暂停一会儿再进行爬取;一个IP次数这个我们可以通过抓取的免费代理来设置。

Header里的限制

User-Agent :用户代理,这个非常简单,可以收集一些常见的浏览器代理头,在请求的时候随机设置User-Agent

Referer :访问目标链接是从哪个链接条过来的,做防图片的盗链可以用它来处理,当然这个Refresh也是可以伪造。

Cookie:登录后或其他的一些用户操作,服务端会返回一些cookie信息,没有cookie很容易被识别为伪造请求,可以在本地通过Js,根据服务端返回的一些信息,本地区设置cooke,当然这个实际中并没有这么简单,一般会涉及到加密解密的过程。这个是爬虫的一个难点。

3.使用代理IP刷新csdn文章的浏览量

csdn文章的浏览量还是比较好刷的,前提的是你有足够多的代理,没有更多的代理效率会非常慢。前面一篇文章我们已经从几个免费的代理网站抓取了代理,这里就不多做介绍了,这里我们接着上一篇的拿来就用。c#批量抓取免费代理并验证有效性。1.我使用的多线程批量发送请求,效率更好,每个线程平均分配一定数量的代理执行请求。2.定时获取Redis中代理3.使用System.Collections.Concurrent 命名空间下ConcurrentDictionary字典集合来统计失败的次数,如果达到一定次数就直接从库中删除该代理。关于代码中主要功能是实现,不足的地方就是代理太少,效率不高。

效果如图: