知识点
- 学习 async(https://github.com/caolan/async ) 的使用。这里有个详细的 async demo 演示:https://github.com/alsotang/async_demo
- 学习使用 async 来控制并发连接数。
课程内容
使用eventproxy控制并发(http://www.jianshu.com/p/c13a9977053a)的代码其实是不完美的。为什么这么说,是因为在这个项目之中,之前我使用的是一次性发送20个请求出去而简书因为我发出的并发连接数太多而当你是在恶意请求,虽然并没有把 IP 封掉,但是出现了503错误。所以之后代码之中选择了只发送3个请求。
我们在写爬虫的时候,如果有 1000 个链接要去爬,那么不可能同时发出 1000 个并发链接出去对不对?我们需要控制一下并发的数量,比如并发 10 个就好,然后慢慢抓完这 1000 个链接。
用 async 来做这件事很简单。
这次我们要介绍的是 async 的 mapLimit(arr, limit, iterator, callback)
接口。另外,还有个常用的控制并发连接数的接口是 queue(worker, concurrency)
,大家可以去 https://github.com/caolan/async#queueworker-concurrency 看看说明。
对了,还有个问题是,什么时候用 eventproxy,什么时候使用 async 呢?它们不都是用来做异步流程控制的吗?
我的答案是:
当你需要去多个源(一般是小于 10 个)汇总数据的时候,用 eventproxy 方便;当你需要用到队列,需要控制并发数,或者你喜欢函数式编程思维时,使用 async。大部分场景是前者,所以我个人大部分时间是用 eventproxy 的。
正题开始。
首先,我们伪造一个 fetchUrl(url, callback)
函数,这个函数的作用就是,当你通过
fetchUrl('http://www.baidu.com', function (err, content) {
// do something with `content`
});
调用它时,它会返回 http://www.baidu.com
的页面内容回来。
当然,我们这里的返回内容是假的,返回延时是随机的。并且在它被调用时,会告诉你它现在一共被多少个地方并发调用着。
这组链接的长这样:
运行输出是这样的:
可以看到,一开始,并发链接数是从 1 开始增长的,增长到 5 时,就不再增加。当其中有任务完成时,再继续抓取。并发连接数始终控制在 5 个。