urllib2 的超时问题
如果写爬虫除非为每一个URL开一个线程,不然就不可能绕开Timeout的影响,
每次超时后就会暂停程序。
用下面这段程序来跳过超时的部分,
try:
except Exception as e:
print str(e)
扫码获取源码
还有就可以用协程(python3标准库已经原生支持);
urllib2 的超时问题
如果写爬虫除非为每一个URL开一个线程,不然就不可能绕开Timeout的影响,
每次超时后就会暂停程序。
用下面这段程序来跳过超时的部分,
try:
except Exception as e:
print str(e)
扫码获取源码
还有就可以用协程(python3标准库已经原生支持);