Python 疫苗爬虫脚本

关于疫苗的python爬虫脚本,主要爬新华网。

源码地址查看

Github brokge / vaccine-scrapy

1. 需要环境

  • python 3.5.2
  • scrapy 1.5.2
  • conda 4.6.11 或者 pip3
  • pycryptodome
  • pymysql

如果碰到 兼容性问题
最好的方式,是通过 conda 安装所需要的环境变量,记得安装之后重启下系统

conda install -c conda-forge scrapy

当然也可以通过 pip3 来安装

pip3 --default-timeout=100 install scrapy 
pip3 install pycryptodome
pip3 install pymysql

2. 运行

scrapy crawl spiderNews  

3. 文件目录说明

通过 tree 命令查看目录结构

.
── README.md
├── scrapy.cfg
└── vaccine
    ├── README.md
    ├── __init__.py
    ├── __pycache__
    │   ├── __init__.cpython-37.pyc
    │   ├── items.cpython-37.pyc
    │   ├── pipelines.cpython-37.pyc
    │   └── settings.cpython-37.pyc
    ├── dbsql.sql
    ├── items.py
    ├── middlewares.py
    ├── pipelines.py
    ├── settings.py
    ├── spiders
    │   ├── VaccineNewsSpider.py
    │   ├── __init__.py
    │   └── __pycache__
    │       ├── VaccineNewsSpider.cpython-37.pyc
    │       └── __init__.cpython-37.pyc
    └── vaccine_name.txt
  • dbsql.sql ---数据表结构脚本

  • vaccine_name.txt ---需要查询的关键字配置文件

  • VaccineNewsSpider.py --- 爬虫执行文件

  • pipelines.py --- 配置 通道的位置,根据自己情况调整

     # 链接数据的配置
     self.connect = pymysql.connect(
          # 数据库地址
          host="127.0.0.1",
          port=3306,
          db="dbcontent",
          user='yusuzi',
          passwd='yusuzi',
          charset='utf8',
          use_unicode=True
      )
    

4. 执行效果截图

image

5. 核心逻辑

在 VaccineNewsSpider.py 文件中,主要逻辑流程如下

  1. 构造 url请求地址,
  2. 填充 关键字
  3. 请求 url
  4. 解析 返回数据
  5. 根据请求url 生成 md5 去重。
  6. 写入数据哭。

5.1 构造请求并解析返回数据

class VaccineNewsSpider(scrapy.Spider):
    name = "spiderNews"
    url_format = "http://so.news.cn/getNews?keyword=%s&curPage=%s&sortField=0&searchFields=1&lang=cn"

    def start_requests(self):
        keywords = set()
        try:
            f = open('vaccine/vaccine_name.txt', 'r')
            for line in f.readlines():
                line = line.strip('\n')  # 去除换行符号
                keywords.add(line)
        finally:
            if f:
                f.close()

url_format: 根据自己不同的目标网址,进行构造请求url


 def parse_json(self, response):
        print("aa")
        print(response.body)
        newJson = json.loads(response.body) 
        print(newJson['code'])
        newContent = newJson['content']
        results = newContent['results']
        pageSize = newContent['pageCount']
        curPage = newContent['curPage']
        keyWord = newContent['keyword']
        newSets = set()
        for result in results:
            url = result['url']
            if 'm.xinhuanet.com' in url and result['des']:
                html_remove = re.compile(r'<[^>]+>', re.S)  # 构建匹配模式
                # dd = dr.sub('', string) # 去除html标签
                title = html_remove.sub('', result['title'])
                print("title"+title)
                vaccineNewsItem = VaccineNewsItem()
                vaccineNewsItem['title'] = title.lstrip()
                vaccineNewsItem['from_url'] = url
                # result['sitename']
                vaccineNewsItem['from_source'] = '新华网'
                vaccineNewsItem['summary'] = result['des'].lstrip()
                vaccineNewsItem['create_date'] = result['pubtime']
                vaccineNewsItem['md5'] = self.md5_str(str=title)
                vaccineNewsItem['keyword'] = keyWord
                newSets.add(vaccineNewsItem)
                yield vaccineNewsItem
        if curPage < pageSize:
            curPage = curPage+1
            url = self.url_format % (keyWord, curPage)
            print(url)
            yield scrapy.Request(url, callback=self.parse_json)
    
    def md5_str(self, str):
        m = MD5.new()
        m.update(str.encode("utf-8"))
        return m.hexdigest()

以上代码为请求 url 并解析请求数据。

5.2 写入数据库

首先:VaccinePipeline.py 中配置通道相关信息,比如数据库链接配置,数据实体映射配置,插入数据执行sql配置等。

其次:setting.py 中 激活通道,并配置优先级

ITEM_PIPELINES = {
    'vaccine.pipelines.MySQLPipeLine': 300,
 }

通过以上基本就可以跑起来了。运行中有什么问题,欢迎反馈

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,772评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,458评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,610评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,640评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,657评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,590评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,962评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,631评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,870评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,611评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,704评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,386评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,969评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,944评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,179评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,742评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,440评论 2 342