微信公众号文章爬取方法汇总(上)

爬虫

经常有朋友需要帮忙做公众号文章爬取,这次来做一个各种方法的汇总说明。
目前爬取微信公众号的方法主要有3种:

  1. 通过爬取第三方的公众号文章聚合网站
  2. 通过微信公众平台引用文章接口
  3. 通过抓包程序,分析微信app访问公众号文章的接口

通过第三方的公众号文章聚合网站爬取

微信公众号文章一直没有提供一个对外的搜索功能,直到2013年微信投资搜狗之后,搜狗搜索接入微信公众号数据,从此使用搜狗搜索就可以浏览或查询到相关公众号以及文章。
域名是: https://weixin.sogou.com/

搜狗微信

可以直接搜索公众号或者文章的关键字,一些热门的公众号更新还是很及时的,几乎做到了和微信同步。
公众号搜索

所以,爬一些热门公众号可以使用搜狗微信的接口来做,但是一些小众公众号是搜索不到的,而且搜狗的防爬机制更新的比较勤,获取数据的接口变化的比较快,经常两三个月就有调整,导致爬虫很容易挂,这里还是建议使用 selenium 爬比较省心。另外搜狗对每个ip也有访问限制,访问太频ip会被封禁24小时,需要买个ip池来做应对。
还有一些其他公众号文章聚合网站(比如传送门)也都存在更新不及时或者没有收录的问题,毕竟搜狗这个亲儿子都不行。

通过微信公众平台引用文章接口

这个接口比较隐蔽而且没法匿名访问,所有得有一个公众号,建议新注册一个公众号比较好,免得被封。
下面开始具体步骤:首先登录自己的微信公众号,在进去的首页选择新建群发,然后再点击自建图文,在文章编辑工具栏中找到超链接,如下图:

点击超链接

点击这个超链接按钮,就会弹出一个对话框,链接输入方式这一项选中查找文章,如下图:
查找文章

到这里就可以输入公众号的名字,回车之后微信就会返回相匹配的公众号列表,如下图:
搜索公众号

接着点击你想抓取的公众号,就会显示具体的文章列表了,已经是按时间倒序了,最新的文章就是第一条了。如下图:
文章列表

微信的分页机制比较奇怪,每个公众号的每页显示的数据条数是不一样的,分页爬的时候要处理一下。
通过chrome分析网络请求的数据,我们想要的数据已经基本拿到了,文章链接、封面、发布日期、副标题等,如下图:
网络请求数据

OK,这种方法爬取的原理讲完了,下面开始实操了😀。
由于微信公众平台登录验证比较严格,输入密码之后还必须要手机扫码确认才能登录进去,所以最好还是使用selenium做自动化比较好。具体微信接口的分析过程我就不列了,直接贴代码了:

import re
import time
import random
import traceback
import requests

from selenium import webdriver


class Spider(object):
    '''
    微信公众号文章爬虫
    '''

    def __init__(self):
        # 微信公众号账号
        self.account = ''
        # 微信公众号密码
        self.pwd = ''

    def create_driver(self):
        '''
        初始化 webdriver
        '''
        options = webdriver.ChromeOptions()
        # 禁用gpu加速,防止出一些未知bug
        options.add_argument('--disable-gpu')

        # 这里我用 chromedriver 作为 webdriver
        # 可以去 http://chromedriver.chromium.org/downloads 下载你的chrome对应版本
        self.driver = webdriver.Chrome(executable_path='./chromedriver', chrome_options=options)
        # 设置一个隐性等待 5s
        self.driver.implicitly_wait(5)

    def log(self, msg):
        '''
        格式化打印
        '''
        print('------ %s ------' % msg)

    def login(self):
        '''
        登录拿 cookies
        '''
        try:
            self.create_driver()
            # 访问微信公众平台
            self.driver.get('https://mp.weixin.qq.com/')
            # 等待网页加载完毕
            time.sleep(3)
            # 输入账号
            self.driver.find_element_by_xpath("./*//input[@name='account']").clear()
            self.driver.find_element_by_xpath("./*//input[@name='account']").send_keys(self.account)
            # 输入密码
            self.driver.find_element_by_xpath("./*//input[@name='password']").clear()
            self.driver.find_element_by_xpath("./*//input[@name='password']").send_keys(self.pwd)
            # 点击登录
            self.driver.find_elements_by_class_name('btn_login')[0].click()
            self.log("请拿手机扫码二维码登录公众号")
            # 等待手机扫描
            time.sleep(10)
            self.log("登录成功")
            # 获取cookies 然后保存到变量上,后面要用
            self.cookies = dict([[x['name'], x['value']] for x in self.driver.get_cookies()])

        except Exception as e:
            traceback.print_exc()
        finally:
            # 退出 chorme
            self.driver.quit()

    def get_article(self, query=''):
        try:
            url = 'https://mp.weixin.qq.com'
            # 设置headers
            headers = {
                "HOST": "mp.weixin.qq.com",
                "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.109 Safari/537.36"
            }
            # 登录之后的微信公众号首页url变化为:https://mp.weixin.qq.com/cgi-bin/home?t=home/index&lang=zh_CN&token=1849751598,
            # 从这里获取token信息
            response = requests.get(url=url, cookies=self.cookies)
            token = re.findall(r'token=(\d+)', str(response.url))[0]
            time.sleep(2)

            self.log('正在查询[ %s ]相关公众号' % query)
            search_url = 'https://mp.weixin.qq.com/cgi-bin/searchbiz?'
            # 搜索微信公众号接口需要传入的参数,
            # 有三个变量:微信公众号token、随机数random、搜索的微信公众号名字
            params = {
                'action': 'search_biz',
                'token': token,
                'random': random.random(),
                'query': query,
                'lang': 'zh_CN',
                'f': 'json',
                'ajax': '1',
                'begin': '0',
                'count': '5'
            }
            # 打开搜索微信公众号接口地址,需要传入相关参数信息如:cookies、params、headers
            response = requests.get(search_url, cookies=self.cookies, headers=headers, params=params)
            time.sleep(2)
            # 取搜索结果中的第一个公众号
            lists = response.json().get('list')[0]
            # 获取这个公众号的fakeid,后面爬取公众号文章需要此字段
            fakeid = lists.get('fakeid')
            nickname = lists.get('nickname')

            # 微信公众号文章接口地址
            search_url = 'https://mp.weixin.qq.com/cgi-bin/appmsg?'

            # 搜索文章需要传入几个参数:登录的公众号token、要爬取文章的公众号fakeid、随机数random
            params = {
                'action': 'list_ex',
                'token': token,
                'random': random.random(),
                'fakeid': fakeid,
                'lang': 'zh_CN',
                'f': 'json',
                'ajax': '1',
                'begin': '0',  # 不同页,此参数变化,变化规则为每页加5
                'count': '5',
                'query': '',
                'type': '9'
            }
            self.log('正在查询公众号[ %s ]相关文章' % nickname)
            # 打开搜索的微信公众号文章列表页
            response = requests.get(search_url, cookies=self.cookies, headers=headers, params=params)
            time.sleep(2)
            for per in response.json().get('app_msg_list', []):
                print('title ---> %s' % per.get('title'))
                print('link ---> %s' % per.get('link'))
                # print('cover ---> %s' % per.get('cover'))

        except Exception as e:
            traceback.print_exc()


if __name__ == '__main__':
    spider = Spider()
    spider.login()
    spider.get_article('python')

代码只是作为学习使用,没有做分页查询之类。
据网友称,这个接口也有访问频次限制,一天几百次还是没啥问题,太快或者太多次访问就会被封24小时。

下一篇我们来讲讲如何获取文章的阅读数和点赞数。

参考文章

https://segmentfault.com/a/1190000015642808
https://cuiqingcai.com/4652.html

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,732评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,496评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,264评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,807评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,806评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,675评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,029评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,683评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,704评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,666评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,773评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,413评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,016评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,204评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,083评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,503评论 2 343

推荐阅读更多精彩内容