第二个例子-七麦ios游戏信息爬取

正好朋友有个爬虫的需求,拿来练习一下:

需求

根据朋友提供的appid列表,爬取回对应的app信息。

找到目标页面

chrome打开七麦官网:https://www.qimai.cn/,右上角有一个查询appid的输入框。

image.png

输入appid后回车(举例:1279207754),会自动跳转到对应的app信息页:https://www.qimai.cn/app/rank/appid/1279207754/country/cn

image.png

在左侧有一个应用信息的链接,点击跳转到https://www.qimai.cn/app/baseinfo/appid/1279207754/country/cn,可以看出这就是我们要爬取的页面了。
image.png

分析页面

打开chrome调试工具,查看上图两处的element

image.png

image.png

可以看出,应用的名称是在class为.app-body .p-title里的元素内,而应用的详细信息是在class为.appinfo-pkg .baseinfo-list的元素内。应用名比较好抓取,详细信息需要提取出.li列表里每个.type.info的值,组成字典。

开始写代码

首先写一个无界面的selenium webdriver

from selenium import webdriver
from selenium.webdriver.common.by import By
from fake_useragent import UserAgent
import time

options = webdriver.ChromeOptions()
options.add_argument("user-agent=" + UserAgent().random)
# options.add_argument('--headless') # 无界面浏览
options.add_argument('--disable-gpu')
options.add_argument('--window-size=1366,768')
options.add_argument('disable-infobars')
options.add_argument('--no-sandbox')
driver = webdriver.Chrome(options=options)

然后打开目标页面,appid后面改成从文件里循环读取

url = 'https://www.qimai.cn/app/baseinfo/appid/{}/country/cn'
appid = '1279207754'
driver.get(url.format(appid))

爬取应用名称

time.sleep(5)
title = driver.find_element(By.CSS_SELECTOR, '.app-body .p-title').get_attribute('innerText')
print(title)

爬取应用详细信息

info_dict = {}
info_list = driver.find_elements(By.CSS_SELECTOR, '.appinfo-pkg .baseinfo-list li')
for ele in info_list:
    one_type = ele.find_element(By.CSS_SELECTOR, '.type').get_attribute('innerText')
    one_info = ele.find_element(By.CSS_SELECTOR, '.info').get_attribute('innerText')
    info_dict[one_type] = one_info
print(info_dict)
driver.quit()

本来以为会很顺利,结果遇到页面报错,网页直接跳到404页面!


image.png

第一次遇到这种情况,经过网上搜索,发现是网站有检测爬虫,使用的是navigator.webdriver的js判断。解决方法也简单,driver的赋值那里添加如下代码:

# 修改webdriver值
driver.execute_cdp_cmd('Page.addScriptToEvaluateOnNewDocument', {
    "source": "Object.defineProperty(navigator, 'webdriver', {get: () => undefined})"
})

这回浏览器顺利打开了目标页面,但是依然有报错
selenium.common.exceptions.NoSuchElementException: Message: no such element: Unable to locate element: {"method":"css selector","selector":".info"}
不难看出,这是one_info = ele.find_element(By.CSS_SELECTOR, '.info').get_attribute('innerText')这句代码出的错,应该是有些li里没有info,这里我们加个异常处理

try:
    one_type = ele.find_element(By.CSS_SELECTOR, '.type').get_attribute('innerText')
    one_info = ele.find_element(By.CSS_SELECTOR, '.info').get_attribute('innerText')
    info_dict[one_type] = one_info
except Exception as e:
    print(e)

这下可以正常输出信息了:


image.png

读取文件和写入文件

把朋友给的appid列表存到qimai_ids.txt文档里,使用open方法读取

with open('qimai_ids.txt', 'r', newline='') as f:
    appid_list = [line.strip() for line in f.readlines()]
    print(appid_list)

然后把应用信息写入到qimai.csv表格里

with open(self.csv_file, 'a', newline='') as f:
    # 生成csv操作对象
    writer = csv.writer(f)
    # 写入csv文件
    try:
        writer.writerow(app_info)
    except Exception as e:
        print(e)
        print('!!!写入失败:%s' % app_info[0])

注意,这里的app_info,是我把titleinfo_dict组合成一个新的list,具体代码见后面。
然后再写一个循环爬取方法,注意加上时间间隔,实测需要10s间隔,否则容易被检测到封禁IP。

完整代码

from selenium import webdriver
from selenium.webdriver.common.by import By
import time
import csv
import os
import random
from fake_useragent import UserAgent

options = webdriver.ChromeOptions()
options.add_argument("user-agent=" + UserAgent().random)
options.add_argument('--headless')  # 无界面浏览
options.add_argument('--disable-gpu')
options.add_argument('--window-size=1366,768')
options.add_argument('disable-infobars')
options.add_argument('--no-sandbox')

# 反爬
options.add_experimental_option('excludeSwitches', ['enable-automation'])
options.add_experimental_option('useAutomationExtension', False)

driver = webdriver.Chrome(options=options)
# 修改webdriver值
driver.execute_cdp_cmd('Page.addScriptToEvaluateOnNewDocument', {
    "source": "Object.defineProperty(navigator, 'webdriver', {get: () => undefined})"
})


class QimaiSpider(object):
    def __init__(self):
        self.csv_file = 'qimai.csv'
        self.url = 'https://www.qimai.cn/app/baseinfo/appid/{}/country/cn'
        self.record_list = []
        self.appid_list = []

        # 初始化表格
        csv_exists = os.path.exists(self.csv_file) and os.path.getsize(self.csv_file) != 0
        if not csv_exists:
            with open(self.csv_file, 'a', newline='') as f:
                print('csv表格不存在,初始化表格')
                # 生成csv操作对象
                writer = csv.writer(f)
                writer.writerow(['appid', 'BundleID', '名称', '开发者', '供应商', '发布日期', '更新日期', '版本', '价格', '年龄评级'])
        else:
            with open(self.csv_file, 'r', newline='') as f:
                reader = csv.DictReader(f)
                self.record_list = [row['appid'] for row in reader if row['BundleID'] and row['BundleID'] != '-']
                print('已加载成功数据 %d 个' % len(self.record_list))

        # 加载appid列表
        with open('qimai_ids.txt', 'r', newline='') as f:
            self.appid_list = [line.strip() for line in f.readlines() if line.strip() not in self.record_list]
            print('未加载成功数据 %d 个' % len(self.appid_list))

    def run(self):
        count = 0
        total = len(self.appid_list)
        for appid in self.appid_list:
            self.load_app_info(appid)
            count += 1
            rand = random.uniform(8.0, 10.0)
            print('已完成%d / %d,%ds后继续' % (count, total, int(rand)))
            if count < total:
                time.sleep(rand)
        driver.quit()

    def load_app_info(self, appid):
        print('---加载appid开始:%s' % appid)
        print(self.url.format(appid))
        driver.get(self.url.format(appid))

        time.sleep(5)

        try:
            info_dict = {}
            title = driver.find_element(By.CSS_SELECTOR, '.app-body .p-title').get_attribute('innerText')
            info_list = driver.find_elements(By.CSS_SELECTOR, '.appinfo-pkg .baseinfo-list li')
            for ele in info_list:
                try:
                    one_type = ele.find_element(By.CSS_SELECTOR, '.type').get_attribute('innerText')
                    one_info = ele.find_element(By.CSS_SELECTOR, '.info').get_attribute('innerText')
                    info_dict[one_type] = one_info
                except Exception as e:
                    print(e)
            bundle_id = info_dict.get('Bundle ID', '-')
            developer = info_dict.get('开发者', '-')
            supplier = info_dict.get('供应商', '-')
            release_date = info_dict.get('发布日期', '-')
            update_date = info_dict.get('更新日期', '-')
            version = info_dict.get('版本', '-')
            price = info_dict.get('价格', '-')
            age = info_dict.get('年龄评级', '-')

            app_info = [appid, bundle_id, title, developer, supplier, release_date, update_date, version, price, age]
            self.write_csv(app_info)
            print(app_info)
            print('===加载appid结束:%s' % appid)
        except Exception as e:
            print(e)
            print('!!!加载appid失败:%s' % appid)
            self.write_csv([appid, '-'])

    def write_csv(self, app_info):
        with open(self.csv_file, 'a', newline='') as f:
            # 生成csv操作对象
            writer = csv.writer(f)
            # 写入csv文件
            try:
                writer.writerow(app_info)
            except Exception as e:
                print(e)
                print('!!!写入失败:%s' % app_info[0])


if __name__ == '__main__':
    spider = QimaiSpider()
    spider.run()
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343

推荐阅读更多精彩内容