python3爬取苏宁手机数据

最近有个需求爬取电商网站的商品详细信息,记录下爬取过程。

完整源代码:https://github.com/ttcool/league_matches/suning_scrpy.py

爬取思路:目前各个大型的电商网站都有反爬取的策略,结合大数据很容易识别大规模的数据爬取。而且也不会提供结构化的数据供爬取。决定采用selenium模拟浏览器操作,再对页面数据进行解析、存储。

各个电商网站都有完善搜索功能,通过搜索功能输入关键字最多展示50页左右的数据。每页100条数据,一个关键字就可以爬取5000条左右的数据,数据量还是很可观的。

以爬取苏宁手机数据为例,可以通过手机关键字展示50页数据,提取商品详细页面的url,再进入每个url页面,提取详细的数据,如手机的参数、价格、图片等信息。

```

from selenium import webdriver

from selenium.webdriver.common.keysimport Keys

from bs4import BeautifulSoup

import pandasas pd

from lxmlimport etree

import time, requests

import csv

headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}

def link_to_url(link):

try:

r = requests.get(link, headers=headers)

r.raise_for_status

r.encoding ='utf-8'

        return r.text

except:

print('此页无法链接!!!')

return 

#解析提取商品详细信息

def get_good_name_from_text(context):

try:

soup = BeautifulSoup(context, 'lxml', from_encoding="utf-8")

#商品名称

        good_name = soup.select(".breadcrumb-title")[0].attrs['title']

#商品颜色

        good_color = soup.find_all("li", class_="clr-item")

#商品详细参数

        good_param = []

res_elements = etree.HTML(context)

# 指定属性的获取方式

        table = res_elements.xpath('//table[@id="bzqd_tag"]')

table = etree.tostring(table[0], encoding='utf-8').decode()

# pandas读取table

        df = pd.read_html(table, encoding='utf-8', header=0)[0]

# 转换成列表嵌套字典的格式

        results =list(df.T.to_dict().values())

# 最后能够看到一个包含很多字典的list

        # print('包装清单',results[0].get('包装清单.1'))

        good_param.append(('包装清单', results[0].get('包装清单.1')))

res_elements = etree.HTML(context)

table1 = res_elements.xpath('//table[@id="itemParameter"]')

table1 = etree.tostring(table1[0], encoding='utf-8').decode()

# pandas读取table

        df1 = pd.read_html(table1, encoding='utf-8', header=0)[0]

# 转换成列表嵌套字典的格式

        results1 =list(df1.T.to_dict().values())

# 最后能够看到一个包含很多字典的list

        for iin results1:

# print(i.get('主体'),i.get('主体.1'))

            good_param.append((i.get('主体'), i.get('主体.1')))

color_list = []

for iin good_color:

color_list.append(i.attrs["title"])

return good_name, ','.join(color_list), good_param

except:

print('无法解析数据')

return 

def get_good(driver):

try:

# 通过JS控制滚轮滑动获取所有商品信息

        js_code ='''

window.scrollTo(0,4000);

'''

        driver.execute_script(js_code)# 执行js代码

        # 等待数据加载

        time.sleep(10)

# 3、查找所有商品div

        good_list = driver.find_elements_by_class_name('product-box')

n =1

        for goodin good_list:

# 根据属性选择器查找

            # 商品链接

            good_url = good.find_element_by_css_selector(

'.res-info .title-selling-point a').get_attribute('href')

# 商品名称

            good_price = good.find_element_by_css_selector(

'.res-info .price-box .def-price').text

context = link_to_url(good_url)

good_content = []

if get_good_name_from_text(context):

good_name, good_color, good_param = get_good_name_from_text(context)

good_content = [

good_name,

                    good_price,

                    good_url,

                    good_color,

                    good_param

]

if good_content:

import json

with open('suning_mobile_iphone.csv', 'a', newline="", encoding='utf-8')as f:

csv_writer = csv.writer(f, delimiter='|')

csv_writer.writerow(good_content)

next_tag = driver.find_element_by_id('nextPage')

next_tag.click()

time.sleep(10)

# 递归调用函数

        get_good(driver)

time.sleep(10)

finally:

driver.close()

if __name__ =='__main__':

# good_name = input('请输入爬取商品信息:').strip()

    good_name ="iphone手机"

    driver = webdriver.Chrome()

driver.implicitly_wait(50)

# 1、往苏宁主页发送请求

    driver.get('https://www.suning.com/')

# 2、输入商品名称,并回车搜索

    input_tag = driver.find_element_by_id('searchKeywords')

input_tag.send_keys(good_name)

input_tag.send_keys(Keys.ENTER)

time.sleep(2)

get_good(driver)

```

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343