利用selenium与多线程爬取爬淘宝文胸首页动态数据

本文爬取了在淘宝首页上输入文胸后弹出的数据,因为淘宝的商品都是通过JS渲染出来的动态数据,所以本文用到了selenium,但是用的过程中发现了selenium的局限性,会在下文中提到,当然也可能是本人学艺不精,对selenium这个神器了解不足,先说下思路,首先是进入文胸搜索的首页,然后爬取所有商品链接,最后用多进程提取每个商品的信息,再写进文件

首先导入用到的库,本人是想到用哪个再导入哪个的

from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.common.action_chains import ActionChains
import  time
import  re
from  bs4 import BeautifulSoup
import requests
import lxml
from lxml import html
import csv
header={
'User-agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.106 Safari/537.36'
}这里是伪装成chrome浏览器
from multiprocessing.dummy import Pool
all_links=[]

all_products =[]

Paste_Image.png
def get_all_links(url):这个函数是提取淘宝首页每个商品的链接的
    all_links = []
    driver = webdriver.Chrome()让浏览器模拟人工操作,提取动态数据
    driver.get(url)
    driver.execute_script('window.scrollBy(0,3000)')
    time.sleep(2)
    driver.execute_script('window.scrollBy(0,5000)')让屏幕滚动下面,确保找到所有商品数据
    time.sleep(2)
    data = driver.find_element_by_class_name('m-itemlist')如图,这里匹配到了所以商品所在的div
    time.sleep(2)
    we_data = driver.page_source
    #print(we_data)
    soup = BeautifulSoup(we_data,'lxml')将获得的页面用Beautiful解释,不过selenium也有字体的方法提取,
    不过本人习惯用find函数提取数据,于是就没有采取selenium的提取方法
    links =soup.find('div',{'class':'m-itemlist'}).findAll('a',href=re.compile('^(//detail)).*(0)$'))
    这里用了findAll函数搭配正则,因为链接太复杂,用了xpath实在写不出
    看了看,商品链接都是//detail开头的,这样就抓出了第一页所有包含链接的a标签
    如图,定位到所有商品的div里面,然后用正则匹配每个链接
Paste_Image.png

    #print(links)
    for link in links:
        if 'href' in link.attrs:
            #print(link.attrs['href'])
            all_links.append(link.attrs['href'])千万记得,我们还要将链接提取出来

    print(len(all_links),all_links)
    return all_links返回所以链接

def get_data(url):
    each_products={}构造一个空字典.因为每个商品都是由产地,标题,价格等组成,所以用字典保存商品信息是最理想的
    link = 'http:'+url抓取出来的链接前面是没有http:字符的,所以在手动添加,这样才能打开链接
    #print(link)

    each_products['link']=link为字典添加数据,下面同理
    all_data = requests.get(link,headers=header).content
    time.sleep(2)
    
    selector = lxml.html.document_fromstring(all_data)用lxml库
    #print(selector)
    title = selector.xpath('//div[@class="tb-detail-hd"]/h1/text()')[0].replace('\t','').replace('\r','').replace('\n','')
     清理数据,
     标题很多换行空格符号,如图
    #print(title)
    each_products['title']=title为字典添加数据


    price = selector.xpath('//div[@class="tm-promo-price"]/span/text()')
   <>首先这里说明一下,这里调节了一个小时左右,
    反复确认这个xpath没有错,最后都没有提取出价格,最后心灰意冷,看了看源代码,发现每个页面的价格也是JS动态数据加载进去的.....
    心中一万只草拟马奔腾而过,只能感叹现在的实力抓不了,因为如果再在这里用selenium的我电脑会死的,因 为一页就有50左右的链接,我电脑扛不住的,
    所以感觉面对这种类型的网页selenium就很有局限性,也希望有大神教我解决怎么抓取加个这个问题,这个坑只能以后来填了
    #print(price)
    each_products['price']=price
    shop_name= selector.xpath('//div[@class="slogo"]/a/strong/text()')[0]
    #print(shop_name)
    each_products['shop_name']=shop_name
    area = selector.xpath('//li[@class="locus"]/div[@class="right"]/text()')[0].replace('\n','').replace('                ','')
    #print(area)
    each_products['area']=area
    all_products.append(each_products)这样就构造了一个由字典组成的列表,也方便写进csv格式的文件
打印出来的字典是这样的
Paste_Image.png
def writedata(all_products):
    with open('taobao_bra','w',encoding="UTF-8",newline='')as f:
        writer = csv.DictWriter(f,fieldnames=['title','area','shop_name','price','link'])因为是字典组成的列表,且key值一样,
        所以可以用DictWriter方法将文件按一定的key值排序写进文件
        writer.writeheader()
        for i in all_products:
            #print(i)
            writer.writerow(i)
if __name__ == '__main__':

    url = 'https://s.taobao.com/search?q=%E6%96%87%E8%83%B8'淘宝搜索文胸的首页
    #print(url)
    time.sleep(1)
    links=set(get_all_links(url))获得所有连接
    pool=Pool()
    pool.map(get_data,links)这里是提取数据,这里函数记得不用写括号
    print(all_products)
    writedata(all_products)写进文件


最后效果图,每个商品的链接是还可以用split简化的,也挺简单,这里就不提,希望有大神告诉我怎么提取价格....

Paste_Image.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,732评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,496评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,264评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,807评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,806评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,675评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,029评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,683评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,704评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,666评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,773评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,413评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,016评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,204评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,083评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,503评论 2 343

推荐阅读更多精彩内容