day69-Selenium爬取动态渲染页面

1.chromedriver环境配置

安装selenium:pip install selenium
下载谷歌浏览器版本对应的chromedriver
配置chromedriver环境变量:将文件路径添加到path
python环境中启动浏览器:
from selenium import webdriver
brower = webdriver.Chrome()
mac中退出python环境 quit()

2selenium的使用

from selenium import webdriver
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver import ActionChains
def f1(browser):
    # 访问页面
    browser.get('https://www.mkv99.com/vod-detail-id-9462.html')
    # 获取渲染后的页面内容
    print(browser.page_source)
    # 获取当前网址
    print(browser.current_url)
    # 获取浏览器cookie
    print(browser.get_cookies())
    # # 根据id获取单个节点
    input1 = browser.find_element_by_id('1thUrlid第01集')
    print(input1)
    # 获取节点属性
    print(input1.get_attribute('href'))     
    # 用css选择器获取单个节点
    input_list = browser.find_elements_by_css_selector('.dwon2')
    for item in input_list:
        print(item.get_attribute('href'))
    print(input2.get_attribute('href'))
    # 获取节点的坐标
    print(input1.location)
    # 获取节点的宽高
    print(input1.size)
    # 用xpath方法获取单个节点find_element_by_xpath(find_elements_by_xpath获取多个节点)
    input3 = browser.find_element_by_xpath('//*[@class="dwon2"]')
    print(input3.get_attribute('id'))
    # 根据name获取单个节点
    input4 = browser.find_element_by_name('CopyAddr1')
    print(input4.tag_name)
    # 根据链接文字获取单个节点
    # 根据链接文字完全匹配
    input5 = browser.find_element_by_link_text('今日更新')
    # 根据链接文字部分匹配(包含)
    input6 = browser.find_elements_by_partial_link_text('下载')
    # 获取节点文本值
    print(input5.text)
    print(input6)
def f2(browser):
    browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
    # 切换到指定iframe
    browser.switch_to.frame('iframeResult') 
    source = browser.find_element_by_css_selector('#draggable')
    target = browser.find_element_by_css_selector('#droppable')
    # 动作链
    actions = ActionChains(browser)
    # 将选定的源移动到目标的位置
    actions.drag_and_drop(source, target)
    actions.perform()
def main():
    # 使用chrome浏览器
    browser = webdriver.Chrome()
    # 使用Firefox浏览器
    browser = webdriver.Firefox()
    # 使用Edge浏览器
    browser = webdriver.Edge()
    # 使用Phantom浏览器(无头浏览器)
    browser = webdriver.PhatomJS()
    # 使用Safari浏览器(苹果浏览器)
    browser = webdriver.Safari()
    try:
        f2(browser)
    finally:
        # 关闭浏览器
        browser.close()
if __name__ == '__main__':
    main()

browser.current_url:获取当前网址
browser.find_element_by_id('1thUrlid第01集'):根据id获取某个节点
input1.get_attribute('href'):获取节点属性
input_list = browser.find_elements_by_css_selector('.dwon2'):用class选择
browser.find_element_by_link_text('今日更新'):根据链接文字完全匹配
browser.find_elements_by_partial_link_text('下载'):根据链接文字部分匹配(包含)
input5.text:获取节点文本值
actions.drag_and_drop(source, target)将目标从source移动到 target位置

3利用selenium获取京东商品信息

import requests
from selenium import webdriver
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
import time
from lxml import etree    
from sqlalchemy.ext.declarative import declarative_base
from sqlalchemy import Column, Integer, String, ForeignKey, UniqueConstraint, Index
from sqlalchemy.orm import sessionmaker, relationship
from sqlalchemy import create_engine    
from jd_models import Goods    
engine = create_engine("mysql+pymysql://root:123456@127.0.0.1/jd?charset=utf8", max_overflow=5)
session_maker = sessionmaker(bind=engine)
session = session_maker()                
chrome_options = webdriver.ChromeOptions()    
browser = webdriver.Chrome(chrome_options=chrome_options)    
browser.set_window_size(1400, 700)
wait = WebDriverWait(browser, 3)
KEYWORD = '衣服'        
def get_page(page):
    if page == 1:
        url = 'https://www.jd.com/'
        # 访问网址
        browser.get(url)
        # 获取输入框
        input = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#key')))
        # 在输入框中输入内容
        input.clear()
        input.send_keys(KEYWORD)
        # 输入后等待3秒点击搜索框
        button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, '#search button.button')))
        button.click()    
    # 停留3秒
    time.sleep(3)    
    # 滑动到页面底部,滑动指定次数,让商品加载
    # 先滑动到底部
    str_js = 'var scrollHeight = document.body.scrollHeight;window.scrollTo(0, scrollHeight);'
    browser.execute_script(str_js)
    # 倒着往上滑动
    for i in range(16, 0, -1):
        # 执行滚动js代码scrollTo(横向滚动,可设为0, 竖向滚动);表示滚动到哪个坐标;竖向直接设为scrollHeight则一下调到末尾,故分成n分来连续显示
        str_js = 'var scrollHeight = document.body.scrollHeight;window.scrollTo(0, (%d * scrollHeight / 16));' % i
        time.sleep(1)
        browser.execute_script(str_js)
    # browser.page_source获取渲染后的页面内容
    # 保存当前页的数据
    html = browser.page_source
    # 准备点击进入下一页
    # 滚动分页控制部分
    input = browser.find_element_by_css_selector('#J_bottomPage input.input-txt')
    # 跳到跳页输入框下面的50px位置
    str_js = 'var scrollHeight = document.body.scrollHeight;window.scrollTo(0, %d);' % (input.location['y'] - 50)
    browser.execute_script(str_js)
    time.sleep(1)
    # 输入页码
    input = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#J_bottomPage input.input-txt')))
    input.clear()
    input.send_keys(page)    
    # 点击下一页
    submit = wait.until(
        EC.element_to_be_clickable((By.CSS_SELECTOR, '#J_bottomPage .btn.btn-default')))
    submit.click()    
    return html    
# 保存图片函数    
def save_img(page):
    url = 'http://'+page
    response = requests.get(url)
    img = response.content
    filename = page.split('/')[-1]
    print(filename)
    with open('./image/%s' % filename, 'wb') as f:
        f.write(img)        
def get_paruse(html):
    etree_html = etree.HTML(html)
    result_list = etree_html.xpath('//div[@id="J_goodsList"]//div[@class="gl-i-wrap"]')
    result = []
    for item in result_list:
        item_dict = {}
        title = item.xpath('./div[@class="p-img"]/a/@title')
        item_dict['title'] = title[0]
        if item.xpath('./div[@class="p-img"]/a/img/@data-lazy-img')[0] == 'done':
            img = item.xpath('./div[@class="p-img"]/a/img/@src')
        else:
            img = item.xpath('./div[@class="p-img"]/a/img/@data-lazy-img')
        item_dict['img'] = img[0].replace('//', '')
        # 保存图片到本地
        save_img(item_dict['img'])    
        price = item.xpath('./div[@class="p-price"]//i/text()')
        item_dict['price'] = price[0]
        detail = item.xpath('./div[@class="p-img"]/a/@href')
        item_dict['detail'] = detail[0].replace('//', '')
        sku = item.xpath('./../@data-sku')
        item_dict['sku'] = sku[0]
        result.append(item_dict)
        # 将数据保存到数据库
        goods = Goods()
        goods.title = title
        goods.img = img
        goods.price = price
        goods.sku = sku
        goods.detail = detail
        session.add(goods)
        session.commit()
    print(result, len(result))        
def main():
    for page in range(100):
        page += 1
        html = get_page(page)
        get_paruse(html)    
if __name__ == '__main__':
    main()

item.xpath('./../@data-sku') 获取当前节点的父节点的data-sku属性
执行滚动js代码scrollTo(横向滚动,可设为0, 竖向滚动);表示滚动到哪个坐标;竖向直接设为scrollHeight则一下调到末尾,故常分成n分利用for循环来连续显示
str_js = 'var scrollHeight = document.body.scrollHeight;window.scrollTo(0, scrollHeight);'
browser.execute_script(str_js)

4利用sqlalchemy创建模型向数据库中存数据

from sqlalchemy.ext.declarative import declarative_base
from sqlalchemy import Column, Integer, String, ForeignKey, UniqueConstraint, Index
from sqlalchemy.orm import sessionmaker, relationship
from sqlalchemy import create_engine    
engine = create_engine("mysql+pymysql://root:123456@127.0.0.1:3306/jd?charset=utf8", max_overflow=5,encoding='utf-8')
Base = declarative_base()    
class Goods(Base):
    __tablename__ = 'goods'
    id = Column(Integer, primary_key=True, autoincrement=True)    #主键,自增
    title = Column(String(512))
    img = Column(String(1024))
    price = Column(String(32))
    sku = Column(String(32))
    detail = Column(String(1024))

5建表语句

create database jd default character set='utf8';
use jd;
create table goods(
  id int primary key auto_increment,
  title varchar(512),
  img varchar(1024),
  price varchar(32),
  sku varchar(32),
  detail varchar(1024)
);
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,457评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,837评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,696评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,183评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,057评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,105评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,520评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,211评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,482评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,574评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,353评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,213评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,576评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,897评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,174评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,489评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,683评论 2 335