爬取简书推荐作者

爬取简书推荐作者信息并入库
以下是代码(我是初学者,写的不好请见谅)
涉及到知识点包括:
一、python基础知识
二、html基础知识
三、http基础知识
四、sql基础知识
五、requests库
六、urllib2库
七、BeautifulSoup库
八、MySQLdb库
结论:{"平均文章数": 148, "平均粉丝数": 14732, "平均关注数": 110, "平均写字数": 257475, "平均喜欢数": 4871}

# coding:utf-8
import requests
import MySQLdb
import json
import time
from bs4 import BeautifulSoup


# 连接数据库方法
def connect_db():
    db = MySQLdb.connect(host='localhost', user='root', passwd='ar281835e67_', db='python', charset='utf8')
    cursor = db.cursor()
    return db, cursor


# 创建数据库表方法
def create_table(db, cur):
    sql = """create table author4(
        id int auto_increment not null,
        username varchar(55) not null,
        summary varchar(500),
        carenum int,
        fansnum int,
        articlenum int,
        writenum int,
        likenum int,
        primary key(id))"""
    try:
        cur.execute(sql)
        db.commit()
        print '创建表成功'
    except:
        db.rollback()
        print '创建表失败'


# 往数据库表插入数据方法
def insert_table(db, cur, username, summary, carenum, fansnum, articlenum, writenum, likenum,num):
    param = [username, summary, carenum, fansnum, articlenum, writenum, likenum]
    sql = "insert into author4(username,summary,carenum,fansnum,articlenum,writenum,likenum) Values(%s,%s,%s,%s,%s,%s,%s)"
    try:
        cur.execute(sql, param)
        db.commit()
        print '成功插入'+str(num)+'条数据'
    except:
        db.rollback()
        print '插入数据失败'


#  创建需要爬取的url管理器,传递count参数表示希望爬取多少个推荐用户
def url_collect(count):
    inturl = 'https://www.jianshu.com/users/recommended?seen_ids=&count=5&only_unfollowed=true'
    firstUrl = inturl.split('5')[0]
    lastUrl = inturl.split('5')[1]
    url = firstUrl + str(count) + lastUrl
    try:
        response = requests.get(url,timeout=10)
        res = json.loads(response.content)
        userList = res['users']
        slugList = []
        for user in userList:
            slugList.append(user['slug'])
        print '成功获取用户slug数据'
        userUrl = 'https://www.jianshu.com/u/'
        userUrlList = []
        for slug in slugList:
            userUrlList.append(userUrl + str(slug))
        print '成功获取到需爬取的URL集合'
        return userUrlList
    except:
        print '请求推荐作者接口数据拉取失败'


#  定义获取用户字典信息存入列表的方法
def get_userDict(firstNum,lastNum,userUrllist,userList):
    for url in userUrllist[firstNum:lastNum]:
            userInfo = {}
            response = requests.get(url)
            res = response.content
            soup = BeautifulSoup(res, 'html.parser')
            username = soup.find('a', attrs={'class': 'name'}).text
            summary = soup.find('div', attrs={'class': 'js-intro'}).text
            otherInfo = soup.select('.meta-block p')
            carenum = otherInfo[0].text
            fansnum = otherInfo[1].text
            articelnum = otherInfo[2].text
            writenum = otherInfo[3].text
            likenum = otherInfo[4].text
            userInfo['username'] = username
            userInfo['summary'] = summary
            userInfo['carenum'] = carenum
            userInfo['fansnum'] = fansnum
            userInfo['articelnum'] = articelnum
            userInfo['writenum'] = writenum
            userInfo['likenum'] = likenum
            userList.append(userInfo)
            firstNum=firstNum+1
            print '成功获取到'+str(firstNum)+'个用户字典并存入列表中'
            time.sleep(5)
    return userList
         

# 通过用户url爬取用户信息的方法,传入count表示希望爬取多少个推荐用户
def get_userInfo(count):
    userUrllist = url_collect(count)
    userNum=len(userUrllist)
    userList = []
    num=0
    try:
        print '开始请求推荐作者主页数据'
        for url in userUrllist[num:userNum]:
            userInfo = {}
            response = requests.get(url)
            res = response.content
            soup = BeautifulSoup(res, 'html.parser')
            username = soup.find('a', attrs={'class': 'name'}).text
            summary = soup.find('div', attrs={'class': 'js-intro'}).text
            otherInfo = soup.select('.meta-block p')
            carenum = otherInfo[0].text
            fansnum = otherInfo[1].text
            articelnum = otherInfo[2].text
            writenum = otherInfo[3].text
            likenum = otherInfo[4].text
            userInfo['username'] = username
            userInfo['summary'] = summary
            userInfo['carenum'] = carenum
            userInfo['fansnum'] = fansnum
            userInfo['articelnum'] = articelnum
            userInfo['writenum'] = writenum
            userInfo['likenum'] = likenum
            userList.append(userInfo)
            num=num+1
            print '成功获取到'+str(num)+'个用户字典并存入列表中'
            time.sleep(5)
        print '成功获取到所有的用户信息'
        return userList
    except:
        print '请求推荐作者主页数据拉取失败,正在重新尝试'
        print '正在尝试获取第%s个用户字典' %(num+1)
        return get_userDict(num+1,userNum,userUrllist,userList)

# 定义最终的爬虫方法,把爬来的数据进行入库
def spider(db, cur, count):
    userList = get_userInfo(count)  # uersList是一个这样结构的数据 [{user1},{user2},{user3}]
    num=0
    for user in userList:
        username = user['username']
        summary = user['summary']
        carenum = user['carenum']
        fansnum = user['fansnum']
        articelnum = user['articelnum']
        writenum = user['writenum']
        likenum = user['likenum']
        num=num+1
        insert_table(db, cur, username, summary, carenum, fansnum, articelnum, writenum, likenum,num)
    print '爬虫工作结束'
dbInfo = connect_db()
db_src = dbInfo[0]
cur_src = dbInfo[1]
create_table(db_src,cur_src)
spider(db_src, cur_src, 10)

以下是代码执行过程,都打印出来了


image.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 196,165评论 5 462
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,503评论 2 373
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 143,295评论 0 325
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,589评论 1 267
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,439评论 5 358
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,342评论 1 273
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,749评论 3 387
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,397评论 0 255
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,700评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,740评论 2 313
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,523评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,364评论 3 314
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,755评论 3 300
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,024评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,297评论 1 251
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,721评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,918评论 2 336

推荐阅读更多精彩内容