第二周第一节练习项目:在 MongoDB 中筛选房源

实战计划0430-石头的练习作业

练习要求

数据来源
数据处理

运行效果:

抓取数据
数据处理

实现代码


__author__ = 'daijielei'

'''
19课时练习,为11课时练习的加强版,之前从小猪短租处抓取一堆租房详情,19课时需要将其内容保存入DB中
'''
from bs4 import BeautifulSoup   #解析html文档用
import requests                 #抓取html页面用
import time


import pymongo

client = pymongo.MongoClient('localhost',27017)
xiaozuDB = client['xiaozuDB']
sheet1 = xiaozuDB['sheet1']

'''
saveToDB
将需要保存的内容写入mongoDB
'''
def saveToDB(data):
    sheet1.insert_one(data)
    client.close()

'''
showxiaozuDB_payMore500
查看mongoDB中保存的数据,筛选出金额500以上的显示出来
'''
def showxiaozuDB_payMore500():
    print(sheet1.count())
    for item in sheet1.find({'pay':{'$gte':500}}):#筛选条件,将金额500以上的筛选出来
        print(item)
    client.close()

'''
cleanxiaozuDB
清除mangoDB中的数据
'''
def cleanxiaozuDB():
    sheet1.delete_many({})
    print(sheet1.count())
    client.close()






'''
##################################################################################################################
########                                                                                                  ########
                                    以下内容为第11课时完成,抓取小猪短租的相关信息
########                                                                                                  ########
##################################################################################################################
'''

#urls用来制定抓取范围,header该处无用处
header = {
    'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.110 Safari/537.36',
    'Host':'bj.xiaozhu.com'
}


#getlist用来抓取对应网页上的每个列表的跳转url
#测试用url = "http://bj.xiaozhu.com/search-duanzufang-p1-0/"
def getlist(url):
    webData = requests.get(url,headers=header)
    soup = BeautifulSoup(webData.text,'lxml')

    houselists = soup.select('ul > li > a')

    for houselist in houselists:
        listUrl = str(houselist.get('href'))
        if(listUrl.find('http://bj.xiaozhu.com/fangzi/')!=-1):#确认链接内容为详情页,则进行详情页信息抓取
            #print(listUrl)
            getInfoPage(listUrl)


#getInfoPage用来抓取详情页里的相关信息,如标题、地址、金额、房屋图片、拥有人图片等等
#测试用url = "http://bj.xiaozhu.com/fangzi/525041101.html"
def getInfoPage(url):
    webData = requests.get(url,headers=header)
    soup = BeautifulSoup(webData.text,'lxml')
    time.sleep(2)

    titles = soup.select('body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > h4 > em')
    address = soup.select('body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > p > span.pr5')
    pays = soup.select('#pricePart > div.day_l > span')
    houseimages = soup.select('#curBigImage')
    ownerimages = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > a > img')
    ownernames = soup.select('#floatRightBox > div.js_box.clearfix > div.w_240 > h6 > a')
    ownerSexs = soup.select('#floatRightBox > div.js_box.clearfix > div.w_240 > h6 > span')

    for title,addres,pay,houseimage,ownerimage,ownername,ownerSex in zip(titles,address,pays,houseimages,ownerimages,ownernames,ownerSexs):
        data = {
            'title':title.get_text(),
            'addres':addres.get_text(),
            'pay': int(pay.get_text()) if str((pay.get_text())).isdigit() else 0,
            'houseimage':houseimage.get('src'),
            'ownerimage':ownerimage.get('src'),
            'ownername':ownername.get_text(),
            'ownerSex':'female'
        }
        if('member_boy_ico' in str(ownerSex['class'])):#该处用来判断是男性还是女性,男性是通过标签来区分
            data['ownerSex'] = "male"
        print(data)
        #saveToDB(data)

def startCatch():
    urls = ["http://bj.xiaozhu.com/search-duanzufang-p{}-0/".format(str(i)) for i in range(1,5,1)]
    for url in urls:
        getlist(url)






#入口,该语句只有直接执行时会被调用
if __name__ == '__main__':
    #startCatch()
    showxiaozuDB_payMore500()
    #cleanxiaozuDB()

笔记、总结、思考:

1、这节练习主要的重点有,存储到数据库

1、创建本地mongoDB的数据库连接
 client = pymongo.MongoClient('localhost',27017)
2、创建名为'xiaozuDB'的数据库
 xiaozuDB = client['xiaozuDB']
3、创建名为'sheet1'的集合(collection,和表类似,但是和表对比灵活多了)
sheet1 = xiaozuDB['sheet1']
4、往'sheet1'的表中写入数据,这里是直接把字典写进去
sheet1.insert_one(data)

2、筛选出金额为500以上的数据

1、从'sheet1'中筛选出数据,find函数用来寻找所有满足条件的数据,传入字典来包含寻找的条件

for item in sheet1.find({'pay':{'$gte':500}}):#筛选条件,将金额500以上的筛选出来
        print(item)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,524评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,869评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,813评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,210评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,085评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,117评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,533评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,219评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,487评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,582评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,362评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,218评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,589评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,899评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,176评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,503评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,707评论 2 335

推荐阅读更多精彩内容