Python:登录微博获取特定用户时间线内容,简单分析词频

(大概一两个月前就完成了,没及时更新)

一直都有想把某个用户的微博内容存档下来的想法,但是人工复制未免效率太低,于是有了这样的一个程序主要是微博的登录比较难模拟,所以打算用selenium直接模拟登录并操作页面。其实用selenium效率并不算太高,但总比人工快。如果有更好的方法欢迎评论。
之前的程序都是用面向过程写的,这次试试面向对象吧(用面向对象写感觉写的不算太好)

参考
GitHub - mozilla/geckodriver: WebDriver <-> Marionette proxy
Python:argparse、docopt 命令行参数解析模块
jieba 0.39 : Python Package Index
Selenium - Web Browser Automation
Beautiful Soup 4.4.0 文档 — beautifulsoup 4.4.0 文档

要下载第一个参考内容里 repo 的 release 里的文件放在程序的同级目录才能正常运行!

实现

#!/usr/bin/python3
# -*-coding:utf-8-*-

import requests,os,time,random,argparse

from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.common.keys import Keys

class Weibo(object):
    def __init__(self,url,type='all'):
        self.url = url
        self.type = type
        # 由于是自己用的小工具,账号密码就直接输入了,或者直接在这里替换
        self.account = input('input your account\n')
        self.password = input('input your password\n')
        # 下载第一个参考里的文件(文件名是geckodriver)放在同级目录里
        self.firefox = webdriver.Firefox(executable_path=os.getcwd()+'/geckodriver')


    def login(self):
        login_url = 'http://www.weibo.com/login.php'
        self.firefox.get(login_url)
        time.sleep(random.randint(1,5))
        # 输入用户名
        self.firefox.find_element_by_xpath('//*[@id="loginname"]')\
            .send_keys(self.account)
        # 输入密码
        self.firefox.find_element_by_xpath('//*[@id="pl_login_form"]/div/div[3]/div[2]/div/input')\
            .send_keys(self.password)  
        # 点击登陆
        self.firefox.find_element_by_xpath('//*[@id="pl_login_form"]/div/div[3]/div[6]/a')\
            .click()  
        time.sleep(random.randint(1, 5))
        #导出cookie 这段在以后操作种暂时没有用到,暂待以后发掘用法
        cookies = self.firefox.get_cookies() 
        self.session = requests.Session()
        for cookie in cookies:
            self.session.cookies.set(cookie['name'],cookie['value'])


    def parse(self,html):
        # 解析页面
        soup = BeautifulSoup(html, 'lxml')
        weibos = soup.find_all('div', attrs={'class': 'WB_detail'})

        if not weibos:
            return False

        for weibo in weibos:
            id = weibo.find('div', attrs={'class': 'WB_from S_txt2'})
            info = weibo.find('div', attrs={'class': 'WB_info'})
            content = weibo.find('div', attrs={'class': 'WB_text W_f14'})
            content_date = weibo.find('a', attrs={'class': 'S_txt2'})
            # print(id.a['href']) 
            print(info.getText().replace(' ', '').replace('\n', '')) 
            # 输出文本
            print(content.getText().replace(' ', '').replace('\n', ''))
            # print(content_date.getText())
            # 多媒体部分,图片视频之类的
            media = weibo.find('div', attrs={'class': 'media_box'})
            # 拓展,例如转发里的内容等
            expand = weibo.find('div',attrs={'class':'WB_expand S_bg1'})

            # 此处由于没有用到暂时没有实现,日后再更新
            if media:
                pics = media.find_all('img')
                for pic in pics:
                    pass

            if expand:
                pass

        return True


    def download(self):
        page = 1

        # 筛选原创微博
        if self.type == 'origin':
            traverse_url = self.url + '?from=myfollow_all&profile_ftype=1&is_ori=1'
        # 全部微博
        elif self.type == 'all':
            traverse_url = self.url + '?from=myfollow_all&is_all=1'
        else:
            print('unsupported type: '+self.type)

        self.firefox.get(traverse_url+'&page='+str(page))
        # 拉到页面底部
        self.__to_end__()
        # 存在该页面
        while(self.parse(self.firefox.page_source)):
            time.sleep(5)
            page = page + 1
            self.firefox.get(traverse_url+'&page='+str(page))
            self.__to_end__()

        self.firefox.close()

    def __to_end__(self):
        # 按三次 END 键实现拉到页面底部功能
        self.firefox.find_element_by_xpath('/html/body').send_keys(Keys.END)
        time.sleep(1)
        self.firefox.find_element_by_xpath('/html/body').send_keys(Keys.END)
        time.sleep(1)
        self.firefox.find_element_by_xpath('/html/body').send_keys(Keys.END)
        time.sleep(1)

if __name__ == '__main__':
    parser = argparse.ArgumentParser() # 不懂请看参考中的第二个链接
    parser.add_argument('--url',help='weibo URL,make sure you input a vaild URL')
    parser.add_argument('--type',help='\'origin\' or \'all\',all for default')

    args = parser.parse_args()

    wb = Weibo(args.url)
    wb.login()
    time.sleep(5)
    wb.download()

分析词频是个很复杂的工作,所以这里只是单纯的用jieba将句子分成词,排个序而已。网上也有相应 API ,效果各异。

#/usr/bin/python3
# -*- coding:utf-8 -*-

import jieba,re

def vaild(word): #判断有效性
    p1 = re.compile(u'[\u4E00-\u9FA5]{1,}') # 中文
    p2 = re.compile(u'[a-zA-z]{1,}') # 英文
    if p1.match(word) or p2.match(word):
        return True
    return False

if __name__ == '__main__':

    dmap = {}
    with open(‘jieba-word.txt','r') as file: # 将上面的输出保存到这个文件夹里
        for line in file:
            res = jieba.cut(line,cut_all=False)
            rres = '#'.join(res)
            l = rres.split('#')

            for val in l:
                if vaild(val):
                    if val in dmap:
                        dmap[val] += 1
                    else:
                        dmap[val] = 1

    dlist = [(val,dmap[val]) for val in dmap] # 为后续排序转换
    dlist = sorted(dlist,key=lambda tup:(tup[1], tup[0]),reverse=True) # 降序排序
    
    for word in dlist:
        if word[1] > 3: # 出现三次以上才输出
            print(word)

写得不够好,再接再厉!

来自个人 Python 文集

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,311评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,339评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,671评论 0 342
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,252评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,253评论 5 371
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,031评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,340评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,973评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,466评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,937评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,039评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,701评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,254评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,259评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,485评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,497评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,786评论 2 345

推荐阅读更多精彩内容