github地址:SearchJianShu
我平时写的技术文章都喜欢放在简书。说实在的, 挺喜欢简书这个平台的,简洁且格式好看, 越来越多的人也渐渐把文章发布在这个平台了。但是有一点, 我很想吐槽, 那就是简书的收藏没有搜索功能。平时我在简书阅读技术类文章的时候, 觉得有价值的都喜欢点“收藏”按钮把它们收藏起来, 然后万一哪天需要用到时再翻出来仔细参考。但问题是随着我收藏的文章越来越多, 我常常找不到我当时收藏的那篇文章了, 要是能根据关键字来搜索出那篇文章该多好。学了python以后,我就打算自己来完成这个搜索功能。
首先是模拟cookie登录简书, 这里模拟登录不多做介绍,只说一种比较简单的方法:浏览器登录简书后,打开开发者模式,找到我收藏的文章页面,
Network->Headers->Requests Headers->Cookie,把这一整段复制下来,用来模拟登录。
Cookie拷贝下来后,使用requests访问
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.95 Safari/537.36',
'Cookie': '', # 你的cookie
'Host': 'www.jianshu.com',
'Connection': 'keep-alive'
}
def download_html(url):
response = requests.get(url, headers=headers)
if response.status_code != 200:
print('response.status_code =', response.status_code)
return None
return response.text
接下来就是将文章标题和文章链接提取出来, 审核页面元素, 观察到是这样的:
那代码就这么写吧
page_html_content = download_html(page_url)
page_soup = BeautifulSoup(page_html_content, 'lxml')
a_list = page_soup.find_all('a', class_='title', target='_blank', href=re.compile(r'/p/.+'))
for a in a_list:
url = 'http://www.jianshu.com' + a['href']
title = a.text
item = {'title': title, 'url': url}
datas.append(item)
item是一个字典, 里面包含了文章的标题和文章的链接地址, datas是一个列表, 用来存放所有的item。
但这样只是一页的文章, 现在我点击“下一页”这个按钮, 观察到
由此可见所有的页面地址都是一个固定前缀拼接上一个索引值, 现在需要知道的是这个索引值的范围。
观察到页面上有这么一串。
可见这就是索引的最大值, 提取出来。
root_url = 'http://www.jianshu.com/bookmarks'
html_content = download_html(root_url)
soup = BeautifulSoup(html_content, 'lxml')
print('正在解析, 请稍后...')
text = soup.find(text=re.compile('page.+totalPages'))
totalPages = json.loads(text).get('totalPages')
这个提取的到的text是一个json格式的字符串, 我使用json模块将它转换成一个字典, 然后得到这个总页数的值。
接下来就是爬取每一个页面的文章标题和文章链接地址, 最后要做的就是搜索功能了, 输入关键字, 遍历所有的文章标题, 如果标题中包含了这个关键字, 就将这个元素打印出来
keyword = input('请输入要搜索的关键字: ')
for data in datas:
m = re.search(keyword, data['title'], re.IGNORECASE)
if m:
print(data)
使用正则并且忽略大小写,以搜索“scrapy”举个例子:
当然光是这样子怎么行呢?每次都要解析也太麻烦了吧, 所以就将所有的收藏文章写到一个html网页当中, 需要搜索的时候用Chrome浏览器打开然后ctrl + F来搜索就好了
fout = open('output.html', 'w', encoding='utf-8')
fout.write('<html><head><meta charset="UTF-8"></head>')
fout.write('<html>')
fout.write('<body>')
for data in datas:
fout.write('<a class="title" href="%s">%s</a>' % (data['url'], data['title']))
fout.write('<br />')
fout.write('</body>')
fout.write('</html>')
还是用“scrapy”来举个例子:
ok, 结束了。