import requests
from bs4 import BeautifulSoup
import traceback
import re
def getHTMLText(url, code="utf-8"):
try:
r = requests.get(url)
r.raise_for_status()
r.encoding = code
return r.text
except:
return ""
def getStockList(lst, stockURL):
html = getHTMLText(stockURL, "GB2312")
soup = BeautifulSoup(html, 'html.parser')
a = soup.find_all('a')
for i in a:
try:
href = i.attrs['href']
lst.append(re.findall(r"[s][hz]\d{6}", href)[0])
except:
continue
def getStockInfo(lst,stockURL,fpath):
count=0
for stock in lst:
url=stockURL+stock+'.html'
html=getHTMLText(url)
try:
if html=='':
continue
soup=BeautifulSoup(html,'html.parser')
stockInfo=soup.find('div',attrs={'class':'stock-info'})
if stockInfo is None:
continue
name=stockInfo.find('a',attrs={'class':'bets-name'}).get_text().split()[0]
stockDict={}
stockDict.update({'名称':name})
dt=stockInfo.find_all('dt')
dd=stockInfo.find_all('dd')
for i in range(len(dt)):
stockDict[dt[i].text]=dd[i].text
with open(fpath,'a',encoding='utf-8') as f:
f.write(str(stockDict)+'\n')
count=count+1
print("\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")
except:
traceback.print_exc()
count=count+1
print("\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")
continue
def main():
stock_list_url = 'http://quote.eastmoney.com/stocklist.html'
stock_info_url = 'https://gupiao.baidu.com/stock/'
output_file = 'try.txt'
slist=[]
getStockList(slist, stock_list_url)
getStockInfo(slist, stock_info_url, output_file)
main()
python爬取股票信息
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 更多教程请移步至:洛凉博客 求助请移步至:Python自学技术交流 最近一直在看北京理工大学嵩教授主讲的:Pyth...
- 这是全部的调试过程,我已经整理成为笔记,这里分享给大家:python爬取豆瓣两千万图书简介信息:(一)目标API分...
- 第一个爬虫尝试,爬取小猪短租上海地区10页所有的房屋信息首先爬取一个房间的基本信息,包括标题、地址、价格、图片、房...
- 先上代码: 下面是爬取的部分内容: 初学爬虫,代码写的很粗糙,很多地方还可以优化,其实一直感觉拿不出手,但是谁没...
- 这次用python爬取豆瓣两千万图书简介信息,大概用时两周时间。程序在工作之余断断续续的调试了一周多,最终稳定运行...