同济大学开源软件协会 Tommy
技术路线:
1、手动用浏览器打开东方财富网含有所有上交所和深交所所有股票的网页点我,ctrl + u查看网页源代码,手动将这个网页的html代码全选、复制,并赋值给程序中的字符串s。这个手动复制的方法可以绕过反爬。
2、使用正则表达式匹配出字符串s中所有股票的代码。例如:海辰药业(sz300584)。上交所的股票代码以sh开头,深交所的股票代码以sz开头,都是六位数字。
3、将每一支股票的代码整合到新url中,在百度股票中通过新url查询每一支股票的交易数据,例如这样,使用beautifulsoup库解析出的股票市场的各项交易数据。
4、将每一支股票的名称、交易数据存入本地txt文件。
部分代码来源于中国大学MOOC 北京理工大学 嵩天老师 Python网络爬虫与信息提取。课程中提供的源代码运行后无输出结果,我进行了改进,第三方库环境安装成功后,将东方财富网股票列表网页的html网页源代码赋值给下面代码开头的字符串s,其余代码不变,可直接运行。
import requests
from bs4 import BeautifulSoup
import traceback
import re
s = '''%%''' #将三引号中间的两个%%号替换为http://quote.eastmoney.com/stocklist.html网页的html代码
stock_info_url = 'https://gupiao.baidu.com/stock/'
output_file = 'D:/BaiduStockInfo4.txt'
slist=[]
slist = re.findall(r"[s][hz]\d{6}",s) #从字符串s中通过正则表达式提取出所有股票代码
def getHTMLText(url, code="utf-8"):
try:
r = requests.get(url)
r.raise_for_status()
r.encoding = code
return r.text
except:
return ""
def getStockInfo(lst, stockURL, fpath):
count = 0
for stock in lst:
url = stockURL + stock + ".html" # 构造每只股票访问百度股票的url
html = getHTMLText(url)
try:
if html=="":
continue
infoDict = {}
soup = BeautifulSoup(html, 'html.parser')
stockInfo = soup.find('div',attrs={'class':'stock-bets'})
name = stockInfo.find_all(attrs={'class':'bets-name'})[0]
infoDict.update({'股票名称': name.text.split()[0]})
keyList = stockInfo.find_all('dt')
valueList = stockInfo.find_all('dd')
for i in range(len(keyList)):
key = keyList[i].text
val = valueList[i].text
infoDict[key] = val
with open(fpath, 'a', encoding='utf-8') as f:
print(str(infoDict) + '\n')
f.write( str(infoDict) + '\n' )
count = count + 1
print("\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")
except:
count = count + 1
print("\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")
continue
getStockInfo(slist, stock_info_url, output_file)