龙空技术网

用Python爬取金融市场数据

嗨学python 371

前言:

当前同学们对“ajax调用ashx”都比较关切,各位老铁们都想要分析一些“ajax调用ashx”的相关知识。那么小编也在网摘上搜集了一些有关“ajax调用ashx””的相关资讯,希望咱们能喜欢,我们快快来学习一下吧!

爬取前的准备工作——梳理好代码的逻辑

正如前面所说,写代码之前,首先要清楚你想要干什么,如果是你,你是什么样的动作来达到你的这个目的或意图。

第一,你的目的或意图是什么,对于本例而言,我需要获取任意某页至某页信托在售产品的下面数据:产品名称、发行机构、发行时间、最高收益、产品期限、投资行业、发行地、收益分配方式、发行规模、最低收益、最高收益和利率等级划分情况这12个数据。

第二,如果是人,需要哪些动作来达到这个目的。我们来看下网页。动作就清晰了:

输入网址/搜索关键字 > 进入网站 > 点击红色框框里的信托产品和在售 > 录入下面绿色框框里的相关信息 > 发现信息不全,再点击这个产品,在详情页(再下一张图)继续录入。

开始爬取

既然动作清晰了,那就可以让计算机来模拟人的这个动作进行爬取了。

然后就是写代码的逻辑了。我们用做数学题常用的倒推法来梳理这个过程。

要想获取数据 < 你得解析网页给你的响应 < 你得有个响应 < 你得发送请求 < 你得有个请求request < 你得有个url。

然后我们再正过来解题:获取url > 构建request > 发送请求 > 获取响应 > 解析响应 > 获取所需数据 > 保存数据。

所以按照这个步骤,我们可以先做出一个大框架,然后在框架的基础上补充血肉。大框架,就是定义个主函数。

值得注意的是,本例中,每个产品的信息获取,我们都有二次点击的动作,即第一页数据不全,我们再点击进入详情页进行剩余数据的获取,因此,本例是有两层的数据获取过程的。第一层使用正则表达式,第二层使用bs4。

** 1、定义主函数**

# 定义一个主函数def main():​ # 写入相关数据 url_1 = '.某信托网.com/Action/ProductAJAX.ashx?' url_2 = '.某信托网/Product/Detail.aspx?' size = input('请输入每页显示数量:') start_page = int(input('请输入起始页码:')) end_page = int(input('请输入结束页码')) type = input('请输入产品类型(1代表信托,2代表资管):')  items = [] # 定义一个空列表用来存储数据​ # 写循环爬取每一页 for page in range(start_page, end_page + 1):​ # 第一层网页的爬取流程 print('第{}页开始爬取'.format(page))​ # 1、拼接url——可定义一个分函数1:joint url_new = joint(url_1 ,size=size ,page=page ,type=type)​ # 2、发起请求,获取响应——可定义一个分函数2:que_res response = que_res(url_new)​ # 3、解析内容,获取所需数据——可定义一个分函数3:parse_content_1 contents = parse_content_1(response)​ # 4、休眠2秒 time.sleep(2)​ # 第二层网页的爬取流程​ for content in contents: print(' 第{}页{}开始下载'.format(page ,content[0]))​ # 1、拼接url id = content[0] url_2_new = joint(url_2 ,id=id) # joint为前面定义的第1个函数​ # 2、发起请求,获取响应 response_2 = que_res(url_2_new) # que_res为前面定义的第2个函数​ # 3、解析内容,获取所需数据——可定义一个分函数4:parse_content_2,直接返回字典格式的数据 item = parse_content_2(response_2 ,content)​ # 存储数据 items.append(item) print(' 第{}页{}结束下载'.format(page ,content[0]))​ # 休眠5秒 time.sleep(5)​ print('第{}页结束爬取'.format(page))​ # 保存数据为dataframe格式CSV文件 df = pd.DataFrame(items) df.to_csv('data.csv' ,index=False ,sep=',' ,encoding='utf-8-sig')​ print('*'*30) print('全部爬取结束')​if __name__ == '__main__': main()

2、获取url —— 第一层和第二层通用

# 定义第1个分函数joint,用来拼接urldef joint(url,size=None,page=None,type=None,id=None): if len(url) > 45: condition = 'producttype:' + type + '|status:在售' data = { 'mode': 'statistics', 'pageSize': size, 'pageIndex': str(page), 'conditionStr': condition, 'start_released': '', 'end_released': '', 'orderStr': '1', 'ascStr': 'ulup' } joint_str = urllib.parse.urlencode(data) url_new = url + joint_str else: data = { 'id':id } joint_str = urllib.parse.urlencode(data) url_new = url + joint_str return url_new

3、构建request + 获取response一条龙 —— 第一层和第二层通用

# 定义第2个函数que_res,用来构建request发送请求,并返回响应responsedef que_res(url):​ # 构建request的第一步——构建头部:headers USER_AGENTS = [  "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0)", "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0)", "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; TencentTraveler 4.0)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; The World)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Avant Browser)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)", ] user_agent = random.choice(USER_AGENTS) headers = { 'Accept-Language': 'zh-CN,zh;q=0.8', 'Connection': 'keep-alive',  'Host': 'www.某信托网.com', 'Referer': '.某信托网.com/Product/Index.aspx', 'User-Agent': user_agent, 'X-Requested-With': 'XMLHttpRequest' }​ # 构建request的第二步——构建request request = urllib.request.Request(url=url, headers=headers)​​ # 发起请求的第一步——构建代理池 proxy_list = [  {'http':'125.40.29.100:8118'}, {'http':'14.118.135.10:808'} ] proxy = random.choice(proxy_list)​ # 发起请求的第二步——创建handler和opener handler = urllib.request.ProxyHandler(proxy) opener = urllib.request.build_opener(handler)​ # 发起请求的第三步——发起请求,获取响应内容并解码 response = opener.open(request).read().decode()​ # 返回值 return response

4、解析第一层网页的内容

获取响应之后就是解析并提取数据了,第一层使用正则表达式的方法来进行。

获取的response如下如:

因此可写出如下正则,从左到右分配匹配出ID、产品名称、发行机构、发行时间、产品期限、投资行业、首页收益

# 定义第3个函数parse_content_1,用来解析并匹配第一层网页内容,此处使用正则表达式方法def parse_content_1(response):​ # 写正则进行所需数据的匹配 re_1 = re.compile( r'{"ROWID".*?"ID":"(.*?)","Title":"(.*?)","producttype".*?"issuers":"(.*?)","released":"(.*?) 0:00:00","PeriodTo":(.*?),"StartPrice".*?"moneyinto":"(.*?)","EstimatedRatio1":(.*?),"status":.*?"}') contents = re_1.findall(response) return contents​

5、解析第二层网页的内容并输出数据

# 定义第4个函数parse_content_2,用来解析并匹配第二层网页内容,并输出数据,此处使用BeautifulSoup方法def parse_content_2(response,content):​ # 使用bs4进行爬取第二层信息 soup = BeautifulSoup(response)​ # 爬取发行地和收益分配方式,该信息位于id为procon1下的table下的第4个tr里 tr_3 = soup.select('#procon1 > table > tr')[3]address = tr_3.select('.pro-textcolor')[0].textr_style = tr_3.select('.pro-textcolor')[1].text ​ # 爬取发行规模,该信息位于id为procon1下的table下的第5个tr里 tr_4 = soup.select('#procon1 > table > tr')[4]guimo = tr_4.select('.pro-textcolor')[1].textre_2 = re.compile(r'.*?(\d+).*?', re.S)  scale = re_2.findall(guimo)[0] # 爬取收益率,该信息位于id为procon1下的table下的第8个tr里 tr_7 = soup.select('#procon1 > table > tr')[7]rate = tr_7.select('.pro-textcolor')[0].text[:(-1)]r = rate.split('至') r_min = r[0] r_max = r[1]​ # 提取利率等级 tr_11 = soup.select('#procon1 > table > tr')[11]r_grade = tr_11.select('p')[0].text​ # 保存数据到一个字典中 item = { '产品名称':content[1], '发行机构':content[2], '发行时间':content[3], '产品期限':content[4], '投资行业':content[5], '首页收益':content[6], '发行地': address, '收益分配方式': r_style, '发行规模': scale, '最低收益': r_min, '最高收益': r_max, '利率等级': r_grade }​ # 返回数据 return item

6、保存数据到本地(以dataframe格式保存到本地CSV格式)

# 保存数据为dataframe格式CSV文件 df = pd.DataFrame(items) df.to_csv('data.csv',index=False,sep=',',encoding='utf-8-sig')​好了,现在就大功告成了,最后不要只让自己爽,也要让对方的服务器别太难过,在一些地方休眠几秒,完整代码如下。​import urllib.requestimport urllib.parseimport reimport randomfrom bs4 import BeautifulSoupimport pandas as pdimport time​# 定义第1个分函数joint,用来拼接urldef joint(url,size=None,page=None,type=None,id=None): if len(url) > 45: condition = 'producttype:' + type + '|status:在售' data = { 'mode': 'statistics', 'pageSize': size, 'pageIndex': str(page), 'conditionStr': condition, 'start_released': '', 'end_released': '', 'orderStr': '1', 'ascStr': 'ulup' } joint_str = urllib.parse.urlencode(data) url_new = url + joint_str else: data = { 'id':id } joint_str = urllib.parse.urlencode(data) url_new = url + joint_str return url_new​# 定义第2个函数que_res,用来构建request发送请求,并返回响应responsedef que_res(url):​ # 构建request的第一步——构建头部:headers USER_AGENTS = [  "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0)", "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0)", "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; TencentTraveler 4.0)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; The World)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Avant Browser)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)", ] user_agent = random.choice(USER_AGENTS) headers = { 'Accept-Language': 'zh-CN,zh;q=0.8', 'Connection': 'keep-alive',  'Host': 'www.某信托网.com', 'Referer': '.某信托网.com/Product/Index.aspx', 'User-Agent': user_agent, 'X-Requested-With': 'XMLHttpRequest' }​ # 构建request的第二步——构建request request = urllib.request.Request(url=url, headers=headers)​​ # 发起请求的第一步——构建代理池 proxy_list = [  {'http':'125.40.29.100:8118'}, {'http':'14.118.135.10:808'} ] proxy = random.choice(proxy_list)​ # 发起请求的第二步——创建handler和opener handler = urllib.request.ProxyHandler(proxy) opener = urllib.request.build_opener(handler)​ # 发起请求的第三步——发起请求,获取响应内容并解码 response = opener.open(request).read().decode()​ # 返回值 return response​# 定义第3个函数parse_content_1,用来解析并匹配第一层网页内容,此处使用正则表达式方法def parse_content_1(response):​ # 写正则进行所需数据的匹配 re_1 = re.compile( r'{"ROWID".*?"ID":"(.*?)","Title":"(.*?)","producttype".*?"issuers":"(.*?)","released":"(.*?) 0:00:00","PeriodTo":(.*?),"StartPrice".*?"moneyinto":"(.*?)","EstimatedRatio1":(.*?),"status":.*?"}') contents = re_1.findall(response) return contents​# 定义第4个函数parse_content_2,用来解析并匹配第二层网页内容,并输出数据,此处使用BeautifulSoup方法def parse_content_2(response,content):​ # 使用bs4进行爬取第二层信息 soup = BeautifulSoup(response)​ # 爬取发行地和收益分配方式,该信息位于id为procon1下的table下的第4个tr里 tr_3 = soup.select('#procon1 > table > tr')[3] #select到第四个目标tr address = tr_3.select('.pro-textcolor')[0].text #select到该tr下的class为pro-textcolor的第一个内容(发行地) r_style = tr_3.select('.pro-textcolor')[1].text #select到该tr下的class为pro-textcolor的第二个内容(收益分配方式)​ # 爬取发行规模,该信息位于id为procon1下的table下的第5个tr里 tr_4 = soup.select('#procon1 > table > tr')[4] #select到第五个目标tr  guimo = tr_4.select('.pro-textcolor')[1].text #select到该tr下的class为pro-textcolor的第二个内容(发行规模:至***万) re_2 = re.compile(r'.*?(\d+).*?', re.S) #设立一个正则表达式,将纯数字提取出来 scale = re_2.findall(guimo)[0] #提取出纯数字的发行规模​ # 爬取收益率,该信息位于id为procon1下的table下的第8个tr里 tr_7 = soup.select('#procon1 > table > tr')[7] #select到第八个目标tr rate = tr_7.select('.pro-textcolor')[0].text[:(-1)] #select到该tr下的class为pro-textcolor的第一个内容(且通过下标[-1]将末尾的 % 去除) r = rate.split('至') #此处用来提取最低收益和最高收益 r_min = r[0] r_max = r[1]​ # 提取利率等级 tr_11 = soup.select('#procon1 > table > tr')[11] #select到第十二个目标tr r_grade = tr_11.select('p')[0].text #select到该tr下的p下的第一个内容(即利率等级)​ # 保存数据到一个字典中 item = { '产品名称':content[1], '发行机构':content[2], '发行时间':content[3], '产品期限':content[4], '投资行业':content[5], '首页收益':content[6], '发行地': address, '收益分配方式': r_style, '发行规模': scale, '最低收益': r_min, '最高收益': r_max, '利率等级': r_grade }​ # 返回数据 return item​# 定义一个主函数def main():​ # 写入相关数据 url_1 = '.某信托网.com/Action/ProductAJAX.ashx?' url_2 = '.某信托网.com/Product/Detail.aspx?' size = input('请输入每页显示数量:') start_page = int(input('请输入起始页码:')) end_page = int(input('请输入结束页码')) type = input('请输入产品类型(1代表信托,2代表资管):')  items = [] # 定义一个空列表用来存储数据​ # 写循环爬取每一页 for page in range(start_page, end_page + 1):​ # 第一层网页的爬取流程 print('第{}页开始爬取'.format(page)) # 1、拼接url——可定义一个分函数1:joint url_new = joint(url_1,size=size,page=page,type=type)​ # 2、发起请求,获取响应——可定义一个分函数2:que_res response = que_res(url_new)​ # 3、解析内容,获取所需数据——可定义一个分函数3:parse_content_1 contents = parse_content_1(response)​ # 4、休眠2秒 time.sleep(2)​ # 第二层网页的爬取流程​ for content in contents: print(' 第{}页{}开始下载'.format(page,content[0])) # 1、拼接url id = content[0] url_2_new = joint(url_2,id=id) # joint为前面定义的第1个函数​ # 2、发起请求,获取响应 response_2 = que_res(url_2_new) # que_res为前面定义的第2个函数​ # 3、解析内容,获取所需数据——可定义一个分函数4:parse_content_2,直接返回字典格式的数据 item = parse_content_2(response_2,content)​ # 存储数据 items.append(item) print(' 第{}页{}结束下载'.format(page,content[0])) # 休眠5秒 time.sleep(5)​ print('第{}页结束爬取'.format(page))​​ # 保存数据为dataframe格式CSV文件 df = pd.DataFrame(items) df.to_csv('data.csv',index=False,sep=',',encoding='utf-8-sig')​ print('*'*30) print('全部爬取结束')​if __name__ == '__main__': main()

爬取结果

.

标签: #ajax调用ashx