龙空技术网

爬虫:requests-html

十维教育 555

前言:

此刻小伙伴们对“html刷新页面session值”可能比较着重,朋友们都想要剖析一些“html刷新页面session值”的相关内容。那么小编同时在网上网罗了一些有关“html刷新页面session值””的相关内容,希望朋友们能喜欢,朋友们快快来了解一下吧!

爬虫:requests-html

一 介绍

Python上有一个非常著名的HTTP库——requests,相信大家都听说过,用过的人都说非常爽!现在requests库的作者又发布了一个新库,叫做requests-html,看名字也能猜出来,这是一个解析HTML的库,具备requests的功能以外,还新增了一些更加强大的功能,用起来比requests更爽!接下来我们来介绍一下它吧。

# 官网解释'''This library intends to make parsing HTML (e.g. scraping the web) as simple and intuitive as possible.If you’re interested in financially supporting Kenneth Reitz open source, consider visiting this link. Your support helps tremendously with sustainability of motivation, as Open Source is no longer part of my day job.When using this library you automatically get:- Full JavaScript support!- CSS Selectors (a.k.a jQuery-style, thanks to PyQuery).- XPath Selectors, for the faint at heart.- Mocked user-agent (like a real web browser).- Automatic following of redirects.- Connection–pooling and cookie persistence.- The Requests experience you know and love, with magical parsing abilities.- Async Support'''

官网告诉我们,它比原来的requests模块更加强大,并且为我们提供了一些新的功能!

支持JavaScript支持CSS选择器(又名jQuery风格, 感谢PyQuery)支持Xpath选择器可自定义模拟User-Agent(模拟得更像真正的web浏览器)自动追踪重定向连接池与cookie持久化支持异步请求

二 安装

安装requests-html非常简单,一行命令即可做到。需要注意一点就是,requests-html只支持Python 3.6或以上的版本,所以使用老版本的Python的同学需要更新一下Python版本了。

# pip3 install requests-html

三 如何使用requests-html?

在我们学爬虫程序的时候用得最多的请求库就是requests与urllib,但问题是这些包只给我们提供了如何去目标站点发送请求,然后获取响应数据,接着再利用bs4或xpath解析库才能提取我们需要的数据。

import requestsfrom bs4 import BeautifulSoupurl = ''HEADERS = { 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.157 Safari/537.36'}response = requests.get(url, headers=HEADERS)response.encoding = 'gbk'# print(response.status_code)# print(response.text)soup = BeautifulSoup(response.text, 'lxml')# 获取最新的五则新闻post_rankings = soup.find_all(name='article', attrs={"class": "post_ranking"})# 循环打印新闻简介内容for post_ranking in post_rankings: new = post_ranking.find(name='div', attrs={"class": 'post_summary'}) print(new.text)

而在requests-html里面只需要一步就可以完成而且可以直接进行js渲染!requests的作者Kenneth Reitz 开发的requests-html 爬虫包 是基于现有的框架 PyQuery、Requests、lxml、beautifulsoup4等库进行了二次封装,作者将Requests的简单,便捷,强大又做了一次升级。

requests-html和其他解析HTML库最大的不同点在于HTML解析库一般都是专用的,所以我们需要用另一个HTTP库先把网页下载下来,然后传给那些HTML解析库。而requests-html自带了这个功能,所以在爬取网页等方面非常方便。

1、基本使用

from requests_html import HTMLSession# 获取请求对象session = HTMLSession()# 往新浪新闻主页发送get请求sina = session.get('')# print(sina.status_code)sina.encoding = 'utf-8'# 获取响应文本信息,与requests无区别# print(sina.text)

2、获取链接(links与abolute_links)

links返回的结果 absolute_links返回的结果

from requests_html import HTMLSession# 获取请求对象session = HTMLSession()# 往京东主页发送get请求jd = session.get('')# 得到京东主页所有的链接,返回的是一个set集合print(jd.html.links)print('*' * 1000)# 若获取的链接中有相对路径,我们还可以通过absolute_links获取所有绝对链接print(jd.html.absolute_links)

3、CSS选择器与XPATH

request-html支持CSS选择器和XPATH两种语法来选取HTML元素。首先先来看看CSS选择器语法,它需要使用HTML的 find 函数来查找元素。

'''  CSS选择器 and XPATH   1.通过css选择器选取一个Element对象   2.获取一个Element对象内的文本内容   3.获取一个Element对象的所有attributes    4.渲染出一个Element对象的HTML内容   5.获取Element对象内的特定子Element对象,返回列表   6.在获取的页面中通过search查找文本    7.支持XPath    8.获取到只包含某些文本的Element对象'''
from requests_html import HTMLSessionsession = HTMLSession()url = ""# 获取响应数据对象obj = session.get(url)# 1.通过css选择器选取一个Element对象# 获取id为content-left的div标签,并且返回一个对象content = obj.html.find('div#content-left', first=True)# 2.获取一个Element对象内的文本内容# 获取content内所有文本print(content.text)# 3.获取一个Element对象的所有attributes# 获取content内所有属性print(content.attrs)# 4.渲染出一个Element对象的完整的HTML内容html = content.htmlprint(html)# 5.获取Element对象内的指定的所有子Element对象,返回列表a_s = content.find('a')print(a_s)print(len(a_s)) # 79# 循环所有的a标签for a in a_s: # 获取a标签内所有属性的href属性 并拼接 href = a.attrs['href'] if href.startswith('/'): url = '' + href print(url)# 6.在获取的页面中通过search查找文本# {}大括号相当于正则的从头到后开始匹配,获取当中想要获取的数据text = obj.html.search('把{}夹')[0] # 获取从 "把" 到 "夹" 字的所有内容text = obj.html.search('把糗事{}夹')[0] # 获取从把子到夹字的所有内容print(text)print('*' * 1000)# 7.支持XPatha_s = obj.html.xpath('//a') # 获取html内所有的a标签for a in a_s: href = a.attrs['href'] # 若是//开头的url都扔掉 if href.startswith('//'): continue # 若是/开头的都是相对路径 elif href.startswith('/'): print('' + href)# 8.获取到只包含某些文本的Element对象(containing)# 获取所有文本内容为幽默笑话大全_爆笑笑话_笑破你的肚子的搞笑段子 - 糗事百科 title标签# 注意: 文本内有空格也必须把空格带上title = obj.html.find('title', containing='幽默笑话大全_爆笑笑话_笑破你的肚子的搞笑段子 - 糗事百科')print(title)

四 支持JavaScript

支持JavaScript是我觉得作者更新后最为牛逼的一个地方,但是需要在第一次执行render的时候下载chromeium,然后通过它来执行js代码。

1、render的使用

from requests_html import HTMLSessionsession = HTMLSession()url = ''obj = session.get(url)obj.encoding = 'utf-8'obj.html.render() 

注意:第一次运行render()方法时,它会将Chromium下载到您的主目录中(例如~/.pyppeteer/)。这种情况只发生一次。

2、 下载Chromeium问题

因为是从国外的站点下载几分钟才3%,实在是太慢了。所以我们需要通过国内的镜像去下载!需要做以下几步:

手动下载Chrome先去国内源下载自己需要的版本,地址: 修改chromeium_downloader.py文件下载后之后解压后,进入python安装目录下的\Lib\site-packages\pyppeteer目录, 并打开chromium_downloader.py文件。

# 找到自己的操作系统相应的配置位置'''chromiumExecutable = {'linux': DOWNLOADS_FOLDER / REVISION / 'chrome-linux' / 'chrome','mac': (DOWNLOADS_FOLDER / REVISION / 'chrome-mac' / 'Chromium.app' /'Contents' / 'MacOS' / 'Chromium'),'win32': DOWNLOADS_FOLDER / REVISION / 'chrome-win32' / 'chrome.exe','win64': DOWNLOADS_FOLDER / REVISION / 'chrome-win32' / 'chrome.exe',}'''from pyppeteer import __chromium_revision__, __pyppeteer_home__DOWNLOADS_FOLDER = Path(__pyppeteer_home__) / 'local-chromium'REVISION = os.environ.get('PYPPETEER_CHROMIUM_REVISION', __chromium_revision__)# 打印这两个变量可以知道执行的驱动具体位置print(DOWNLOADS_FOLDER)print(REVISION)'''由上面可以知道:chromium路径是:C:\Users\Ray\AppData\Local\pyppeteer\pyppeteer\local-chromium\575458\chrome-win32\chrome.exe所以自己建文件夹,然后一直到chrome-win32文件夹,把上面下载的chromium文件,拷贝到此目录下'''

五 自定义User-Agent

有些网站会使用User-Agent来识别客户端类型,有时候需要伪造UA来实现某些操作。如果查看文档的话会发现HTMLSession上的很多请求方法都有一个额外的参数**kwargs,这个参数用来向底层的请求传递额外参数。我们先向网站发送一个请求,看看返回的网站信息。

from requests_html import HTMLSession# pprint可以把数据打印得更整齐from pprint import pprintimport jsonget_url = ''session = HTMLSession()# 返回的是当前系统的headers信息res = session.get(get_url)pprint(json.loads(res.html.html))# 可以在发送请求的时候更换user-agentua = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:62.0) Gecko/20100101 Firefox/62.0'post_url = ''res = session.get(post_url, headers={'user-agent': ua})pprint(json.loads(res.html.html))# 如果你有需要可以在header中修改其他参数。

六 模拟表单提交(POST)

HTMLSession封装了一整套的HTTP方法,包括get、post、delete等, 对应HTTP中各个方法。

# 表单登录r = session.post('', data={'username': 'tank_jam', 'password': 'tank9527'})pprint(json.loads(r.html.html))''' # 打印结果{'args': {}, 'data': '', 'files': {}, 'form': {'password': 'tank9527', 'username': 'tank_jam'}, 'headers': {'Accept': '*/*', 'Accept-Encoding': 'gzip, deflate', 'Content-Length': '35', 'Content-Type': 'application/x-www-form-urlencoded', 'Host': 'httpbin.org', 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) ' 'AppleWebKit/603.3.8 (KHTML, like Gecko) ' 'Version/10.1.2 Safari/603.3.8'}, 'json': None, 'origin': '112.65.61.109, 112.65.61.109', 'url': ''}'''

七 支持异步请求

requests-html内部就封装好了aynsc异步请求的功能,可以提高我们的爬虫效率。

from requests_html import AsyncHTMLSessionfrom requests_html import HTMLSessionimport time# 使用异步发送请求async_session = AsyncHTMLSession()async def get_baidu(): url = '' res = await async_session.get(url) print(res.html.absolute_links)async def get_sougou(): url = '' res = await async_session.get(url) print(res.html.links)start_time = time.time()async_session.run(get_baidu, get_sougou)print('耗时:', time.time() - start_time)# 同步发送请求session = HTMLSession()start_time = time.time()res = session.get('')print(res.html.links)res = session.get('')print(res.html.absolute_links)print('耗时:', time.time() - start_time)

标签: #html刷新页面session值