前言:
当前我们对“verynginx中文”大约比较看重,咱们都需要知道一些“verynginx中文”的相关资讯。那么小编在网上收集了一些关于“verynginx中文””的相关资讯,希望我们能喜欢,咱们快快来学习一下吧!养成习惯,先赞后看!!!
不用于任何商业价值,只是自己娱乐。
否则 爬虫爬的好,牢饭吃到饱。
这是我们这次爬取的网址:
1.准备工作
这次我们主要运用四个模块分别是
BeautifulSoup:主要用于我们来分析网页信息
requests:主要是用于我们来请求网页
re:正则表达式,帮组我们来匹配实际需要的信息
os:主要负责帮我们下载图片
2.分析网页+实际操作
一开始我们先分析单个页面进行爬取下载,之后我们在分析首页获取到所有页面的链接,最后对我们之前的代码进行整合规范化。
2.1分析页面1
页面网址:
我们通过鼠标定位到我们需要爬取的图片的信息就在上图红色方框中,并且通过观察页面的格式我们发现大体格式基本一样,基本都是下面这种样式:
<img alt="酸酸的,甜甜的-唯美女生" width="2904" height="4356" class="alignnone size-full loaded" data-src="image/2018/08/2018-08-10_13-52-47.jpg"data-nclazyload="true" data-pagespeed-url-hash="1859759222" onload="pagespeed.CriticalImages.checkImageForCriticality(this);" data-pagespeed-lsc-url="; src="image/2018/08/2018-08-10_13-52-47.jpg" data-was-processed="true">
并且通过分析我们可以得到图片的链接其实就在img的data-pagespeed-lsc-url属性之中,那么我们就来尝试先将所有的img空间爬取下来
import requestsfrom bs4 import BeautifulSoupheaders={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36"}response=requests.get(';,headers=headers)html=response.text"""解析网页"""findImgsrc=re.compile(r'data-src="(.*?)"')soup = BeautifulSoup(html, "html.parser")for item in soup.find_all("img", class_="alignnone size-full"): print(item)
但是当我们爬取下来之后发现img控件中并没有data-pagespeed-lsc-url这个属性,那么我们怎么办呢?别急继续看我们发现虽然没有data-pagespeed-lsc-url但是data-src属性和data-pagespeed-lsc-url也差不多,只是缺少了部分请求头,这个我们完全可以通过后续的字符串操作进行修改得到,所以我们编写正则表达式进行匹配获取到我们需要的信息
findImgsrc=re.compile(r'data-src="(.*?)"')
就这简单一句就行了,获取到了还不行,因为他还不符合我们图片链接的规范,所以我们还需要对该字符进行处理。
datas = []for item in soup.find_all("img", class_="alignnone size-full"): print(item) item = str(item) link = re.findall(findImgsrc, item)[0] datas.append(";+link[0:38])
这样我们便能够获取到该页面所有的图片链接了
获取到图片链接之后我们就需要来下载图片,这里我们主要运用的就是os模块
"""创建文件夹名称"""dir_name=re.findall('<h1 class="post-title h3">(.*?)</h1>',html)[0]if not os.path.exists(dir_name): os.mkdir(dir_name)print(dir_name)"""保存图片"""for data in datas: # 图片名称 time.sleep(0.5) file_name=data.split("/")[-1] response=requests.get(data,headers=headers) with open(dir_name+'/'+file_name,'wb') as f: f.write(response.content) print(file_name+"下载成功")
到此我们的第一个页面就分析结束了
2.2分析页面2
页面网址:
按道理其实每个页面的布局以及设计基本上都应该是一样的,但是这个网站有点奇怪。他的页面之间有一些不同像下面这个:
可能乍看上去大家觉得可能是一样的,但是通过对比图大家就能看出来了
我选择的另一种方式就是直接通过他的a标签来获取图片的链接,我们分析它的a标签的结构,设计下面的正则表达式来进行匹配:
re.findall('<a href="(.*?)" alt=".*?" title=".*?">',html)
接下来我们爬取看看是不是我们需要的
for item in re.findall('<a href="(.*?)" alt=".*?" title=".*?">',html): print(item)
显然爬出来的和上述的情况一样,我们还需要为他添加请求头
for item in re.findall('<a href="(.*?)" alt=".*?" title=".*?">',html): print("; + item)
这样我们再看看如何
这样就已经变成链接了。
到这里第二个页面我们也已经分析完毕了。
2.3分析首页
如果只是单个页面的爬取,显然还是不能满足博主,毕竟只有一个小姐姐。博主我选择
那么既然这样我们就需要来分析首页的网页结构,但是看完首页的网页结构,我们发现
他整个页面上并不存在任何分页的控件,所以像之前豆瓣那样的爬取是不行了,接着我们看
这里不就是我们需要的链接,所以我们可以分析整个网页,将他所有的链接全部保存下来,之后我们再去一个一个访问不就行了
"""解析网页获取到所有页面的URL"""def getlink(html): soup = BeautifulSoup(html, "html.parser") datas = [] for item in soup.find_all("a", class_="media-content"): item = str(item) //判断是否含有元素 if len(re.findall(findLink, item))!=0: link = re.findall(findLink, item)[0] //重新构造成我们需要的网页链接 newlink="; + link //并且进行去重操作 if newlink not in datas: datas.append(newlink)
之后我们来看结果
这样我们就爬取到了页面上的所有网址链接了。
2.4整合代码,准备起飞
上面的准备工作已经全部完成了,接下来我们就将各个模块的代码进行封装,方便我们调用,并且使代码更加的规范化。
8月13日更新一次代码,由于之前的请求头模拟的不够彻底,导致网站认定我们是爬虫,下载能下载,但是会出现图片打不开的情况,所以添加了部分请求头的信息
整体流程;
1.获取首页的所有页面链接
"""解析网页获取到所有页面的URL"""def getlink(html): soup = BeautifulSoup(html, "html.parser") datas = [] for item in soup.find_all("a", class_="media-content"): item = str(item) if len(re.findall(findLink, item))!=0: link = re.findall(findLink, item)[0] newlink="; + link if newlink not in datas: datas.append(newlink) # print(datas) return datas
2.循环爬取各个页面的图片链接
"""解析网页获取到该页面的所有图片链接"""def getdata(html): soup = BeautifulSoup(html, "html.parser") datas = [] for item in soup.find_all("img", class_="alignnone size-full"): # print(item) item = str(item) link = re.findall(findImgsrc, item)[0] datas.append("; + link[0:38]) for item in re.findall('<a href="(.*?)" alt=".*?" title=".*?">', html): # print(item) datas.append("; + item) # print(datas) return datas
3.根据链接创建相应的文件夹
"""创建文件夹名称"""def createdir(html): dir_name=re.findall('<h1 class="post-title h3">(.*?)</h1>',html)[0] if not os.path.exists(dir_name): os.mkdir(dir_name) return dir_name
4.在相应的文件夹中下载图片
"""保存图片"""def download(datas,dir_name): for data in datas: time.sleep(0.25) file_name=data.split("/")[-1] response=requests.get(data,headers=headers) with open(dir_name+'/'+file_name,'wb') as f: f.write(response.content) print(file_name+"下载成功")
修改后的完整代码:
import timeimport requestsimport refrom bs4 import BeautifulSoupimport osimport urllib.requestimport parselfindImgsrc=re.compile(r'data-src="(.*?)"')findLink=re.compile(r'href="(.*?)"')headers1={"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36"}headers2={ 'Host':";, "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9", "cookie": "_ga=GA1.2.1285440638.1596454858; verynginx_sign_javascript=9afce94d2a1677e47daf110997b372be; _gid=GA1.2.2085095474.1597149513; xcat_sign_cookie=2bf90ba8c55955f8cb9db86e256cf3f6; Hm_lvt_a5eba7a40c339f057e1c5b5ac4ab4cc9=1597149513,1597193455,1597218065,1597295111; _GPSLSC=; Hm_lpvt_a5eba7a40c339f057e1c5b5ac4ab4cc9=1597308777", "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36"}def main(): print("主程序入口") urls = getlink(askURL(';)) # print(urls) for url in urls: html = askURL(url) dir_name = createdir(html) print("开始爬取" + dir_name) datas = getdata(html) # print(data) download(datas, dir_name) print(dir_name + "已经下载完毕")"""请求网页信息"""def askURL(url): response=requests.get(url,headers=headers1) html=response.text return html# print(html)"""解析网页获取到该页面的所有图片链接"""def getdata(html): soup = BeautifulSoup(html, "html.parser") datas = [] for item in soup.find_all("img", class_="alignnone size-full"): # print(item) item = str(item) link = re.findall(findImgsrc, item)[0] datas.append("; + link[0:38]) for item in re.findall('<a href="(.*?)" alt=".*?" title=".*?">', html): # print(item) datas.append("; + item) # print(datas) return datas"""解析网页获取到所有页面的URL"""def getlink(html): datas = [] parse = parsel.Selector(html) links = parse.xpath('//a[@class="media-content"]/@href' ).getall() # print(links) for link in links: newlink="; + link if newlink not in datas: datas.append(newlink) # print(datas) return datas"""创建文件夹名称"""def createdir(html): dir_name=re.findall('<h1 class="post-title h3">(.*?)</h1>',html)[0] if not os.path.exists(dir_name): os.mkdir(dir_name) return dir_name"""保存图片"""def download(datas,dir_name): for data in datas: file_name=data.split("/")[-1] response=requests.get(data,headers=headers2) with open(dir_name+'/'+file_name,'wb') as f: f.write(response.content) print(file_name+"下载成功")if __name__ == '__main__': main() print("爬取完毕")3.效果展示
都看到这里了,如果觉得对你有帮助的话,可以关注博主的公众号,新人up需要你的支持。
如果有什么疑问或者想要源码的话,可以私聊博主哦。
标签: #verynginx中文