龙空技术网

一篇文章教会你利用Python网络爬虫获取穷游攻略

Python部落 171

前言:

此时大家对“python爬虫gbk”大致比较重视,姐妹们都想要了解一些“python爬虫gbk”的相关知识。那么小编也在网上搜集了一些有关“python爬虫gbk””的相关内容,希望咱们能喜欢,同学们快快来了解一下吧!

【一、项目背景】

穷游网提供原创实用的出境游旅行指南、攻略,旅行社区和问答交流平台,以及智能的旅行规划解决方案,同时提供签证、保险、机票、酒店预订、租车等在线增值服务。穷游“鼓励和帮助中国旅行者以自己的视角和方式体验世界”。

今天教大家获取穷游网的城市信息,使用Python将数据写入csv文档。

【二、项目目标】

实现将获取对应的城市、图片链接、热点、批量下载 保存csv文档。

【三、涉及的库和网站】

1、网址如下:

-{}

2、涉及的库:requests、lxml、fake_useragent、time、csv

【四、项目分析】

首先需要解决如何对下一页的网址进行请求的问题。可以点击下一页的按钮,观察到网站的变化分别如下所示:

- 

-

-

观察到只有citylist-0-0-{}/变化,变化的部分用{}代替,再用for循环遍历这网址,实现多个网址请求。

【五、项目实施】

1、我们定义一个class类继承object,然后定义init方法继承self,再定义一个主函数main继承self。准备url地址。

import requests,osfrom lxml import etreeimport randomimport timefrom fake_useragent import UserAgent

class Travel(object): def __init__(self): self.url = "-{}/" def main(self): passif __name__ == '__main__': spider= Travel spider.main

2、随机产生UserAgent。

 self.film_list =  ua = UserAgent(verify_ssl=False) for i in range(1, 50): self.film_list.append(ua.chrome) self.Hostreferer = { 'User-Agent': random.choice(self.film_list) }

3、多页请求。

 startPage = int(input("起始页:")) endPage = int(input("终止页:")) for page in range(startPage, endPage + 1): url = self.url.format(page)

4、定义get_page方法,进行数据请求。

 '''数据请求''' def get_page(self, url): html = requests.get(url=url, headers=self.Hostreferer).content.decode("utf-8") self.page_page(html) # print(html)//网页 # print(self.headers)//构造头

5、定义page_page,xpath解析数据, for循环遍历数组。

在谷歌浏览器上,右键选择开发者工具或者按F12。右键检查,xpath找到对应信息的字段。如下图所示。

 parse_html = etree.HTML(html) image_src_list = parse_html.xpath('//ul[@class="plcCitylist"]/li')  for i in image_src_list: b = i.xpath('.//h3//a/text')[0].strip c = i.xpath('.//p[@class="beento"]//text')[0].strip d = i.xpath('.//p[@class="pics"]//img//@src')[0].strip

6、定义csv文件保存数据,写入文档。

 # 创建csv文件进行写入 csv_file = open('scrape.csv', 'a', encoding='gbk') csv_writer = csv.writer(csv_file) csv_writer.writerow([b, c, d]) csv_file.close(

7、在main方法调用。

 def main(self): for i1 in range(1, 25): url = self.url.format(i1) # print(url) html = self.get_page(url)

time.sleep(2) print("第%d页" % i1)

8、time模块,设置时间延迟。

 time.sleep(2)

【六、效果展示】

1、点击运行,输入起始页,终止页。

2、将下载成功信息显示在控制台。

3、保存csv文档。

【七、总结】

1、不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。

2、希望通过这个项目,能够帮助大家对csv文档处理有进一步的了解。

3、本文基于Python网络爬虫,利用爬虫库,实现穷游网的获取。实现的时候,总会有各种各样的问题,切勿眼高手低,勤动手,才可以理解的更加深刻。

4、可以根据自己的需要选择自己的喜欢的城市获取自己想要的有效信息 。

标签: #python爬虫gbk