龙空技术网

python爬虫练习,爬取豆瓣最受欢迎的250部电影,并保存至excel

运维笔记ywbj 1644

前言:

此时同学们对“爬虫爬取豆瓣上所有电影”大体比较注意,我们都想要剖析一些“爬虫爬取豆瓣上所有电影”的相关内容。那么小编也在网上网罗了一些对于“爬虫爬取豆瓣上所有电影””的相关文章,希望同学们能喜欢,咱们一起来了解一下吧!

简介

目标:使用 BeautifulSoup + Reuqests,爬取豆瓣上评分最高的250部电影,并保存到excel表格中。

requests库,参考前面文章:python爬虫之reuqests库

BeautifulSoup库,参考前面文章:python爬虫之Beautiful Soup库

一、创建xls表格

需要用到xlwt库,没安装的话,安装即可

pip install xlwt

创建空表格

#创建一个excel表格,定义编码为utf-8,默认为ASCII编码excl=xlwt.Workbook(encoding='utf-8')movie=excl.add_sheet('movie top 250')movie.write(0,0,'排名')movie.write(0,1,'名称')movie.write(0,2,'导演演员')movie.write(0,3,'评分')movie.write(0,4,'链接')
二、创建请求函数

这里创建douban_re的函数,包括链接和headers,用于访问页面。

def douban_re(url):    headers={'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko)Chrome/65.0.3325.162 Safari/537.36'}    re=requests.get(url=url,headers=headers)    return re.text
三、提取数据并存入excel表格

同样创建一个函数,BeatifulSoup 解析数据,然后用循环的方式依次追加内容到表中。

需要先分析页面信息

获取页面内容,具体可以参考文章:python爬虫之Beautiful Soup库

def write_excel(soup):    list=soup.find(class_='grid_view').find_all('li')    for item in list:        item_num=item.find('em').string        item_name=item.find(class_='title').string        item_act=item.find('p').text.replace(' ','')        item_sc=item.find(class_='rating_num').string        item_link=item.find('a')['href']        #print("排名:"+item_num,"\n电影名称:"+item_name,item_act,item_sc,item_link)        #获取内容循环追加到表中。        global n        movie.write(n,0,item_num)        movie.write(n,1,item_name)        movie.write(n,2,item_act)        movie.write(n,3,item_sc)        movie.write(n,4,item_link)        n = n+1

四、循环多个页面的内容

分析网址信息:

#首页第二页第三页

可以发现就start=25的数字不同,同样用循环的方式依次访问页面即可。

创建访问页面函数main,在后面调取循环的页面数即可。

def main(page):    url=';+str(page*25)+'&filter='    #url=';    html=douban_re(url)    soup=BeautifulSoup(html,'lxml')    write_excel(soup)if __name__=='__main__':    for i in range(0,10):        main(i)

五、完整代码

import requestsfrom bs4 import BeautifulSoupimport xlwtexcl=xlwt.Workbook(encoding='utf-8')movie=excl.add_sheet('movie top 250')movie.write(0,0,'排名')movie.write(0,1,'名称')movie.write(0,2,'导演演员')movie.write(0,3,'评分')movie.write(0,4,'链接')n=1def douban_re(url):    headers={'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko)Chrome/65.0.3325.162 Safari/537.36'}    re=requests.get(url=url,headers=headers)    return re.textdef write_excel(soup):    list=soup.find(class_='grid_view').find_all('li')    for item in list:        item_num=item.find('em').string        item_name=item.find(class_='title').string        item_act=item.find('p').text.replace(' ','')        item_sc=item.find(class_='rating_num').string        item_link=item.find('a')['href']        #print("排名:"+item_num,"\n电影名称:"+item_name,item_act,item_sc,item_link)        global n        movie.write(n,0,item_num)        movie.write(n,1,item_name)        movie.write(n,2,item_act)        movie.write(n,3,item_sc)        movie.write(n,4,item_link)        n = n+1def main(page):    url=';+str(page*25)+'&filter='    #url=';    html=douban_re(url)    soup=BeautifulSoup(html,'lxml')    write_excel(soup)if __name__=='__main__':    for i in range(0,10):        main(i)excl.save('movie_top_250.xls')

最后excl.save保存并命令即可,注:xlwt只能创建保存为xls格式的表,不能保存xlsx格式的表格

执行结果,得到一个名称为movie_top_250.xls的表格,打开表格。

标签: #爬虫爬取豆瓣上所有电影