前言:
此时同学们对“爬虫爬取豆瓣上所有电影”大体比较注意,我们都想要剖析一些“爬虫爬取豆瓣上所有电影”的相关内容。那么小编也在网上网罗了一些对于“爬虫爬取豆瓣上所有电影””的相关文章,希望同学们能喜欢,咱们一起来了解一下吧!简介
目标:使用 BeautifulSoup + Reuqests,爬取豆瓣上评分最高的250部电影,并保存到excel表格中。
requests库,参考前面文章:python爬虫之reuqests库
BeautifulSoup库,参考前面文章:python爬虫之Beautiful Soup库
一、创建xls表格
需要用到xlwt库,没安装的话,安装即可
pip install xlwt
创建空表格
#创建一个excel表格,定义编码为utf-8,默认为ASCII编码excl=xlwt.Workbook(encoding='utf-8')movie=excl.add_sheet('movie top 250')movie.write(0,0,'排名')movie.write(0,1,'名称')movie.write(0,2,'导演演员')movie.write(0,3,'评分')movie.write(0,4,'链接')二、创建请求函数
这里创建douban_re的函数,包括链接和headers,用于访问页面。
def douban_re(url): headers={'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko)Chrome/65.0.3325.162 Safari/537.36'} re=requests.get(url=url,headers=headers) return re.text三、提取数据并存入excel表格
同样创建一个函数,BeatifulSoup 解析数据,然后用循环的方式依次追加内容到表中。
需要先分析页面信息
获取页面内容,具体可以参考文章:python爬虫之Beautiful Soup库
def write_excel(soup): list=soup.find(class_='grid_view').find_all('li') for item in list: item_num=item.find('em').string item_name=item.find(class_='title').string item_act=item.find('p').text.replace(' ','') item_sc=item.find(class_='rating_num').string item_link=item.find('a')['href'] #print("排名:"+item_num,"\n电影名称:"+item_name,item_act,item_sc,item_link) #获取内容循环追加到表中。 global n movie.write(n,0,item_num) movie.write(n,1,item_name) movie.write(n,2,item_act) movie.write(n,3,item_sc) movie.write(n,4,item_link) n = n+1
四、循环多个页面的内容
分析网址信息:
#首页第二页第三页
可以发现就start=25的数字不同,同样用循环的方式依次访问页面即可。
创建访问页面函数main,在后面调取循环的页面数即可。
def main(page): url=';+str(page*25)+'&filter=' #url='; html=douban_re(url) soup=BeautifulSoup(html,'lxml') write_excel(soup)if __name__=='__main__': for i in range(0,10): main(i)
五、完整代码
import requestsfrom bs4 import BeautifulSoupimport xlwtexcl=xlwt.Workbook(encoding='utf-8')movie=excl.add_sheet('movie top 250')movie.write(0,0,'排名')movie.write(0,1,'名称')movie.write(0,2,'导演演员')movie.write(0,3,'评分')movie.write(0,4,'链接')n=1def douban_re(url): headers={'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko)Chrome/65.0.3325.162 Safari/537.36'} re=requests.get(url=url,headers=headers) return re.textdef write_excel(soup): list=soup.find(class_='grid_view').find_all('li') for item in list: item_num=item.find('em').string item_name=item.find(class_='title').string item_act=item.find('p').text.replace(' ','') item_sc=item.find(class_='rating_num').string item_link=item.find('a')['href'] #print("排名:"+item_num,"\n电影名称:"+item_name,item_act,item_sc,item_link) global n movie.write(n,0,item_num) movie.write(n,1,item_name) movie.write(n,2,item_act) movie.write(n,3,item_sc) movie.write(n,4,item_link) n = n+1def main(page): url=';+str(page*25)+'&filter=' #url='; html=douban_re(url) soup=BeautifulSoup(html,'lxml') write_excel(soup)if __name__=='__main__': for i in range(0,10): main(i)excl.save('movie_top_250.xls')
最后excl.save保存并命令即可,注:xlwt只能创建保存为xls格式的表,不能保存xlsx格式的表格
执行结果,得到一个名称为movie_top_250.xls的表格,打开表格。
标签: #爬虫爬取豆瓣上所有电影