龙空技术网

python+selenium扒取淘宝上的商品

深海区coder 226

前言:

现时大家对“淘宝爬虫python”大概比较注重,同学们都需要学习一些“淘宝爬虫python”的相关知识。那么小编同时在网络上网罗了一些有关“淘宝爬虫python””的相关知识,希望大家能喜欢,同学们一起来学习一下吧!

使用的开源组件和版本

按照我写文章的调性,还是先列使用的技术和版本,如下:

python 3.8

selenium 3.141.0

背景和目标

python + selenium可以做很多的事情,最常见的就是扒取网上的信息了。我要做的商城正好需要模拟一些商品信息(造数据),但是商品不是特别容易模拟,涉及到图片、规格参数、详细介绍等,人工模拟根本不现实,所以就有了这篇文章的内容,目标我选择淘宝。

写代码第一步-先要对需求做一下分析,要明确以下两点:

1. 我要什么样的数据

简单来说我要的是一批商品数据,最好包括商品名称、价格、图片和详细介绍。考虑一下一般商城下的场景,对于商品,肯定首先要有分类,很可能分类不止一级,每个商品分类下才是具体某个商品,我们按照商品有两级分类先来设计一下相关的表结构(由于我的数据库是mongoDB,相关的表结构就直接用类json的形式表示了)

一级类目表

{category_name:"", category_label:""}

二级类目表

{second_cat_name, second_cat_abel, parent_category}

商品表

{

product_no, //商品唯一编号

product_name, //商品中文名

product_brand, //商品品牌

first_category, //一级分类

second_category, //二级分类

price, //商品价格

product_attrs: [] //商品规格参数

product_thumb_imgs: [] //商品缩略图

product_main_img: //商品主图

product_detail: //商品详细介绍

}

2.实现路径是什么样的

爬取网上的信息,其实只需要三步:

1. 控制浏览器打开一个窗口(driver)

2. 定位到某个元素 (location)

3. 获取这个元素的信息 (text)

看起来似乎挺简单(然而我搞了差不多一天),下面就详细介绍一下实现过程。

实现python对浏览器的控制

from selenium import webdriverfrom selenium.webdriver.support.ui import WebDriverWaitbrowser = webdriver.Chrome(    executable_path="D:\CodeRepertories\python_projects\python_example\spider\drivers\chromedriver.exe")wait = WebDriverWait(browser, 15)browser.maximize_window()browser.get(';)

核心就是上面这段代码,当然首先你的python环境中需要先安装了selenium,并且chromedriver需要预先准备,下载地址如下:

根据你的浏览器版本下载就可以了。

读取商品类目

首先我在浏览器上F12分析了淘宝首页,首页内容看似比较像类目,但实际内容并不是那种一级下面包含二级,二级下面包含商品这种,淘宝首页更像是加工过的,类目已经被打散了,我找到了另一个有明显类目的地址,就是上面的地址:

这个其实是淘宝店铺搜索的页面

但是python控制打开这个页面时,淘宝自动重定向到了登录页面,额... 所以首先我们要过登录这一关,其实就是输入用户名密码(代码中我隐去了,不然泄露了...),点击登录就可以。然后才能打开目标页面

def fetch_product():    print('start...')    browser.get(';)    browser.find_element_by_id("fm-login-id").send_keys("<user_name>")    browser.find_element_by_id("fm-login-password").send_keys("<password>")    browser.find_element_by_css_selector(".fm-btn > button").click()    wait.until(        EC.presence_of_element_located((By.CSS_SELECTOR, '#shopsearchindex-hotcat'))    )    # category = browser.find_elements_by_css_selector("[class='cat-menswear level-one-cat-item']")    category = browser.find_elements_by_css_selector(".level-one-cat-item")    for subCategory in category:        # 获取一级类目的英文标识,作为name        class_name = subCategory.get_attribute("class").split(' ')[0]        category_label = subCategory.find_element_by_css_selector(".level-one-cat").text        # 打印一级类目        category = {}        category['category_name'] = class_name[4:len(class_name)]        category['category_label'] = category_label        print(category)

这里有两个要点,一个是定位元素,css_selector非常强大,基本相当于写html页面中的class的时候的形式,通过id,css-class类名,标签等均可,如下几个例子:

# 使用class定位browser.find_element_by_css_selector(".fm-btn > button").click()# 也可以像下面这样browser.find_elements_by_css_selector("[class='cat-menswear level-one-cat-item']")# 或者通过idbrowser.find_elements_by_css_selector("#J_AttrUL")

另一个是 wait.until 的使用,其实就是在当前页面等待,直到条件满足。一般是监控某一个元素出现。

读取商品二级类目下的商品

接下来就是读取二级类目了,接着上面的代码,subCategory已经包含了二级类目的名称,我们逐个获取就可以。

for secondLevel in subCategory.text.split('\n')[1:]:            # 打印二级类目            second_category = {}            second_category['second_cat_name'] = secondLevel            second_category['second_cat_abel'] = secondLevel            second_category['parent_category'] = class_name[4:len(class_name)]            print(second_category)            search_product_label(class_name[4:len(class_name)], secondLevel)

search_product_label方法就是通过二级类目获取类目下的商品了,我是通过将二级类目的中文描述放在首页上的搜索框内,触发搜索,然后在结果中找到对应的商品来实现的。

def search_product_label(first_category_name, second_category_label):    """    移动端,爬取淘宝商品的方式,二级类目作为关键词搜索相关商品    :param first_category_name: 一级类目的英文名    :param second_category_label: 二级类目的中文描述    :return: None    """    get_product_from_pc(first_category_name, second_category_label)def get_product_from_pc(first_category_name, second_category_label):    """    pc端,爬取淘宝商品的方式    :param first_category_name:    :param second_category_label:    :return:    """    browser.get(';)    input = wait.until(        EC.presence_of_element_located((By.CSS_SELECTOR, '#q'))    )    submit = wait.until(        EC.element_to_be_clickable((By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button')))    input.send_keys(second_category_label)    # 搜索关键字    submit.click()    wait.until(EC.visibility_of_any_elements_located((By.CSS_SELECTOR, "#mainsrp-itemlist")))    products_list = browser.find_elements_by_css_selector("[class='item J_MouserOnverReq  ']")    # 遍历商品列表每个商品打开一个新的窗口,获取其中的商品信息    for productItem in products_list:        try:            assemble_product(productItem)        except Exception as e:            print(e)        # 关闭当前窗口        browser.close()        browser.switch_to.window(browser.window_handles[0])def assemble_product(productItem):    product = {}    # print(productItem.text)    product['product_main_img'] = "https:" + productItem.find_element_by_css_selector(        ".pic-box-inner > div > a > img").get_attribute("src")    productItem.click()    browser.switch_to.window(browser.window_handles[-1])    # 先将页面滚动到底部,解决页面懒加载的时候元素没有出现的问题    browser.execute_script("window.scrollTo({top:1000,behavior: 'smooth'})")    wait.until(EC.visibility_of_element_located((By.CSS_SELECTOR, "#J_DetailMeta")))    url_params_list = browser.current_url.split('?')[1].split('&')    # 截取商品唯一标识    for params in url_params_list:        if params.startswith('id='):            product['product_no'] = params.split('=')[1]    # 截取商品名称    product['product_name'] = browser.find_element_by_css_selector(".tb-detail-hd > h1").text    # 商品品牌    brand_element = wait.until(EC.visibility_of_element_located((By.CSS_SELECTOR, "#J_BrandAttr > div > b")))    product['product_brand'] = brand_element.text    # 获取商品属性    attr_elements = browser.find_elements_by_css_selector("#J_AttrUL > li")    attr_list = []    for attr_element in attr_elements:        attr_list.append(attr_element.text)    product['product_attrs'] = attr_list    # 获取商品价格    product['price'] = browser.find_element_by_css_selector(".tm-price-panel > dd > span").text    # 获取商品图片,缩略图,保存时保存原图,不同尺寸的图可以通过增加尺寸后缀显示    img_elements = browser.find_elements_by_css_selector("#J_UlThumb > li > a > img")    thumb_img_list = []    for img in img_elements:        thumb_img_list.append("https:" + img.get_attribute("src").split('jpg_')[0] + "jpg")    product['product_thumb_imgs'] = thumb_img_list    # 获取商品详细介绍    desc_elements = browser.find_elements_by_css_selector("#description > .content > p > img")    detail_imgs = []    for detail in desc_elements:        detail_imgs.append(detail.get_attribute("src"))    product['product_detail'] = detail_imgs    print(product)

代码比较长,其实都是因为我要定位到特定的元素,或者点击某一个元素,要处理成我要的数据格式。其中关注两个地方就可以:

1. 触发点击某一个商品后浏览器打开了新的标签页,所以需要控制浏览器进入到新的页面中,然后在新页面中读取完成后要关闭标签页

product['product_main_img'] = "https:" + productItem.find_element_by_css_selector(        ".pic-box-inner > div > a > img").get_attribute("src")    productItem.click()    # 控制跳转到新的标签页    browser.switch_to.window(browser.window_handles[-1])    .......    # 结束后关闭标签页并回到原来的列表页面    browser.close()    browser.switch_to.window(browser.window_handles[0])
2. 另一个地方就是下面这段代码:

browser.execute_script("window.scrollTo({top:1000,behavior: 'smooth'})")

这是控制浏览器向下滚动的,由于淘宝的懒加载机制,如果你的屏幕较小,打开页面时就只会展示一小段内容,下面的商品详情,品牌等信息根本没有加载,那么你的页面就会一直等待下去,直到超时!

(这里只是向下滚动了1000像素,实测下来大部分商品读取都没有问题了。但是其实并没有从根本上解决懒加载引起的问题,只能算是治标的方案,治本的,目前还没有头绪,我试了别的方式,比如直接滚动到底部,但是没有用,

直接滚动到底部,中间部分的内容其实仍未触发加载。)

然后就可以执行看结果了

if __name__ == "__main__":    fetch_product()

爬虫的部分就到这里了,其实还有最后一步是数据写入mongoDB,比较简单,这里就不写了,感兴趣的朋友可以看我之前的一篇文章。

如果觉得有用的话,可以抬手点个赞哦,后续还会有更多干货,欢迎关注。

标签: #淘宝爬虫python