前言:
而今同学们对“爬虫java开源”大致比较关心,大家都需要了解一些“爬虫java开源”的相关文章。那么小编同时在网摘上收集了一些关于“爬虫java开源””的相关资讯,希望姐妹们能喜欢,各位老铁们快快来学习一下吧!最近鹏哥在总结目前市面流行的开源项目,努力发现有价值的项目分享给大家。

当今数据社会时代,数据才是最值钱的,一切的大数据分析,人工智能的训练都离不开数据这个原材料。今天鹏哥就介绍一个基于Java的爬虫项目:webmagic。
webmagic是一个开源的Java垂直爬虫框架,目标是简化爬虫的开发流程,让开发者专注于逻辑功能的开发。webmagic的核心非常简单,但是覆盖爬虫的整个流程,也是很好的学习爬虫开发的材料。
webmagic的主要特色完全模块化的设计,强大的可扩展性。核心简单但是涵盖爬虫的全部流程,灵活而强大,也是学习爬虫入门的好材料。提供丰富的抽取页面API。无配置,但是可通过POJO+注解形式实现一个爬虫。支持多线程。支持分布式。支持爬取js动态渲染的页面。无框架依赖,可以灵活的嵌入到项目中去。项目结构
webmagic主要包括两个包
webmagic-core : webmagic核心部分,只包含爬虫基本模块和基本抽取器。webmagic-core的目标是成为网页爬虫的一个教科书般的实现。webmagic-extension : webmagic的扩展模块,提供一些更方便的编写爬虫的工具。包括注解格式定义爬虫、JSON、分布式等支持。
webmagic还包含两个可用的扩展包,因为这两个包都依赖了比较重量级的工具,所以从主要包中抽离出来,这些包需要下载源码后自己编译
webmagic-saxon : webmagic与Saxon结合的模块。Saxon是一个XPath、XSLT的解析工具,webmagic依赖Saxon来进行XPath2.0语法解析支持。webmagic-selenium : webmagic与Selenium结合的模块。Selenium是一个模拟浏览器进行页面渲染的工具,webmagic依赖Selenium进行动态页面的抓取。
在项目中,你可以根据需要依赖不同的包。
使用实例:
引入Maven依赖
定制PageProcessor
PageProcessor是webmagic-core的一部分,定制一个PageProcessor即可实现自己的爬虫逻辑。以下是抓取osc博客的一段代码:

这里通过page.addTargetRequests()方法来增加要抓取的URL,并通过page.putField()来保存抽取结果。page.getHtml().xpath()则是按照某个规则对结果进行抽取,这里抽取支持链式调用。调用结束后,toString()表示转化为单个String,all()则转化为一个String列表。
Spider是爬虫的入口类。Pipeline是结果输出和持久化的接口,这里ConsolePipeline表示结果输出到控制台。
执行这个main方法,即可在控制台看到抓取结果。webmagic默认有3秒抓取间隔,请耐心等待。
我们还可以使用注解
webmagic-extension包括了注解方式编写爬虫的方法,只需基于一个POJO增加注解即可完成一个爬虫。以下仍然是抓取oschina博客的一段代码,功能与OschinaBlogPageProcesser完全相同:

鹏哥最近几年有很多项目都是跟数据打交道的,之前大部分时候都是自己写代码,里面遇到的很多坑。当时还年轻,遇到坑,不知道去找开源项目,浪费了很多时间和经历。如果你现在又爬取数据的需求,不妨试试这个项目,能取到事半功倍的效果。
好了,今天的分享就到这里了。欢迎大家留言好的开源项目,鹏哥会择优推荐,已经采用鹏哥有一份丰厚的奖品等着你。
标签: #爬虫java开源 #java爬虫开源框架 #爬虫开源框架