龙空技术网

爬虫有哪些常见的反爬措施

E神选 214

前言:

此时兄弟们对“nginx 反爬”大致比较着重,各位老铁们都需要分析一些“nginx 反爬”的相关文章。那么小编也在网摘上汇集了一些有关“nginx 反爬””的相关知识,希望同学们能喜欢,你们一起来了解一下吧!

昨天已经介绍过了爬虫的基本概念,具体可以查看这个链接:

那么今天就来看看日常使用爬虫可能遇到的一些反爬机制和措施吧~[机智]

1.User-Agent反爬。User-Agent通常是存放有关请求的一些信息,比如说浏览器的类型、版本等等,而爬虫常用的请求库如requests也会自带一些User-Agent,这些固定的User-Agent就很容易被nginx发现并且直接403。

2.IP限制。如果一个IP请求的次数过于频繁,超出正常人的访问范围,则会被归结为爬虫。当然,网站一般不会做出封禁IP的操作(因为IP一般是动态IP),而是对IP进行请求次数限制之类的。

这就是我们在日常工作中使用爬虫遇到过一些反爬机制,总的来说是比较常规且容易破解的,下次我们就来看看一些匪夷所思甚至令人发笑的反爬机制吧,那么大家对于反爬有什么自己的心得体会也可以在评论区留言哦~[爱慕]

标签: #nginx 反爬 #网站反爬机制 #列举网站中常见的反爬虫措施 #列举网站中常见的反爬虫措施其中一种