太阳http吧 关注:44贴子:218
  • 1回复贴,共1

爬虫是怎样处理ip不足的问题的?

只看楼主收藏回复

在爬虫工作过程中,时常会被目标网站禁止访问,但又找不到缘故,这是让人十分郁闷的事情。通常情况下,目标网站的反爬虫策略全是依靠IP来标识爬虫的,许多情况下,我们访问网站的IP地址会被记录,当服务器指出这个IP是爬虫,那么便会限制或是禁止此IP访问。被限制IP最普遍的一个缘故是抓取频率过快,超出了目标网站所设置的阈值,将会被服务器禁止访问。因此,许多爬虫工作者会选择运用代理IP来辅助爬虫工作的正常的运行。


1楼2020-07-15 15:49回复
    但有时迫不得已面对这样一个问题,代理IP不够用,该怎么办?有人说,不足用就去买呀。这里有两个问题,一是成本问题,二是高效代理IP并不是随处都有。
    一般 ,爬虫工程师会采取这样两个手段来处理问题:
    一、放慢抓取速度,降低IP或是其他资源的消耗,但这样会降低单位时间的抓取量,有可能会影响到任务是否能按时完成。
    二、优化爬虫程序,减少一些不必要的程序,提供程序的工作效率,降低对IP或是其余资源的消耗,这就需要资深爬虫工程师了。如果说这两个办法都已经做到极致了,依然难以解决问题,那么只有加大投入继续购买高效的代理IP来保障爬虫工作的高效、持续、稳定的进行。


    2楼2020-07-15 15:49
    回复