首页   注册   登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python 学习手册
Python Cookbook
Python 基础教程
Python Sites
PyPI - Python Package Index
http://www.simple-is-better.com/
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
V2EX  ›  Python

scrapy 报错这种的如何处理

  •  
  •   Ewig · 37 天前 · 505 次点击
    这是一个创建于 37 天前的主题,其中的信息可能已经有所发展或是发生改变。

    019-01-16 16:41:53 [zhipin][scrapy.downloadermiddlewares.retry] DEBUG: Retrying <GET https://www.zhipin.com/gongsi/df71dd0040fd77d21nN-2tS4EQ~~.html> (failed 1 times): User timeout caused connection failure: Getting https://www.zhipin.com/gongsi/df71dd0040fd77d21nN-2tS4EQ~~.html took longer than 180.0 seconds..

    6 回复  |  直到 2019-01-18 23:20:45 +08:00
        1
    zarte   37 天前
    重点:User timeout caused connection failure took longer than 180.0 seconds..
    浏览器访问下网站是不是挂了。
        2
    pockry   36 天前
    应该是被识别出是爬虫,然后送上超时大礼包。
        3
    Ewig   36 天前
    @zarte 没有挂,可以打开
        4
    Ewig   36 天前
    @pockry scrapy 报这种的能否重新请求
        5
    pockry   36 天前
    @Ewig 你要重写爬虫啊,UA 池、IP 代理都搞一下,延时设置下,要是还不行就上 selenium+chromedriver,肯定你能看到的都能爬。
        6
    Ewig   34 天前
    @pockry 我 scrapy 不用 selenium 效率太低了你说的这些都搞了
    关于   ·   FAQ   ·   API   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   3965 人在线   最高记录 4385   ·  
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.3 · 17ms · UTC 09:04 · PVG 17:04 · LAX 01:04 · JFK 04:04
    ♥ Do have faith in what you're doing.
    沪ICP备16043287号-1