爬虫时弹出如下错误,是什么原因?
requests.exceptions.ConnectionError: HTTPSConnectionPool(host='ssr1.scrape.center1', port=443): Max retries exceeded with url: / (Caused by NewConnectionError('
这是一个连接错误,可能是因为:
网站点不存在:检查网址是否正确。
网站点暂时无法访问:网站点可能正在维护或正在更新。请稍后再试。
网络问题:请检查您的网络连接是否正常,并稍后再试。
到达请求数量限制:有些网站会对爬虫请求进行限制,如果在短时间内请求的次数超过了限制,就会被禁止访问。您可以调整请求的频率或使用代理。
建议您从简单的情况开始排查问题,并稍后再试。
好家伙爬虫问题,对我是恰好对口。
网络连接失败了,可以再 requests.get 的时候配置不校验 ssl
requests.get(verify=False)
以下答案引用自GPT-3大模型,请合理使用:
片段。
这个错误是由于url被封了导致的。
不知道你这个问题是否已经解决, 如果还没有解决的话: