requests爬虫怎么能重新访问我失败的网页

我这边使用了代理ip去请求网站,当我ip失效的时候,ip会自动更换,但是我怎么才能重新在请求一次这个网站呢?requests有没有能多次请求的办法啊?能让我的代理ip失效请求的网站,让我在次请求呢?

可以通过打印status code做判断,判别出超时或者非200的status就按逻辑重连几次
有帮助望采纳

设置代理列表数组,一个失败,换一个就行