【Python爬虫】Timeout问题

应对爬虫超时问题在requests中加入了timeout,然后用try except 然而这个每次try一波如果timeout了他居然直接跳过执行下一个了(try except放在for中)如何timeout后重新执行一次

?那你就在except里面再嵌套一个try except结构重试一次,如果还是不行再考虑处理逻辑
或者把失败的网址在except里面都加入一个列表中,循环结束后对列表中失败的网址再get一遍
有帮助望采纳

判断返回的状态吗是否是200,如果不是回调自己