scrapy如何快速跳过httperror页面?

python,scrapy框架。
假设目标网址符合格式:
https://www.website.com/num
其中num是一串数字,
绝大部分num都无响应,只有少数有响应。
怎样快速跳过无响应页面,获取有相应页面数据?
直接用以下代码的话,

        for num in range(1,2000):
            tempurl = "https://www.website.com/" + str(num)
            yield Request(tempurl,self.parse)

也能运行,虽然会有一串报错,但能得到结果,
只不过速度有点慢,2000个页面需要花23秒左右,由于num的量级达千万甚至上亿……用这种方法就有点太简陋了……
有大佬能提供更高端一些的玩法吗?
萌新求指导!

https://zhidao.baidu.com/question/1179154511330191459.html