利用scrapy爬取分页的附件链接并下载,为什么设置爬取一页,却把之后的页面的数据也下载了

def init(self):
super(Shouxian_zfcg,self).__init__()
self.start_urls = [
'http://sxztb.shouxian.gov.cn/SXztb/jyxm/003002/003002004/'
]
##初始化page
self.page=1
self.file_download = '/home/lenovo/attachments/zhengfucaigou/anhui/huainan/shouxian_cg/'
self.Redis = Url_Into_Redis(self.name)
self.r_instance = self.Redis.redis_instance()

不知道你这个问题是否已经解决, 如果还没有解决的话:

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 以帮助更多的人 ^-^