爬虫运行过程中,界面无法操作(卡住)

我利用scrapy+pyqt5 写了一个爬取新闻网站新闻的程序,我是利用scrapy爬取多个新闻网站的数据,爬虫是由界面实现启动

例如,点击开始,则开始爬虫

爬虫的启动,使用的是命令行启动方式

def run(spider_list):

    for spider in spider_list:
        os.system('scrapy crawl {}'.format(spider))
        time.sleep(3)



按钮链接这函数,实现启动,

但是有一个问题,就是正在爬取的过程当中,我是对界面无法进行操作的

比如我想点击一下界面的其他按钮,是不行的

我因为基础比较薄弱,我也搞不明白,到时是什么原因

是因为进程被占用了吗

这样应该如何改进呢  

知道的大神麻烦帮忙解答下 

小弟在此谢过了!

开一个线程,把开始爬虫的函数放子线程里面执行