scrapy 下载中间件用selenium错误 大佬求解

利用下载中间件process_response篡改响应数据错误
运行项目时浏览器调用一下直接关闭,也没有打开对应的网址

def process_response(self, request, response, spider):#spider爬虫对象
        if request.url in spider.all_url:
            spider.driver.get(request.url)     #对url进行请求
            sleep(3)
            page_text = spider.driver.page_source
            new_response = HtmlResponse(url=request.url,body=page_text,encoding='utf-8',request=request)
            #返回新的响应数据
            return new_response
        else:
            #response其他请求对应的响应对象
            return response

终端出口返回的

DevTools listening on ws://127.0.0.1:51301/devtools/browser/d916be24-6cfd-4b5f-ba6c-45488a42b38e
[0415/202214.115:ERROR:gpu_init.cc(426)] Passthrough is not supported, GL is swiftshader

gpu_init.cc(426)] Passthrough is not supported,不支持,版本不兼容吧。

您好,我是有问必答小助手,你的问题已经有小伙伴为您解答了问题,您看下是否解决了您的问题,可以追评进行沟通哦~

如果有您比较满意的答案 / 帮您提供解决思路的答案,可以点击【采纳】按钮,给回答的小伙伴一些鼓励哦~~

ps:问答VIP仅需29元,即可享受5次/月 有问必答服务,了解详情>>>https://vip.csdn.net/askvip?utm_source=1146287632

非常感谢您使用有问必答服务,为了后续更快速的帮您解决问题,现诚邀您参与有问必答体验反馈。您的建议将会运用到我们的产品优化中,希望能得到您的支持与协助!

速戳参与调研>>>https://t.csdnimg.cn/Kf0y