Python 爬虫执行异步操作,所有url的内容组合到了一起

python爬虫采用asyncio模块的异步操作,当请求多个url时,返回的页面源代码是几个url源代码合并在一起的,该怎么办呢?

import re
import os
import json
import pprint
import asyncio
import aiohttp
import requests
from lxml import etree
from flashtext import KeywordProcessor
from moviepy.editor import concatenate_videoclips, VideoFileClip, AudioFileClip

class Bspider():

    def __init__(self,url,outpath):
        self.url =url
        self.outpath = outpath

    async def spider_full(self):
        self.re5 = re.compile(r'window.__playinfo__=(.*)')
        self.headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0) Gecko/20100101 Firefox/111.0',
            'Referer': 'https://www.bilibili.com/'
        }
        # html_list = []
        async with aiohttp.ClientSession() as reqt_session:
            async with reqt_session.get(self.url, headers=self.headers) as resq:
                resq_text = await resq.text(encoding='utf-8')
                print(resq_text)

如上述代码,是b站爬虫,采用异步协程的操作,当进行多个url异步的时候,发现print出来的resq_text的结果是多个url的页面源代码组合在一起的(即多个html标签),我希望能够提出每一个url单独的页面源代码,请问该怎么办呀?

有几个简单的办法:

  1. 每一次请求存一个本地文件
  2. 不同请求的回执,按照匹配一个换行