爬虫入门问题,爬取10页没问题,但改了for i in range后依然是10页

问题

for循环for i in range(0,10)读取10页信息没问题,但是改成for i in range(0,1),本来是一页信息,但运行时读取的还是10页

import urllib.request,urllib.error

from bs4 import BeautifulSoup

import re

import xlwt

import sqlite3

def main():

    baseurl="https://movie.douban.com/top250?star="

   

    datalist=getData(baseurl)

    askURL("https://movie.douban.com/top250?star=")

findLink=re.compile(r'<a href="(.*?)">')                                            

def getData(baseurl):

    datalist=[]

    for i in range(0,10):  

        url=baseurl + str(i*25)   

        html=askURL(url) 

        soup=BeautifulSoup(html,"html.parser") 

        for item in soup.find_all('div',class_="item"):  

            # print(item) 

            data=[]  

            item=str(item)

            link=re.findall(findLink,item)[0] 

            # print(link)

    return datalist  

def askURL(url):

    head={                              

        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.101 Safari/537.36 Edg/91.0.864.48"

    }                                        

    request=urllib.request.Request(url,headers=head)  

    html=""  

    try:

        response=urllib.request.urlopen(request)  

        html=response.read().decode("utf-8")  

        print(html)

    except urllib.error.URLError as e:  

        if hasattr(e,"code"):

            print(e.code)     

        if hasattr(e,"reason"):

            print(e.reason)   

    return html                       

if __name__=="__main__": 

    main()


 

首先你需要获取的信息是link 吧?你没有把 link 添加到 datalist 里面去

        for item in soup.find_all('div', class_="item"):
            # print(item)
            data = []
            item = str(item)
            link = re.findall(findLink, item)[0]
            # print(link)

            # link 添加到 datalist 中
            datalist.append(link)

然后这个地方应该是 start= 吧?少写个t?

    baseurl="https://movie.douban.com/top250?star="

    datalist=getData(baseurl)

    askURL("https://movie.douban.com/top250?star=")

## 
    baseurl="https://movie.douban.com/top250?start="

    datalist=getData(baseurl)

    askURL("https://movie.douban.com/top250?start=")