Python 爬虫并将URL 保存到excel中

问题遇到的现象和发生背景

利用python 从后台自动检测查询链接 https://www.chinabond.com.cn/Channel/21000 中发行快报的内容,并且保存URL link 到excel中,请问应该怎么操作?

发行快报:
23隆科发展债01 23农发07 23农发0523 众联国控债01 23绍旅债02

遇到的现象和发生背景,请写出第一个错误信息
用代码块功能插入代码,请勿粘贴截图。 不用代码块回答率下降 50%
运行结果及详细报错内容
我的解答思路和尝试过的方法,不写自己思路的,回答率下降 60%
我想要达到的结果,如果你需要快速回答,请尝试 “付费悬赏”

您可以尝试如下代码(请您先自行导入request、BeautifulSoup和pandas库):

# 获取链接和内容
url = 'https://www.chinabond.com.cn/Channel/21000'
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
table = soup.find('table', {'class': 'unit-table'})
rows = table.find_all('tr')[1:]
result = []
for row in rows:
    cells = row.find_all('td')
    if cells:
        title = cells[1].text.strip()
        link = cells[2].find('a')['href'].strip()
        result.append({'title': title, 'link': link})

# 保存链接到 Excel 文件中
df = pd.DataFrame(result)
df.to_excel('ChinaBond_report_links.xlsx', index=False)

根据你的需求,你可以使用Python的requests库来获取网页内容,BeautifulSoup库来解析网页并提取你需要的链接,然后用pandas库来保存这些链接到excel文件中。以下是一种可能的实现方法:

首先,你需要确保你的Python环境中已经安装了这些库。你可以使用以下命令来安装:

```bash
pip install requests beautifulsoup4 pandas openpyxl

然后,你可以使用以下代码来实现你的需求:



```python
import requests
from bs4 import BeautifulSoup
import pandas as pd

# 请求网页内容
url = 'https://www.chinabond.com.cn/Channel/21000'
r = requests.get(url)
r.encoding = 'utf-8'  # 根据网页编码调整

# 用BeautifulSoup解析网页
soup = BeautifulSoup(r.text, 'html.parser')

# 提取需要的链接
links = []
for item in soup.select('.list li a'):  # 调整CSS选择器以匹配你需要的链接
    link = item.get('href')
    if link.startswith('/'):  # 如果是相对链接,补全为完整链接
        link = 'https://www.chinabond.com.cn' + link
    links.append(link)

# 保存到excel
df = pd.DataFrame(links, columns=['URL'])
df.to_excel('links.xlsx', index=False)


以上代码首先请求了你提供的网页,然后用BeautifulSoup解析了网页内容,并通过CSS选择器提取了你需要的链接。最后,它将所有链接保存到一个excel文件中。

注意:这段代码假设所有你需要的链接都在.list li a所选择的元素中。如果实际网页结构与此不符,你需要调整CSS选择器以匹配你需要的元素。

此外,这段代码仅保存了链接本身,如果你还需要保存链接的文本或其他属性,你可能需要稍微修改这段代码。

如果你在运行这段代码时遇到任何问题,欢迎你提出。