关于#python#的问题,如何解决?




```import requests
import csv
import time

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.146 Safari/537.36'
}

url = 'https://www.mafengwo.cn/jd/10065/gonglve.html'

# 发送请求获取页面信息
response = requests.get(url, headers=headers)

# 解析页面信息,获取每个景点的链接
from bs4 import BeautifulSoup

soup = BeautifulSoup(response.text, 'html.parser')
jd_links = []
jd_names = []
for item in soup.select('.hot-list .item a.img'):
    jd_links.append(item['href'])
    jd_names.append(item['title'])

# 定义保存数据的文件名
filename = '青岛景点信息.csv'

# 打开文件,设置文件模式为w,即写入模式
with open(filename, mode='w', encoding='utf-8', newline='') as f:
    # 创建csv写入对象
    writer = csv.writer(f)
    # 写入表头
    writer.writerow(['景点名称', '经度', '纬度', '历史人流量', '消费金额', '评论数'])
    for jd_link, jd_name in zip(jd_links, jd_names):
        print(f'正在爬取景点:{jd_name}...')
        # 发送请求获取景点页面信息
        jd_response = requests.get(jd_link, headers=headers)
        jd_soup = BeautifulSoup(jd_response.text, 'html.parser')
        # 获取经纬度
        try:
            jd_lng, jd_lat = jd_soup.select('.bd-map-js')[0]['data-point'].split(',')
        except:
            jd_lng, jd_lat = None, None
        # 获取历史人流量和消费金额
        jd_info_items = jd_soup.select('.info-item')
        jd_history_visitor_num = None
        jd_consume_amount = None
        for jd_info_item in jd_info_items:
            if '历史人流量' in jd_info_item.text:
                jd_history_visitor_num = jd_info_item.select('.num')[0].text
            elif '人均消费' in jd_info_item.text:
                jd_consume_amount = jd_info_item.select('.num')[0].text
        # 获取评论数
        try:
            jd_comment_num = jd_soup.select('.rev-total')[0].text.split('条')[0]
        except:
            jd_comment_num = None
        # 将数据写入csv文件
        writer.writerow([jd_name, jd_lng, jd_lat, jd_history_visitor_num, jd_consume_amount, jd_comment_num])
        # 休眠1秒,防止频繁访问被封IP
        time.sleep(1)

print('数据爬取完成!')

参考GPT和自己的思路:

这段代码是用来爬取青岛各个景点的经纬度、历史人流量、消费金额和评论数,并将数据保存在csv文件中。如果你遇到了关于这段代码的问题,可以具体说明你遇到的问题和错误,以便我更好地帮助你解决问题。

参考GPT和自己的思路:

这段代码是一个Python爬虫程序,主要目的是从“马蜂窝”旅游网站上爬取青岛旅游景点的相关信息,包括景点名称、经度、纬度、历史人流量、消费金额和评论数,并将这些信息写入CSV文件中。如果你遇到了关于Python爬虫的问题,可以试着提出来,我会尽力帮助你解决。

具体你的问题是什么,只有说清楚问题才好具体回答。

代码可以运行成功,但是文件里面没有内容

该回答引用GPTᴼᴾᴱᴺᴬᴵ
这段代码是爬取一个旅游网站上的青岛景点信息,并将结果写入csv文件中。如果程序运行成功但是文件里面没有内容,可以按照以下几个步骤进行排查:

  1. 检查是否有权限写入文件:确认所在的目录是否有写入权限,或者将文件写入到其他路径中。

  2. 检查文件是否被其他程序占用:有可能在运行程序的同时,其他程序正在占用该文件,可以尝试关闭其他程序再次运行。

  3. 检查代码中写入文件的路径是否正确:确认文件路径是否正确,尝试更改文件路径再次运行。

  4. 检查程序运行是否报错:有可能在程序运行的过程中出现了错误,导致程序没有将数据写入文件中,可以查看程序运行的日志或者打印输出来排查问题。

不知道你这个问题是否已经解决, 如果还没有解决的话:

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^