python爬虫时,利用seleniume爬取,但是未爬取到任何信息,同时保存csv文件时报错了,很奇怪下面是报错信息,如何解决?

python爬虫时,利用seleniume爬取,但是未爬取到任何信息,同时保存csv文件时报错了,很奇怪
下面是报错信息

PermissionError: [Errno 13] Permission denied: 'paper_information.csv'

源代码
def save_data(data: list, gjc):
    inf = pd.DataFrame(data, columns=['论文名', '作者', '来源', '发表日期', '数据库', '下载次数'])
    inf.to_csv('paper_information.csv', index=False, encoding='UTF8')
    outputpath = ('F:\pachong\data.csv'.format(gjc))
    inf.to_csv(outputpath, sep=',', index=False, header=True, encoding='UTF8')

回答:有可能是你的文件已经创建了,然后你又没有给程序赋予读这个文件的权限,你可以考虑把文件删掉,它会自动创建这个文件,你看看会不会还报这个错误

“Devil组”引证GPT后的撰写:
根据错误信息 "PermissionError: [Errno 13] Permission denied: 'paper_information.csv'",程序无法创建或修改名为 'paper_information.csv' 的文件,可能是由于没有操作该文件的权限。

请检查以下几点:

检查文件是否已经被其他程序占用,如果是,请先关闭该程序。
检查程序是否以管理员身份运行。如果没有管理员权限,则无法创建或修改某些文件。
检查文件路径是否正确,可能需要使用绝对路径。
如果您正在使用Windows操作系统,请确保没有其他程序正在访问该文件或该文件所在的文件夹。可以尝试在保存文件时指定一个不同的文件名或文件夹。

另外,代码中的 outputpath 变量似乎没有使用,也需要检查一下。

不知道你这个问题是否已经解决, 如果还没有解决的话:

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^