基于requests爬虫模块库,python爬取知网上所有学术期刊

  1. 爬取所有学术期刊的简介信息
  2. 每一个具体期刊页面中,从网页上抽取的保存的内容包括 所有 概要 描述元素  、如:

URL,期刊名称,期刊数据库(上方所有红色图标后的文字描述)

基本信息: 主办单位,出版周期,。。。。。。。

出版信息: 专辑名称,。。。。。。

评价信息: 复合影响因子,综合影响因子。。。。。

将这些元素存储在文件中(举例:csv,xlsx等文件)

不知道你这个问题是否已经解决, 如果还没有解决的话:

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 以帮助更多的人 ^-^