想用python爬网页的新闻标题,配置完pycharm一直出错,不知道问题在哪,谢谢

import requests
from bs4 import BeautifulSoup # bs4
import re
import pandas as pd
import urllib.request
from selenium import webdriver # 模拟鼠标点击

打开Firefox浏览器,模拟器

driver = webdriver.Chrome()
driver = webdriver.Chrome("C:\Program Files (x86)\Google\Chrome\Application\chromedriver")

第一页的网址

url = "https://www.sogou.com/web?query=%E5%A4%A7%E5%90%8C%E5%B8%82%E5%B9%B3%E5%9F%8E%E5%8C%BA&_asf=www.sogou.com&_ast=&w=01019900&p=40040100&ie=utf8&from=index-nologin&s_from=index&sut=2772&sst0=1594384422112&lkt=0%2C0%2C0&sugsuv=00AB6A0FB7C814935CE8DD297295A891&sugtime=1594384422112"

driver.get(url) # 模拟浏览器 解析网页

r = requests.get(url) # 请求网页
soup = BeautifulSoup(r.text, "html.parser") # bs4 解析网页
a=str(soup.find_all(name = "div",attrs = {"class":"p"})) #获取div区域下的内容解析
url= re.findall(r'<a href="(.*?)" ',a) #用re正则来获取所有页数url
page=len(url)+1 #获取页数的长度,由于正则匹配的时候,匹配到除本页以外的所有页数url不匹配,所以+1
page
content=[] #建立空的列表,存放数据
title=[]
url=[]
media=[]
time=[]
for i in range(page):
baseurl = "https://www.sogou.com/web?query=%E5%A4%A7%E5%90%8C%E5%B8%82%E5%B9%B3%E5%9F%8E%E5%8C%BA&_asf=www.sogou.com&_ast=&w=01019900&p=40040100&ie=utf8&from=index-nologin&s_from=index&sut=2772&sst0=1594384422112&lkt=0%2C0%2C0&sugsuv=00AB6A0FB7C814935CE8DD297295A891&sugtime=1594384422112" + str(
i) + "&w=01025001&dr=1" # 网址循环,6页的网址
# print(i,baseurl)
r = requests.get(baseurl)
soup = BeautifulSoup(r.text, "html.parser") # bs4解析网址
driver.get(baseurl)
# print(i,baseurl)
title1 = driver.find_elements_by_xpath("//h3[@class='vrTitle']/a") # 模拟鼠标点击方法,获取标题
for a in title1:
title.append(a.text)

data = str(soup.find_all(name="h3", attrs={"class": "vrTitle"}))  # bs4方法,获取每篇文章的url所在区域下的网页解析
url1 = re.findall(r'<a href="(.*?)" ', data)  # 正则匹配出每篇文章的url,data的格式要求是文本
for a in url1:
    url.append(a)
    # print(a)

for b in soup.find_all(name="p", attrs={"class": "news-from"}):  # bs4方法,获取每篇文章的媒体类型和发布日期
    temp = b.get_text().strip()
    media.append(temp.split("\xa0")[0])
    time.append(temp.split("\xa0")[1])
    # print(media)
    # print(time)

content1 = driver.find_elements_by_xpath("//p[@class='news-txt']/span")  # 模拟鼠标点击方法,获取每篇文章的内容
for result in content1:
    content.append(result.text)
    # print(result.text)
    df = pd.DataFrame(columns=["content", "title", "url", "media", "time"])  # 建立文档

    df["content"] = content  # 保存每一列数据
    df["title"] = title
    df["url"] = url
    df['media'] = media
    df["time"] = time

    df.to_excel("爬虫.xlsx", index=False)  # 保存excel

            报错如下:
            D:\python.exe D:/Doc/tem.py

Traceback (most recent call last):
File "D:/Doc/tem.py", line 1, in
import requests
ModuleNotFoundError: No module named 'requests'

Process finished with exit code 1

是没有找到request吗,可以在命令行导入一下应该就好了,或者是工作目录不在,报错是模块找不到

没安装requests库?

在命令行里pip是本机环境,pycharm属于IDE,它有自己的环境,应该是这两个环境不一样引起的。
你可以搜下,如何在pycharm中安装第三方库,这里有两种
在pycharm中: File ——> Setting——>Project Interpreter,package一栏最后有个加号,点进去搜requests下载
或者在pycharm编辑器里art+enter,按提示安装一下。
(如果是初学者,尽量不要用IDE,会略过很多知识点)