代码如下:
访问结果:刚学习爬虫,不知道这个代码应该怎么去修改,求解!
都是搜狗,我的就没报错啊,貌似没啥反扒措施,你可以这样试一试
如果是一次性访问很多的话,可能要refer,user_agent,之类的东西
自己手动过次验证码,然后爬取速度限制一下,别太快
您好,您在headers里放的user-agent之间含有多个空格,请把空格去掉再试一下。另外该网址没发现反爬措施,但是要注意抓取的频率,最好设置间隔时间,另外尽可能的保证和原始抓到的请求头参数一样,变成一个健康的访问!望采纳