首先,这个网站的运行环境是我们公司的内部网络,无法接入外网。
下载该网站上的内容需要逐条选择,而且每页只能显示10条内容,还需要翻页,然后点击“制度下载”。
不能安装任何软件的话,可以借助Windows系统自带的工具CScript,调用ActiveXObject
用记事本来写代码,用csript来运行代码(支持js和vbs)
至于代码怎么写,其他电脑上网找资料找参考代码学习
思路按这个思路,然后再说你的下载业务:
浏览器按F12进行调试,查看每个下载链接地址是否有规律
有规律,你的代码就循环按规律下载
没有规律,你的代码就要先请求得到列表,能从列表里取到下载地址,再循环下载
那么你的代码需要实现的技术点,主要就两个,下载文件,HTTP请求
按以下关键词网上找示例代码,比如
CScript 下载文件
vbs 下载文件
CScript http请求
vbs http请求
第一种方式:可以通过python selenium 来做模拟下载(这种比较简单)
第二种通过:通过分析下载协议,然后进行批量下载。
python能装吗?内网有什么开发环境
你可以看一下,下载完的数据对应的链接是否有规律,比如选择内容的id之类的
这不就是爬虫的问题吗
爬虫进入该网页.取得每一个文件的下载URL.然后接入下载接口下载文件.这样?
如果后台返回的数据能拿到下载地址,f12打开开发者调试界面,写个js脚本就行了,没有地址那就考虑爬虫吧
U盘装个爬虫,即插即用
使用迅雷下载,在下载页面点击右键选择使用迅雷下载全部链接,查看本页的所有下载地址规律,使用迅雷的批量下载功能,设置下载地址通配符,批量一次性下载。
另一种方法,使用遨游浏览器,点击资源嗅探,获取本页的下载链接,再到最后一页获取最后一页的下载链接,然后推算一下下载地址,用Excel等工具将所有的下载链接地址拉取出来后,然后复制到TXT文档中,再导入任何一种下载工具,下载。
最后,就是进后台或者服务器将数据库备份