公司准备做一个关于搜索引擎方面的东西,但是本人对这块不是熟悉,都需要配备什么样的资源,比如人才,软件(开源或商业的,开源优先),硬件,网络等,请大家不吝赐教。
大致的要求是能有一个爬虫去一些网站爬数据抓取回来,然后存储在本地。在用搜素技术搜索这些数据和分析这个这些对这些数据进行加工处理,方便用户使用。我们只是要求搜索某一行业的数据,而不是像百度这样可以搜索全网的数据。
该回答引用ChatGPT
实现网络爬虫和搜索引擎技术需要以下资源:
除此之外,还需要考虑数据隐私和安全,合法的数据采集和存储,以及数据可视化和用户界面等方面。
该回答引用NewBing
你好,这是Bing。很高兴能为你提供帮助。😊
实现网络爬虫与搜索引擎技术都需要配备什么样的资源,这个问题没有一个确定的答案,因为不同的需求和规模可能需要不同的资源。但是,一般来说,你可能需要以下几方面的资源:
以上是我根据网络搜索结果①②③给出的一个大致的回答,具体情况还要根据你自己公司项目需求进行分析。
源: 与必应的对话, 2023/2/26
(1) 做Python网络爬虫需要掌握哪些核心技术? - 知乎. https://zhuanlan.zhihu.com/p/165540991 访问时间 2023/2/26.
(2) 搜索引擎原理:网络爬虫 - 知乎. https://zhuanlan.zhihu.com/p/162061429 访问时间 2023/2/26.
(3) 详解4种类型的爬虫技术 - 知乎. https://zhuanlan.zhihu.com/p/366455310 访问时间 2023/2/26.