我爱占星网 我爱占星网
首页
编程
java
php
前端
首页 编程 java php 前端

googlebot抓取网络服务

is there some way to make googlebot not to crawl links that is used for webservice? When I try to access my webservice on url it returns 500 error when there no parameters passed. Or is there also some way to prevent an http 500 error when I try to access my webservice in url without parameters?

THanks.

You could take a look here to create a robots.txt.

近期文章

  • PHP知道用户是否在页面上
  • Ajax对XML的调用不起作用
  • jQuery $ .ajax函数,用于$ .post
  • 无法回显Javascript调用[重复]
  • 使Ajax正常工作的问题
  • JSF Ajax和自定义转换器
  • 如何通过网络抓取该网站
  • jQuery vs谷歌关闭ajax
  • 将jQuery与HttpHandlers一起使用
  • 张贴到php时不使用&
  • jQuery Ajax不能正常工作
  • Mvc4 Ajax调用打开新页面
  • 他们如何做到这一点,ajax,json
  • 在使用jQuery的ajax上需要帮助[重复]
  • 使用Ajax渲染MVC视图
  • 在php和js中设置JSON
  • jQuery + setInterval + Ajax调用
  • Rails没有发出Ajax请求
  • 引用下拉框
  • $ .ajax和webmethod / pagemethods

Copyright ©2022 我爱占星 All Rights Reserved.

浙ICP备2022030071号-1

部分图文来自网络,如有侵犯您的版权,请告诉我们删除

友情链接:代码精华