在使用 hadoop 运行jar时遇到错误
eclipse代码如下
import java.io.IOException;
import java.io.InputStream;
import java.net.MalformedURLException;
import java.net.URL;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;
public class URLcat {
static {
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
}
public static void main(String[] args) throws MalformedURLException, IOException {
// TODO 自动生成的方法存根
InputStream in=null;
String url=args[0];
try {
in=new URL(url).openStream();
IOUtils.copyBytes(in, System.out,4096,false);
}finally {
IOUtils.closeStream(in);
}
}
}
[root@master1 ~]# hadoop jar urlcat.jar URLcat hdfs://192.168.21.123:9000/a.txt
Exception in thread "main" org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException): Operation category READ is not supported in state standby
尝试过查看host并没有问题 在CSDN上也用过类似解决方法 但并没有用所以想解决这个问题
成功查看a.txt
已经提示很明确了, 该节点是standby,
那么需要看的是, 你配置的namennode是不是两个,还是仅配置了其中一个的地址
如果,是配置了两个,那就要分析下 两个namenode均为standby的原因