重启Hadoop后发现,SecondaryNameNode很早之前就有异常了,导致Checkpoint异常,一直没有合并fsimage和editlog,目前目录下有800000+的editlog,启动NameNode之后长期处于replaying edit log状态,看进度没有几个月感觉是跑不完,而且在这段期间无法访问。。。现在想请教一下有没有其它途径能快速将集群起来,然后重新做检查点。。。
另外,Hadoop版本2.6.0,使用的是单点模式,未做高可用。
重启Hadoop后发现,SecondaryNameNode很早之前就有异常了,导致Checkpoint异常,一直没有合并fsimage和editlog,目前目录下有800000+的editlog,启动NameNode之后长期处于replaying edit log状态,看进度没有几个月感觉是跑不完,而且在这段期间无法访问。。。现在想请教一下有没有其它途径能快速将集群起来,然后重新做检查点。。。
另外,Hadoop版本2.6.0,使用的是单点模式,未做高可用。
手动合并呗!
hdfs dfsadmin -saveNamespace