您的位置:首页 > 大数据 > Hadoop

修改HDFS遇到的问题

2014-03-10 16:51 190 查看
改HDFS遇到个问题,需要每个datanode上面的数据块在当前写入的时候能够知道当前其所属的分布式文件的名称,但是查了代码后发现

 块所属的文件名只能在namenode包里的BlocksMap才能查到数据块所属文件等一些元数据信息,具体见http://blog.csdn.net/cloudeagle_bupt/article/details/20933045,

 

 为了方便所有的块都能读取到当前写入的文件名,改写了DFSClient,在文件写入的时候就将其名称存入distributedCache, 让大家都能读取。

恩,也是没有办法的办法了。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐