Win下Eclipse提交Hadoop程序出错:org.apache.hadoop.security.AccessControlException: Permission denied: user=A
2016-07-07 21:17
639 查看
描述:在Windows下使用Eclipse进行Hadoop的程序编写,然后Run on hadoop 后,出现如下错误:
11/10/28 16:05:53 INFO mapred.JobClient: Running job: job_201110281103_0003
11/10/28 16:05:54 INFO mapred.JobClient: map 0% reduce 0%
11/10/28 16:06:05 INFO mapred.JobClient: Task Id : attempt_201110281103_0003_m_000002_0, Status : FAILED
org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security.AccessControlException: Permission denied: user=Administrator, access=WRITE, inode="hadoop":hadoop:supergroup:rwxr-xr-x
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:39)
解决方法:
到服务器上修改hadoop的配置文件:conf/hdfs-core.xml, 找到 dfs.permissions 的配置项 , 将value值改为 false
<property>
<name>dfs.permissions</name>
<value>false</value>
<description>
If "true", enable permission checking in HDFS.
If "false", permission checking is turned off,
but all other behavior is unchanged.
Switching from one parameter value to the other does not change the mode,
owner or group of files or directories.
</description>
</property>
修改完貌似要重启下hadoop的进程才能生效
开发环境:win 7 sp3 , Eclipse 4.3 , hadoop-2.4.1
hadoop服务器部署环境: Ubuntu 14.04 ,
hadoop-2.4.1
小结: 接触Hadoop没多久,不知道这样修改对集群的安全性有啥影响。
//补充:
因为Eclipse使用hadoop插件提交作业时,会默认以
Administrator 身份去将作业写入hdfs文件系统中,对应的也就是 HDFS 上的/user/xxx , 我的为/user/hadoop , 由于
Administrator 用户对hadoop目录并没有写入权限,所以导致异常的发生。提供的解决方法为:放开 hadoop 目录的权限 , 命令如下 :$ hadoop fs -chmod 777 /user/hadoop
另外,可以将本机windows用户改为hadoop的用户,还可以在run configurations配置Arguments的Vm Arguments内容为-DHADOOP_USER_NAME=hadoop
11/10/28 16:05:53 INFO mapred.JobClient: Running job: job_201110281103_0003
11/10/28 16:05:54 INFO mapred.JobClient: map 0% reduce 0%
11/10/28 16:06:05 INFO mapred.JobClient: Task Id : attempt_201110281103_0003_m_000002_0, Status : FAILED
org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security.AccessControlException: Permission denied: user=Administrator, access=WRITE, inode="hadoop":hadoop:supergroup:rwxr-xr-x
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:39)
解决方法:
到服务器上修改hadoop的配置文件:conf/hdfs-core.xml, 找到 dfs.permissions 的配置项 , 将value值改为 false
<property>
<name>dfs.permissions</name>
<value>false</value>
<description>
If "true", enable permission checking in HDFS.
If "false", permission checking is turned off,
but all other behavior is unchanged.
Switching from one parameter value to the other does not change the mode,
owner or group of files or directories.
</description>
</property>
修改完貌似要重启下hadoop的进程才能生效
开发环境:win 7 sp3 , Eclipse 4.3 , hadoop-2.4.1
hadoop服务器部署环境: Ubuntu 14.04 ,
hadoop-2.4.1
小结: 接触Hadoop没多久,不知道这样修改对集群的安全性有啥影响。
//补充:
因为Eclipse使用hadoop插件提交作业时,会默认以
Administrator 身份去将作业写入hdfs文件系统中,对应的也就是 HDFS 上的/user/xxx , 我的为/user/hadoop , 由于
Administrator 用户对hadoop目录并没有写入权限,所以导致异常的发生。提供的解决方法为:放开 hadoop 目录的权限 , 命令如下 :$ hadoop fs -chmod 777 /user/hadoop
另外,可以将本机windows用户改为hadoop的用户,还可以在run configurations配置Arguments的Vm Arguments内容为-DHADOOP_USER_NAME=hadoop
相关文章推荐
- Linux下编译安装Apache、php和svn
- Ubuntu Apache环境下二级域名配置
- 【Lucene】Apache Lucene全文检索引擎架构之入门实战
- 让apache 支持cgi
- The type org.apache.commons.pool.impl.GenericObjectPool$Config cannot be resolved. It is indirectly
- 使用org.apache.commons.io.FileUtils,IOUtils;工具类操作文件
- Apache Log4j配置说明
- Apache Apex
- BSP-Apache HAMA-Graph运行(3)
- Apache ActiveMQ 持久化到MySQL数据库
- Apache+Mysql+PHP环境配置详细过程
- Apache Maven 入门篇(下)
- centos安装lamp环境(apache+mysql+php)
- Apache Lucene
- Apache ab使用POST参数进行压力测试 (服务端为Django)
- Apache Shiro 简介
- 【JUnit 报错】java.lang.NoClassDefFoundError: org/apache/logging/log4j/message/Message
- Apache ActiveMQ 持久化到MySQL数据库
- apache开启页面压缩
- Apache POI 第七讲之利用 POI 技术实现使用模板批量添加数据