在Red Hat linux下安装Eclipse,然后登陆到hadoop进行开发
2014-08-01 16:11
453 查看
经过我一个上午的搜索,看了好多前辈们写的贴子。我得出的结论是,鉴于我用的是RED HAT LINUX 9,这个版本和最主要的是用hadoop 0.20.2这个版本。所以必须的用linux3.3或3.3.2的版本。别问我为什么。因为这是很多前辈们装过之后总结的经验。今天我好像用的就是3.3这个版本。找的我累死了,好不容易找到了。
我用root用户安装了eclipse ,就是把eclipse-jee-europa-fall-linux-gtk.tar。用SSH拷贝到/home目录下。然后tar -zxvf eclipse-jee-europa-fall-linux-gtk.tar.进行解压。要想登陆eclipse.必须要到图形界面。然后运行startx.
到图形界面之后。打开中断。进入eclipse的解压目录。找到可执行文件,用命令./eclipse来启动。先可以自己写个hello world小程序要测试一下安装是否正确。
到hadoop安装目录的conrtibs目录下找个eclipse plugin这个插件。把他拷贝到eclipse目录下的一个plugin文件夹下,然后重启eclipse ,就可以看到左边的工程栏中有DFS Location.然后到选项 windows -->preference 中设置Map /Reduce,设置路径为/home/dashuju。这个地方我也纠结了好久,到底是设置为home/dashuju/hadoop0.20.2呢还是不要后面的呢。网上的大大们之说了安装目录。对于我们这种菜鸟。搞不明白啊。后来想通了,因为我直接就把hadoop装在用户dashuju的主目录下面。所以必须之能写成/home/dashuju。因为这个文件夹还有很多隐藏的文件如.ssh等等、(修改此处:此处经过实践检验是错误的,因为在eclipse中创建一个map/reduce工程的时候,点next不下去了,显示找不到hadoop0.20.2的lib,所以文件夹必须要加到/home/dashuju/hadoop0.20.2才可以)。
配置相关参数,点击 Windows-->Show View -->Other --> Map/Reduce Location,打开Hadoop的MapReduce
View
最下面会出现一栏小象,右键点击空白处-->New Hadoop Location, 你会看到一个填写MapReduce Location参数的一个界面:
其中:
PS:HOST 的ip地址需与你在dfs-core.xml中设置的一致,即你主机的地址,还有就是端口号,左边为9001,右边为9000.登陆名就是你的hadoop用户名。我的叫dashuju。
最后,很重要是,我用的是完全分布的,1台主机,两台从机。一定要把三台机器全部打开。要启动./start-all.sh.然后在DFS location下面才可以刷下出来。
我用root用户安装了eclipse ,就是把eclipse-jee-europa-fall-linux-gtk.tar。用SSH拷贝到/home目录下。然后tar -zxvf eclipse-jee-europa-fall-linux-gtk.tar.进行解压。要想登陆eclipse.必须要到图形界面。然后运行startx.
到图形界面之后。打开中断。进入eclipse的解压目录。找到可执行文件,用命令./eclipse来启动。先可以自己写个hello world小程序要测试一下安装是否正确。
到hadoop安装目录的conrtibs目录下找个eclipse plugin这个插件。把他拷贝到eclipse目录下的一个plugin文件夹下,然后重启eclipse ,就可以看到左边的工程栏中有DFS Location.然后到选项 windows -->preference 中设置Map /Reduce,设置路径为/home/dashuju。这个地方我也纠结了好久,到底是设置为home/dashuju/hadoop0.20.2呢还是不要后面的呢。网上的大大们之说了安装目录。对于我们这种菜鸟。搞不明白啊。后来想通了,因为我直接就把hadoop装在用户dashuju的主目录下面。所以必须之能写成/home/dashuju。因为这个文件夹还有很多隐藏的文件如.ssh等等、(修改此处:此处经过实践检验是错误的,因为在eclipse中创建一个map/reduce工程的时候,点next不下去了,显示找不到hadoop0.20.2的lib,所以文件夹必须要加到/home/dashuju/hadoop0.20.2才可以)。
配置相关参数,点击 Windows-->Show View -->Other --> Map/Reduce Location,打开Hadoop的MapReduce
View
最下面会出现一栏小象,右键点击空白处-->New Hadoop Location, 你会看到一个填写MapReduce Location参数的一个界面:
其中:
PS:HOST 的ip地址需与你在dfs-core.xml中设置的一致,即你主机的地址,还有就是端口号,左边为9001,右边为9000.登陆名就是你的hadoop用户名。我的叫dashuju。
最后,很重要是,我用的是完全分布的,1台主机,两台从机。一定要把三台机器全部打开。要启动./start-all.sh.然后在DFS location下面才可以刷下出来。
相关文章推荐
- Red.Hat.Enterprise.Linux.6.2下安装vim 、OpenOffice、JDK、Eclipse
- VMWare虚拟机安装CentOS 7 Linux及Hadoop与Eclipse学习环境(3-Eclipse开发环境)
- 在Red Hat Linux服务器端假设NSF Server来进行Linux系统安装全过程
- Red Hat Linux下安装Eclipse
- linux系统安装Eclipse进行C/C++开发
- 学习Hadoop第十二课(Hadoop序列化机制、Linux安装Eclipse及创建快捷图标、使用Maven开发)
- 开发环境搭建1:Red_Hat_linux的安装时的注意事项
- 【搭建开发环境】Linux 中安装 Eclipse 进行 C/C++ 开发
- linux上安装eclipse,开发hadoop
- 在Red Hat Linux服务器端假设NSF Server来进行Linux系统安装全过程
- 如何在 Red Hat Linux 9 上安装 Eclipse
- 在Red Hat Linux服务器端假设NSF Server来进行Linux系统安装全过程
- 如何在 Red Hat Linux 9 上安装 Eclipse
- Red Hat Linux 7.0安装使用手记(六则)
- 红帽子Red Hat Linux 9光盘启动安装过程图解
- 在Redhat9 Linux下安装汉化eclipse3.1.2的c/c++开发平台
- Red Hat Linux 9 下安装 Oracle9i(9.2.0.4.0)
- SimpleScalar的安装方法(Red Hat Linux 9.0,gcc3.2.2环境) 推荐
- Oracle 9i 在 Red Hat Enterprise Linux 3 AS U2 上的安装
- Red Hat Linux 9 安装图解