Eclipse Mars Release (4.5.0)下安装编译Spark2.7.1
2015-09-01 11:46
495 查看
一、当然是下载啦!
提供下载地址:http://www.igniterealtime.org/downloads/source.jsp这里讲的是不走寻常路的直接下载源码,而不是通过github或者svn~所以直接上图了。
既不想下载github又不想下载svn怎么办呢?看到github的url了吗?
Openfire: git clone https://github.com/igniterealtime/Openfire.git Smack: git clone https://github.com/igniterealtime/Smack.git Spark: git clone https://github.com/igniterealtime/Spark.git[/code]
答案就在这喽。首先复制Spark后的URL地址即:https://github.com/igniterealtime/Spark.git
粘贴到浏览器!1. 在Project Explorer中,右键New->Project
二、下载好压缩包之后,打开eclipse安装编译
2.选择Java Project from Existing Ant Buildfile, 然后点击Next.
3.选择Browse,选择解压缩后的Spark(建议解压缩后就改项目名)下build/build.xml
4.点击Finish,就完成了(我的已经成功导入了,所以无法选中)
5.导入之后,你会发现,它在项目源码包中新建了.settings, .project,.classpath三个文件
6. 报错处理,因为缺少jar包bcprov-jdk13-132.jar
点击下载之后,放入到build/lib/merge下,然后build path->Configure Build Path-> Add External JARs,加入就可以了三、生成Spark
1.点击Window->Show View->Other->Ant->Ant
2.在Ant控制台下,右键Add Buildfiles,选择Spark下build.xml,双击Spark下release[default]
3. 最终会出现Build Successful四、配置Spark运行环境
1. 点击Run—>Run Configurations
2. 点击“Main”
Name填写:Spark
Project:Spark(选择Spark工程)
Main class:org.jivesoftware.launcher.Startup(启动类)3.点击Classpath标签页
选择User Entries ,使得Advanced..按钮变的可用.点击Advanced按钮.在弹出来的Advanced Options窗口,选择Add Folders,再点OK,在Folder Selection窗口选择
src/resourcessrc/plugins/fastpath/src/resources
点击OK
Arguments:VM arguments 中加入-Djava.library.path=build/lib/dist/windows引入平台运行环境,根据当前开发的运行环境进行选择,如
win32 win64 Linux。按照自身情况引入相应的 dll 或者 so 等。必须添加。没有的话,windows 平台下会抛出com.lti.civil.CaptureException异常-Dplugin=src/plugins/fastpath/plugin.xml引入相应的插件配置
xml。-Ddebug.mode=true开启
Debug 模式,按需添加-Dsmack.debugEnabled=true开启
Smack Debug 模式,按需添加。添加后,在 Spark 启动后,同时启动 Smack 分析界面,可以用来记录分析 Spark 通信过程的消息包。
1 2 3 4 | -Djava.library.path=build/lib/dist/windows -Dplugin=src/plugins/fastpath/plugin.xml -Ddebug.mode=true -Dsmack.debugEnabled=true |
五、可能遇到的问题
1. 在配置Run Configurations的时候,JRE配置选项可能会遇到:JRE not compatible with workspace .class file compatibility解决办法:
右键项目->Properties->Java Compiler->Compiler compliance level->选择你自己安装的JDK版本
2. 运行ant的时候出现 Specified VM install not found: type Standard VM, name...
解决办法:
关闭eclipse->删除工作空间下 ... / .metadata / .plugins / org.eclipse.debug.core / .launches / *. 下的文件。
3.运行时可能会遇到可能会出现
bin目录拒绝访问的异常,原因是
Spark 自带的一个插件
LanguagePlugin会在试图在运行目录下面寻找
spark.jar,但是调试时
bin目录下缺少
spark.jar。该问题在 spark 安装版本时不会出现,调试时可以直接忽略,或者通过下面的
build release生成
target\build\lib\spark.jar,然后拷贝至
Eclipse 的项目
bin(本地)目录下面。
相关文章推荐
- Spring笔记――3.容器中的Bean
- Spring Java Mail发邮件
- 深入浅出学Spring Data JPA
- Java反射的例子
- java中的数学计算函数
- Struts2的struts.xml中配置及通配符的使用
- Java泛型中的extends和super关键字
- java实现区域内屏幕截图示例
- 日记 - Think in java 之 对象导论 一
- Java导出Excel
- Java中两种实现多线程方式的对比分析
- JDK及JRE中bin工具说明
- 十进制转换为十二进制 Java
- Java(02)-JDK 5.0 新特性
- java.lang.ClassNotFoundException: com.mchange.v2.c3p0.ComboPooledDataSource
- hibernate
- 华为OJ DNA序列 Java
- JAVA JNI 原理+实践
- java.lang.ClassNotFoundException: org.springframework.mail.javamail.JavaMailSenderImpl
- Ubuntu 14.04 LTS 下安装配置 JDK 8