您的位置:首页 > 编程语言 > Java开发

Eclipse Mars Release (4.5.0)下安装编译Spark2.7.1

2015-09-01 11:46 495 查看


一、当然是下载啦!

提供下载地址:http://www.igniterealtime.org/downloads/source.jsp

这里讲的是不走寻常路的直接下载源码,而不是通过github或者svn~所以直接上图了。



既不想下载github又不想下载svn怎么办呢?看到github的url了吗?

Openfire:
git clone https://github.com/igniterealtime/Openfire.git 
Smack:
git clone https://github.com/igniterealtime/Smack.git 
Spark:
git clone https://github.com/igniterealtime/Spark.git[/code] 
答案就在这喽。首先复制Spark后的URL地址即:

https://github.com/igniterealtime/Spark.git


粘贴到浏览器!




二、下载好压缩包之后,打开eclipse安装编译

1. 在Project Explorer中,右键New->Project



2.选择Java Project from Existing Ant Buildfile, 然后点击Next.



3.选择Browse,选择解压缩后的Spark(建议解压缩后就改项目名)下build/build.xml





4.点击Finish,就完成了(我的已经成功导入了,所以无法选中)

5.导入之后,你会发现,它在项目源码包中新建了.settings, .project,.classpath三个文件



6. 报错处理,因为缺少jar包bcprov-jdk13-132.jar



点击下载之后,放入到build/lib/merge下,然后build path->Configure Build Path-> Add External JARs,加入就可以了

三、生成Spark

1.点击Window->Show View->Other->Ant->Ant

2.在Ant控制台下,右键Add Buildfiles,选择Spark下build.xml,双击Spark下release[default]



3. 最终会出现Build Successful



四、配置Spark运行环境

1. 点击Run—>Run Configurations

2. 点击“Main”

Name填写:Spark

Project:Spark(选择Spark工程)

Main class:org.jivesoftware.launcher.Startup(启动类)



3.点击Classpath标签页

选择User Entries ,使得Advanced..按钮变的可用.点击Advanced按钮.在弹出来的Advanced Options窗口,选择Add Folders,再点OK,在Folder Selection窗口选择


src/resources


src/plugins/fastpath/src/resources


点击OK

Arguments:VM arguments 中加入
-Djava.library.path=build/lib/dist/windows
 引入平台运行环境,根据当前开发的运行环境进行选择,如
win32 win64 Linux。按照自身情况引入相应的 dll 或者 so 等。必须添加。没有的话,windows 平台下会抛出
com.lti.civil.CaptureException
异常
-Dplugin=src/plugins/fastpath/plugin.xml
 引入相应的插件配置
xml。
-Ddebug.mode=true
 开启
Debug 模式,按需添加

-Dsmack.debugEnabled=true
 开启
Smack Debug 模式,按需添加。添加后,在 Spark 启动后,同时启动 Smack 分析界面,可以用来记录分析 Spark 通信过程的消息包。
1
2
3
4

-Djava.library.path=build/lib/dist/windows
-Dplugin=src/plugins/fastpath/plugin.xml
-Ddebug.mode=true
-Dsmack.debugEnabled=true

设置完毕后,我们就可以按照该 Run config 进行 Run 或者 Debug 了。运行后,就可以看到 Spark 的登录界面了。





五、可能遇到的问题

1. 在配置Run Configurations的时候,JRE配置选项可能会遇到:
JRE not compatible with workspace .class file compatibility
解决办法:
右键项目->Properties->Java Compiler->Compiler compliance level->选择你自己安装的JDK版本

2. 运行ant的时候出现 Specified VM install not found: type Standard VM, name...
解决办法:
关闭eclipse->删除工作空间下 ... / .metadata / .plugins / org.eclipse.debug.core / .launches / *. 下的文件。

3.运行时可能会遇到可能会出现
bin
目录拒绝访问的异常,原因是
Spark 自带的一个插件
LanguagePlugin
会在试图在运行目录下面寻找
spark.jar,但是调试时
bin
目录下缺少
spark.jar。该问题在 spark 安装版本时不会出现,调试时可以直接忽略,或者通过下面的
build
release
生成
target\build\lib\spark.jar
,然后拷贝至
Eclipse 的项目
bin(
本地)目录下面。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: