slf4j-api、slf4j-log4j12、log4j的关系
2016-07-19 18:10
78 查看
几乎在每个jar包里都可以看到log4j的身影,在多个子工程构成项目中,slf4j相关的冲突时不时就跳出来让你不爽,那么slf4j-api、slf4j-log4j12还有log4j他们是什么关系?我把自己了解的和大家简单分享一下:
slf4j:Simple Logging Facade for Java,为java提供的简单日志Facade。Facade:门面,更底层一点说就是接口。他允许用户以自己的喜好,在工程中通过slf4j接入不同的日志系统。更直观一点,slf4j是个数据线,一端嵌入程序,另一端链接日志系统,从而实现将程序中的信息导入到日志系统并记录。
因此,slf4j入口就是众多接口的集合,他不负责具体的日志实现,只在编译时负责寻找合适的日志系统进行绑定。具体有哪些接口,全部都定义在slf4j-api中。查看slf4j-api源码就可以发现,里面除了public
final class LoggerFactory类之外,都是接口定义。因此,slf4j-api本质就是一个接口定义。
下图比较清晰的描述了他们之间的关系:
当系统采用log4j作为日志框架实现的调用关系:
首先系统包含slf4j-api作为日志接入的接口;
at compile时slf4j-api中public final class LoggerFactor类中
private final static void bind() 方法会寻找具体的日志实现类绑定,主要通过
StaticLoggerBinder.getSingleton();语句调用
slf4j-log4j12:链接slf4j-api和log4j中间的适配器。它实现了slf4j-apiz中StaticLoggerBinder接口,从而使得在编译时绑定的是slf4j-log4j12的getSingleton()方法
log4j:这个是具体的日志系统。通过slf4j-log4j12初始化Log4j,达到最终日志的输出。
slf4j:Simple Logging Facade for Java,为java提供的简单日志Facade。Facade:门面,更底层一点说就是接口。他允许用户以自己的喜好,在工程中通过slf4j接入不同的日志系统。更直观一点,slf4j是个数据线,一端嵌入程序,另一端链接日志系统,从而实现将程序中的信息导入到日志系统并记录。
因此,slf4j入口就是众多接口的集合,他不负责具体的日志实现,只在编译时负责寻找合适的日志系统进行绑定。具体有哪些接口,全部都定义在slf4j-api中。查看slf4j-api源码就可以发现,里面除了public
final class LoggerFactory类之外,都是接口定义。因此,slf4j-api本质就是一个接口定义。
下图比较清晰的描述了他们之间的关系:
当系统采用log4j作为日志框架实现的调用关系:
首先系统包含slf4j-api作为日志接入的接口;
at compile时slf4j-api中public final class LoggerFactor类中
private final static void bind() 方法会寻找具体的日志实现类绑定,主要通过
StaticLoggerBinder.getSingleton();语句调用
slf4j-log4j12:链接slf4j-api和log4j中间的适配器。它实现了slf4j-apiz中StaticLoggerBinder接口,从而使得在编译时绑定的是slf4j-log4j12的getSingleton()方法
log4j:这个是具体的日志系统。通过slf4j-log4j12初始化Log4j,达到最终日志的输出。
相关文章推荐
- Apache Log4j 2.0-rc1 发布
- log4j详细的常用配置说明介绍
- Log4j定时打印日志及添加模块名配置的Java代码实例
- log4j的使用详细解析
- weblogic部署war包,log4j问题
- log4j.xml 配置不同的log到不同的文件
- Log4J输出至当前web路径
- Spring3 AOP配置异常。执行时间记录
- log4j + flume 1.6 集成
- LogBack入门实践
- log4j.properties配置与加载应用
- jfinal-slf4j 让jfinal使用slf4j的log api
- 一个配置比较全的log4j.xml文件(一)
- Logstash 与Elasticsearch整合使用示例
- 最详细的Log4j使用教程
- Spring+Log4j+ActiveMQ实现远程记录日志——实战+分析
- Kafka+Log4j实现日志集中管理
- ELK(ElasticSearch, Logstash, Kibana)搭建实时日志分析平台
- apache flume 配置存储在Linux本地服务器
- SpringAOP实现自动生成日志