Spark模式下Redis连接池
2018-11-20 22:18
78 查看
话不多说,代码献上:
package com.utils import redis.clients.jedis.{Jedis, JedisPool, JedisPoolConfig} object JedisConnectionPool { //连接配置 val config= new JedisPoolConfig //最大连接数 config.setMaxTotal(20) //最大空闲连接数 config.setMaxIdle(10) //设置连接池属性分别有: 配置 主机名 端口号 连接超时时间 Redis密码 val pool=new JedisPool(config,"192.168.147.133",6379,10000,"123") //连接池 def getConnections(): Jedis ={ pool.getResource } }
调用时直接使用即可
val jedis = JedisConnectionPool.getConnections()
阅读更多在spark中一般连接池的方法是在佛foreachRDD下的foreachpartition下使用
相关文章推荐
- 【Spark】Spark-Redis连接池
- spark读取redis,连接池配置
- Hadoop HA 模式下运行spark 程序
- 安装部署Spark 1.x Standalone模式集群
- Redis 与 数据库处理数据的两种模式
- (三)redis连接池详解
- IntelliJ IDEA Spark程序在Local模式下消除日志输出INFO信息
- Spark中的交互式模式
- Apache Spark集群模式选择
- (五)redis连接池(JedisPool)资源归还及timeout详解
- (五)redis连接池(JedisPool)资源归还及timeout详解
- 四:redis主从读写分离,哨兵模式与spring的集成
- Spark2.1.0单机模式无法启动master的问题
- Spark核心技术原理透视二(Spark运行模式)
- Spark1.4源码走读笔记之模式匹配
- spark之Standalone模式部署配置详解
- 关于spark standalone模式下的executor问题
- Spark源码的角度思考Scala中的模式匹配
- Redis持久化存储(AOF与RDB两种模式)
- Redis_master-slave模式