您的位置:首页 > 数据库 > MySQL

Spark SQL连接数据库找不到Mysql驱动解决方法

2015-09-27 22:39 811 查看
这里说明一点:本文提到的解决Spark insertIntoJDBC找不到Mysql驱动的方法是针对单机模式(也就是local模式)。在集群环境下,下面的方法是不行的。这是因为在分布式环境下,加载mysql驱动包存在一个Bug,1.3及以前的版本
--jars 分发的jar在executor端是通过Spark自身特化的classloader加载的。而JDBC driver
manager使用的则是系统默认的classloader,因此无法识别。可行的方法之一是在所有 executor 节点上预先装好JDBC driver并放入默认的classpath。

  不过Spark 1.4应该已经fix了这个问题,即
--jars 分发的 jar 也会纳入 YARN 的 classloader 范畴。

  今天在使用Spark中DataFrame往Mysql中插入RDD,但是一直报出以下的异常次信息:

01
[itelbog
@iteblog
~]$ 
 bin/spark-submit --master local[
2
]
02
--jars
 lib/mysql-connector-java-
5.1
.
35
.jar
03
--
class
spark.sparkToJDBC
 ./spark-test_2.
10
-
1.0
.jar
04
05
spark
 assembly has been built with Hive, including Datanucleus jars on classpath
06
Exception
 in thread
"main"
java.sql.SQLException:
 No suitable driver found
for
07
jdbc:mysql:
//www.iteblog.com:3306/spark?user=root&password=123&useUnicode=
08
true
&characterEncoding=utf8&autoReconnect=
true
09
at
 java.sql.DriverManager.getConnection(DriverManager.java:
602
)
10
at
 java.sql.DriverManager.getConnection(DriverManager.java:
207
)
11
at
 org.apache.spark.sql.DataFrame.createJDBCTable(DataFrame.scala:
1189
)
12
at
 spark.SparkToJDBC$.toMysqlFromJavaBean(SparkToJDBC.scala:
20
)
13
at
 spark.SparkToJDBC$.main(SparkToJDBC.scala:
47
)
14
at
 spark.SparkToJDBC.main(SparkToJDBC.scala)
15
at
 sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
16
at
 sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:
39
)
17
at
 sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:
25
)
18
at
 java.lang.reflect.Method.invoke(Method.java:
597
)
19
at
 org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$
20
$runMain(SparkSubmit.scala:
569
)
21
at
 org.apache.spark.deploy.SparkSubmit$.doRunMain$
1
(SparkSubmit.scala:
166
)
22
at
 org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:
189
)
23
at
 org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:
110
)
24
at
 org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
  感觉很奇怪,我在启动作业的时候加了Mysql驱动啊在,怎么会出现这种异常呢??经过查找,发现在--jars参数里面加入Mysql是没有用的。通过查找,发现提交的作业可以通过加入
--driver-class-path
参数来设置driver的classpath,试了一下果然没有出现错误!

1
[itelbog@iteblog
 ~]$  bin/spark-submit --master
local
[2]
2
--driver-class-path
 lib/mysql-connector-java-5.1.35.jar
3
--class 
 spark.SparkToJDBC ./spark-test_2.10-1.0.jar
  其实,我们还可以在spark安装包的conf/spark-env.sh通过配置SPARK_CLASSPATH来设置driver的环境变量,如下:

(这里需要注意的是,在Spark1.3版本中,在Spark配置中按如下进行配置时,运行程序时会提示该配置方法在Spark1.0之后的版本已经过时,建议使用另外两个方法;其中一个就是上面讲到的方法。另外一个就是在配置文件中配置spark.executor.extraClassPath,具体配置格式会在试验之后进行补充)

1
export
SPARK_CLASSPATH=$SPARK_CLASSPATH:/iteblog/com/mysql-connector-java-5.1.35.jar
  这样也可以解决上面出现的异常。但是,我们不能同时在conf/spark-env.sh里面配置SPARK_CLASSPATH和提交作业加上--driver-class-path参数,否则会出现以下异常:

查看源代码

打印帮助

01
[itelbog
@iteblog
~]$ 
 bin/spark-submit --master local[
2
]
02
--driver-
class
-path
 lib/mysql-connector-java-
5.1
.
35
.jar
03
--
class
spark.SparkToJDBC
 ./spark-test_2.
10
-
1.0
.jar
04
05
Spark
 assembly has been built with Hive, including Datanucleus jars on classpath
06
Exception
 in thread
"main"
org.apache.spark.SparkException:
07
Found
 both spark.driver.extraClassPath and SPARK_CLASSPATH. Use only the former.
08
at
 org.apache.spark.SparkConf$$anonfun$validateSettings$
6
$$anonfun$apply
09
$
7
.apply(SparkConf.scala:
339
)
10
at
 org.apache.spark.SparkConf$$anonfun$validateSettings$
6
$$anonfun$apply
11
$
7
.apply(SparkConf.scala:
337
)
12
at
 scala.collection.immutable.List.foreach(List.scala:
318
)
13
at
 org.apache.spark.SparkConf$$anonfun$validateSettings$
6
.apply(SparkConf.scala:
337
)
14
at
 org.apache.spark.SparkConf$$anonfun$validateSettings$
6
.apply(SparkConf.scala:
325
)
15
at
 scala.Option.foreach(Option.scala:
236
)
16
at
 org.apache.spark.SparkConf.validateSettings(SparkConf.scala:
325
)
17
at
 org.apache.spark.SparkContext.<init>(SparkContext.scala:
197
)
18
at
 spark.SparkToJDBC$.main(SparkToJDBC.scala:
41
)
19
at
 spark.SparkToJDBC.main(SparkToJDBC.scala)
20
at
 sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
21
at
 sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:
39
)
22
at
 sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:
25
)
23
at
 java.lang.reflect.Method.invoke(Method.java:
597
)
24
at
 org.apache.spark.deploy.SparkSubmit$.org$apache$spark$
25
deploy$SparkSubmit$$runMain(SparkSubmit.scala:
569
)
26
at
 org.apache.spark.deploy.SparkSubmit$.doRunMain$
1
(SparkSubmit.scala:
166
)
27
at
 org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:
189
)
28
at
 org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:
110
)
29
at
 org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
本博客文章除特别声明,全部都是原创!

尊重原创,转载请注明: 转载自过往记忆(http://www.iteblog.com/)

本文链接地址: 《Spark insertIntoJDBC找不到Mysql驱动解决方法》(http://www.iteblog.com/archives/1300)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: