spark快速开发之scala基础之1 数据类型与容器
2017-08-08 16:06
573 查看
写在前面
面向java开发者。实际上,具有java基础学习scala是很容易。java也可以开发spark,并不比scala开发的spark程序慢。但学习scala可有助于更快更好的理解spark。比如spark的很多算子group,filter之类的,全都是scala语言本身所具备的功能。再比如,想做一个更高级别的spark开发者,势必需要了解spark源码。哪怕不需要通读,但也需要了解scala语言。
快速入门的意思先具备一个宏观上的系统而整体的把控,然后再到这个框架上去把血肉丰满。从阅读源码的角度来说,作为一个java开发者,在数据类型和容器,控制语句等方面,哪怕不会写,至少能大致读懂。但涉及到更高层次的高阶函数,就很头痛了。
比如list。只会讲声明,增删查改以及循环。就能满足大多数情况下的开发。至于其它的功能,通过查看文档,或者源码,就可以搞懂。涉及到像增这一块,比如添加一个元素,list有【++: ++ +: :+ :: ::: :\】等很多功能。但本文只涉及最简单的东西。总之,这是一个简易版的入门。后续的学习不能停止
数据类型
scala数据类型与java基本类似。scala在面向对象方面,比java列我彻底。java有8种基本数据类型,在scala里面全是对象。
其它常见数据类型:
变量
在 Scala 中,使用关键词 "var" 声明变量,使用关键词 "val" 声明常量。
声明变量实例如下:
以上定义了变量 myVar,我们可以修改它。
声明常量实例如下:
以上定义了常量 myVal,它是不能修改的。如果程序尝试修改常量 myVal 的值,程序将会在编译时报错。
变量声明不一定需要初始值,以下也是正确的:
所以,如果在没有指明数据类型的情况下声明变量或常量必须要给出其初始值,否则将会报错。
以上实例中,myVar 会被推断为 Int 类型,myVal 会被推断为 String 类型。
数组
大体与list相当
Map 有两种类型,可变与不可变,区别在于可变对象可以修改它,而不可变对象不可以。
默认情况下 Scala 使用不可变 Map。如果你需要使用可变集合,你需要显式的引入 import scala.collection.mutable.Map类
Scala Set(集合)是没有重复的对象集合,所有的元素都是唯一的。
Scala 集合分为可变的和不可变的集合。
默认情况下,Scala 使用的是不可变集合,如果你想使用可变集合,需要引用 scala.collection.mutable.Set 包。
面向java开发者。实际上,具有java基础学习scala是很容易。java也可以开发spark,并不比scala开发的spark程序慢。但学习scala可有助于更快更好的理解spark。比如spark的很多算子group,filter之类的,全都是scala语言本身所具备的功能。再比如,想做一个更高级别的spark开发者,势必需要了解spark源码。哪怕不需要通读,但也需要了解scala语言。
快速入门的意思先具备一个宏观上的系统而整体的把控,然后再到这个框架上去把血肉丰满。从阅读源码的角度来说,作为一个java开发者,在数据类型和容器,控制语句等方面,哪怕不会写,至少能大致读懂。但涉及到更高层次的高阶函数,就很头痛了。
比如list。只会讲声明,增删查改以及循环。就能满足大多数情况下的开发。至于其它的功能,通过查看文档,或者源码,就可以搞懂。涉及到像增这一块,比如添加一个元素,list有【++: ++ +: :+ :: ::: :\】等很多功能。但本文只涉及最简单的东西。总之,这是一个简易版的入门。后续的学习不能停止
数据类型
scala数据类型与java基本类似。scala在面向对象方面,比java列我彻底。java有8种基本数据类型,在scala里面全是对象。
Byte | 8位有符号补码整数。数值区间为 -128 到 127 |
Short | 16位有符号补码整数。数值区间为 -32768 到 32767 |
Int | 32位有符号补码整数。数值区间为 -2147483648 到 2147483647 |
Long | 64位有符号补码整数。数值区间为 -9223372036854775808 到 9223372036854775807 |
Float | 32位IEEE754单精度浮点数 |
Double | 64位IEEE754单精度浮点数 |
Char | 16位无符号Unicode字符, 区间值为 U+0000 到 U+FFFF |
Boolean | true或false |
Unit | 表示无值,和其他语言中void等同。用作不返回任何结果的方法的结果类型。Unit只有一个实例值,写成()。 |
Null | null 或空引用 |
Nothing | Nothing类型在Scala的类层级的最低端;它是任何其他类型的子类型。 |
Any | Any是所有其他类的超类 |
AnyRef | AnyRef类是Scala里所有引用类(reference class)的基类 |
在 Scala 中,使用关键词 "var" 声明变量,使用关键词 "val" 声明常量。
声明变量实例如下:
var myVar : String = "Foo" var myVar : String = "Too"
以上定义了变量 myVar,我们可以修改它。
声明常量实例如下:
val myVal : String = "Foo"
以上定义了常量 myVal,它是不能修改的。如果程序尝试修改常量 myVal 的值,程序将会在编译时报错。
变量声明不一定需要初始值,以下也是正确的:
var myVar :Int; val myVal :String;
变量类型引用
在 Scala 中声明变量和常量不一定要指明数据类型,在没有指明数据类型的情况下,其数据类型是通过变量或常量的初始值推断出来的。所以,如果在没有指明数据类型的情况下声明变量或常量必须要给出其初始值,否则将会报错。
var myVar = 10; val myVal = "Hello, Scala!";
以上实例中,myVar 会被推断为 Int 类型,myVal 会被推断为 String 类型。
Scala 多个变量声明
Scala 支持多个变量的声明:val xmax, ymax = 100 // xmax, ymax都声明为100 集合 list
//定义 var list = List("spark","hadoop","storm") var nums = List("sdf","spark") val empty : List[Nothing] = List() val list2 = list.+:("sdf")//在头部添加元素 println(list2) val list3 = list.++(nums)//合并两个集合 println(list3) val list4 = list.:+("sdf")//在尾部添加元素 println(list4) val item = list take 3 //取前几个元素 val head = list.head//取第一个元素 val last = list.last//取最后一个元素 list.updated(1, "mr")//更新 //循环 list.foreach(println) list.map(println)
数组
大体与list相当
//array val array : Array[Any] = Array("spark","hadoop","storm") println(array) val array2 : Array[String] = Array("spark2","hadoop2") array.foreach(println) println(array(0))//取值 println(array.apply(0))//取值 val array3 = array.++:(array2) println("================") array3.foreach(println)//循环 val array4 = array.+:("spark").:+("hadoop")//加值 println("================") array4.foreach(println) val array5 = array.++(array2) array5.foreach(print) //seq val seq = Seq("hadoop","spark") println(seq)
map
Map 有两种类型,可变与不可变,区别在于可变对象可以修改它,而不可变对象不可以。
默认情况下 Scala 使用不可变 Map。如果你需要使用可变集合,你需要显式的引入 import scala.collection.mutable.Map类
var map = Map("spark"->1,"hadoop"->"1") val map2 = Map("spark2"->1,"hadoop2"->"1") val map3 = map.+(("storm"->1))//添加一个元素 map += ("storm"->1)//添加一个元素 val map4 = map.++(map2)//合并两个集合 println(map4) map.contains("spark")//判断一个元素是否存在 map.isEmpty//是否为空 //得到key集合 val keys2 : Iterable[String] = map.keys val keys : Set[String] = map.keySet val iter : Iterator[String] = map.keysIterator
set
Scala Set(集合)是没有重复的对象集合,所有的元素都是唯一的。
Scala 集合分为可变的和不可变的集合。
默认情况下,Scala 使用的是不可变集合,如果你想使用可变集合,需要引用 scala.collection.mutable.Set 包。
val set = Set("spark","spark","hadoop") set += "storm" //异常 val mutableSet : Set[String] = Set("spark","spark","hadoop") mutableSet += "hive" println(mutableSet) mutableSet.add("scala") println(mutableSet) mutableSet.remove("scala") println(mutableSet) mutableSet -= "hive" println(mutableSet)
相关文章推荐
- spark快速开发之scala基础之5高阶函数,偏函数,闭包
- spark快速开发之scala基础之3类,对象,特征
- spark快速开发之scala基础之2控制流程
- 嵌入式开发之C基础学习笔记03--基本数据类型,操作符,修饰符等基本概念
- 黑马程序员_iOS开发C语言基础之枚举类型和数据类型总结
- ios开发学习----swift学习之(一)基础数据类型
- 【零基础学习iOS开发】【02-C语言】07-基本数据类型
- Android 开发中Parcel存储类型和数据容器
- Spark修炼之道(基础篇)——Linux大数据开发基础:第三节:用户和组
- Spark修炼之道(基础篇)——Linux大数据开发基础:第七节:进程管理
- iOS开发笔记系列-基础1(数据类型与表达式)
- Spark修炼之道(基础篇)——Linux大数据开发基础:第八节:网络管理
- 全面理解Java中的String数据类型-Java基础-Java-编程开发
- Spark修炼之道(基础篇)——Linux大数据开发基础:第四节:Linux文件系统(二)
- iOS开发笔记系列-基础4(变量与数据类型)
- C#.NET 大型企业信息化系统集成快速开发平台 4.2 版本 - 面向全国标准省市县行政数据基础之上的组织机构管理
- Android 开发中Parcel存储类型和数据容器
- Spark修炼之道(基础篇)——Linux大数据开发基础:第一节、Linux介绍、安装及使用初步
- ABAP开发基础知识:7)数据类型的转换
- Spark修炼之道(基础篇)——Linux大数据开发基础:第二节:Linux文件系统、目录(一)