普林斯顿公开课 算法1-10:并查集-优化的快速合并方法
2014-06-02 17:42
337 查看
本节介绍的是快速合并的优化算法。基本思想就是在每个节点上增加重量的概念,每次操作的时候将重量小的部件挂在重量大的部件之下。这样就避免了树形结构太高的问题。
下图展示了优化前后的树形结构深度的对比。
因为每次合并的时候较小的部件要放在较大的部件之下,所以如果要增加树的高度,每次合并之后,树的大小至少要翻一番。
而N个节点最多只能翻lgN番。
基本想法就是在查找根节点时,将路径上的所有节点进行路径压缩。只需要一行额外的代码。
使用路径压缩之后查询操作的复杂度是lg*N。lg*是另外一种函数,表示的是lgN几次才能达到1。比如lg*16,需要三次lg,lg16=4,lg4=2,lg2=1,所以lg*16=3。
理论上来说查询操作的复杂度不是1,但是实际应用中,这种算法的复杂度就是1。
下图展示了优化前后的树形结构深度的对比。
证明
可以证明每个节点的深度最大为lgN。因为每次合并的时候较小的部件要放在较大的部件之下,所以如果要增加树的高度,每次合并之后,树的大小至少要翻一番。
而N个节点最多只能翻lgN番。
复杂度
这种算法中合并操作最坏的复杂度为lgN,查询操作最坏情况的复杂度为lgN。路径压缩
虽然目前的算法已经能够保证复杂度在lgN以下,但是还有更好的方法。基本想法就是在查找根节点时,将路径上的所有节点进行路径压缩。只需要一行额外的代码。
使用路径压缩之后查询操作的复杂度是lg*N。lg*是另外一种函数,表示的是lgN几次才能达到1。比如lg*16,需要三次lg,lg16=4,lg4=2,lg2=1,所以lg*16=3。
理论上来说查询操作的复杂度不是1,但是实际应用中,这种算法的复杂度就是1。
结论
虽然现代的超级计算机速度很快,但是好的算法能节省更多的时间。第一种快速查找算法解决一个问题需要30年时间,而现在有了更好的算法,解决同样的问题只需要6秒。所以,不要期望以后计算机速度快了算法就不需要了,算法是计算机的基础,它永远不会过时。代码
相关文章推荐
- 普林斯顿公开课 算法1-9:并查集-快速合并
- 普林斯顿公开课 算法1-9:并查集-高速合并
- 普林斯顿公开课 算法1-8:并查集 快速查找
- 普林斯顿大学公开课 算法1-10:并检查集合-高速整合方法优化
- 普林斯顿公开课 算法1-11:并查集的应用
- 普林斯顿公开课 算法1-7:并查集基本概念
- 普林斯顿公开课 算法2-10:泛型
- 解L1范数优化的快速算法:分拆方法
- 普林斯顿公开课 算法1-11:并查集的应用
- 普林斯顿公开课 算法1-7:并查集基本概念
- MySQL 大数据量快速插入方法和语句优化分享
- T4 模板的调试方法,方便大家遇到问题自己快速定位和优化
- 极限优化:Haar特征的另一种的快速计算方法—boxfilter
- hdu 4677 并查集合并(两个相邻区间并查集的合并)+分块算法 好题
- 普林斯顿大学算法公开课(2)----并查集
- MTS格式快速合并方法
- 快速排序 图解算法过程 另一种方法 大同小异
- 极限优化:Haar特征的另一种的快速计算方法—boxfilter
- 【实现XP快速关机的优化方法】
- 经典快速排序,linux纯C实现。注意swap方法,并且这个算法还需再敲写15篇。