机器学习经典算法10-Apriori
2013-08-19 15:55
260 查看
1.关联分析
通过查看哪些商品经常在一起购买,可以帮助商店了解用户的购买行为。这种从大量数据中抽取的知识可用于商品定价、市场促销、存货管理等环节。所谓关联,反映的是一个事物和其他事物之间依赖或关联的知识。从大规模数据集中寻找事物间的隐含关系称为关联分析(association analysis)或者关联规则学习(association rule mining)。在关联分析中,事物之间的关系较为常用的有两种:频繁项集和关联规则。频繁项集(frequent item sets)是经常出现在一起的物品集合,关联规则(association rules)则暗示两个物品之间可能存在很强关系。
2.基本定义
3.Apriori
对于频繁项集挖掘的任务,可以使用暴力求解方法,没每个可能的项集进行support计算,然后通过minSupport进行过滤,但是这样过于费时。Apriori原理中,如果某个项集是频繁的,则其所有子集也是频繁的。反过来说,也就是说某个项集是非频繁的,那么其所有超集也是非频繁的。所以在进行频繁项集挖掘时,从1-项集开始,基于minSupport进行过滤,对过滤后的项集进行排列组合,形成2-项集,然后基于minSupport进行过滤,这样以此下去,一直到形成的k-项集中只有1个元素为止。
4.实现示例
aprioriGen用于产生新的候选集合列表,这里用了一个技巧,即(根据Apriori原则)需要对k-1的频繁项集进行排列组合生成Ck,在进行排列组合的时候,用两个for循环,如果两个元素(元素内部是有序的)的[0,k-2)个元素相同则进行合并,避免计算量过大;函数scanD用于统计候选集合列表Ck中各个项集的频率,并基于minSupport进行过滤;在进行generateRules时,即产生关联规则,根据Apriori原理,右边显示单个项集,然后慢慢增加。其他说明:python字典的update函数可以将两个字典进行合并,具体合并规则还请自行查阅;选择list的一部分[:k],当k等于0的时候,获得是[];python中对set支持|操作,即计算并集。
from numpy import * import matplotlib.pyplot as plt def loadDataSet(): return [[1,3,4],[2,3,5],[1,2,3,5],[2,5]] def createC1(dataSet): C1=[] for transaction in dataSet: for item in transaction: if [item] not in C1: C1.append([item]) C1.sort() return map(frozenset,C1) def scanD(D, Ck, minSupport): ssCnt={} for tid in D: for can in Ck: if can.issubset(tid): if not ssCnt.has_key(can): ssCnt[can]=1 else: ssCnt[can]+=1 numItems = float(len(D)) retList=[] supportData={} for key in ssCnt: support = ssCnt[key]/numItems if support>=minSupport: retList.insert(0,key) supportData[key]=support return retList, supportData def aprioriGen(Lk,k): retList=[] lenLk=len(Lk) for i in range(lenLk): for j in range(i+1,lenLk): L1=list(Lk[i])[:k-2] L2=list(Lk[j])[:k-2] L1.sort() L2.sort() if L1==L2: retList.append(Lk[i] | Lk[j]) return retList def apriori(dataSet, minSupport=0.5): C1=createC1(dataSet) D=map(set, dataSet) L1, supportData=scanD(D, C1, minSupport) L=[L1] k=2 while len(L[k-2])>0: Ck=aprioriGen(L[k-2],k) Lk, supK=scanD(D, Ck, minSupport) supportData.update(supK) L.append(Lk) k+=1 return L, supportData def generateRules(L, supportData, minConf=0.7): bigRuleList=[] for i in range(1,len(L)): for freqSet in L[i]: H1=[frozenset([item]) for item in freqSet] if(i>1): rulesFromConseq(freqSet, H1, supportData, bigRuleList, minConf) else: calcConf(freqSet, H1, supportData, bigRuleList, minConf) return bigRuleList def calcConf(freqSet, H, supportData, br1, minConf=0.7): prunedH=[] for conseq in H: conf = supportData[freqSet]/supportData[freqSet-conseq] if conf>minConf: print freqSet-conseq, "-->", conseq,'conf:',conf br1.append((freqSet-conseq, conseq, conf)) prunedH.append(conseq) return prunedH def rulesFromConseq(freqSet, H, supportData, br1, minConf=0.7): m=len(H[0]) if(len(freqSet)>m+1): Hmp1=aprioriGen(H,m+1) Hmp1=calcConf(freqSet, Hmp1, supportData, br1, minConf) if(len(Hmp1)>1): rulesFromConseq(freqSet, Hmp1, supportData, br1, minConf) dataSet=loadDataSet() L, supportData = apriori(dataSet) print L print supportData rules=generateRules(L, supportData,0.5)
相关文章推荐
- 【算法竞赛入门经典】7.6 迭代加深搜索与IDA* 例题7-10 UVa11211
- 机器学习10大经典算法
- [刷题]算法竞赛入门经典 3-10/UVa1587 3-11/UVa1588
- 经典算法10--树状数组
- 机器学习十大经典算法
- 机器学习10大经典算法
- 上手机器学习,从搞懂这十大经典算法开始
- 干货丨入门机器学习,从搞懂这8大经典算法开始
- 干货 | 上手机器学习,从搞懂这十大经典算法开始
- 【机器学习】经典算法详解——感知机(附Python实现)
- 机器学习10大经典算法
- 务实而深入地理解机器学习的几个经典算法
- 机器学习之-使用Apriori算法进行关联并分析-具体怎么实现及应用
- 机器学习经典算法详解及Python实现--基于SMO的SVM分类器
- 机器学习10大经典算法
- 机器学习经典算法详解及Python实现--K近邻(KNN)算法
- 数据挖掘十大经典算法(10) CART: 分类与回归树
- 机器学习经典算法详解及Python实现–决策树
- 机器学习经典算法logistic回归
- 经典算法10:回溯法求解八皇后