FP代表频繁模式(Frequent Pattern)。
这里有几点需要强调一下:
第一,FP-growth算法只能用来发现频繁项集,不能用来寻找关联规则。
第二,FP-growth算法发现频繁集的效率比较高,Apriori算法要对于每个潜在的频繁项集都会扫描数据集来判定是否频繁,FP-growth算法只需要对数据集进行两次扫描。这种算法的执行速度要快于Apriori,通常性能要好两个数量级以上。
第三,FP-growth算法基于Apriori算法构建,在完成相同任务的时候采用了一些不同技术。
发现频繁项集的基本过程:
1、构建FP树
2、从FP树中挖掘频繁项集
优点:一般要快于Apriori
缺点:实现比较困难,在某些数据集上性能会下降。
适用数据类型:标称型数据。
FP树
FP-growth算法将数据存储在一种称为FP树的紧凑数据结构中。一棵FP树看上去与计算机中的其他树结构类似,但是他通过链接(link)来连接相似元素,被连起来的元素项可以看成一个链表。
同搜索树不同的是,一个元素项可以在一棵FP树中出现多词。FP树会存储项集的出现频率,而每个项集会以路径的方式存储在树中。存在相似元素的集合会共享树的一部分。只有当集合之间完全不同的时候树才会分叉。树节点上给出集合中的单个元素及其在序列中的出现次数,路径会给出该序列的出现次数。
相似项之间的链接即节点链接(node link),用于快速发现相似项的位置。
FP-growth算法的工作流程如下:首先构建FP树,然后利用它来挖掘频繁项集。
为了构建FP树,需要对数据集进行两次扫描。第一次对所有元素项的出现次数进行计数,统计出现的频率。第二遍扫描仅考虑哪些频繁元素。
代码清单
代码和思路来自于《机器学习实战》,书中代码python2,我用的python3进行了一些改写。
# -*- coding: utf-8 -*-
# 只能用于发现频繁项集,不能用来寻找关联规则
# FP树中节点的类定义
class treeNode:
def __init__(self, nameValue, numOccur, parentNode):
self.name = nameValue
self.count = numOccur
self.nodeLink = None # nodeLink 变量用于链接相似的元素项
self.parent = parentNode # 指向当前节点的父节点
self.children = {} # 空字典,存放节点的子节点
def inc(self, numOccur): # 计数加1
self.count += numOccur
# 将树以文本形式显示
def disp(self, ind=1):
# print(' ' * ind, self.name, ' ', self.count)
for child in self.children.values():
child.disp(ind + 1)
# 构建FP-tree
def createTree(dataSet, minSup=1):
headerTable = {}
for trans in dataSet: # 第一次遍历:统计各个数据的频繁度
for item in trans:
headerTable[item] = headerTable.get(item, 0) + dataSet[trans]
# 用头指针表统计各个类别的出现的次数,计算频繁量:头指针表[类别]=出现次数
for k in list(headerTable): # 删除未达到最小频繁度的数据
if headerTable[k] < minSup:
del (headerTable[k])
freqItemSet = set(headerTable.keys()) # 保存达到要求的数据
# print ('freqItemSet: ',freqItemSet)
if len(freqItemSet) == 0:
return None, None # 若没有元素满足要求,则退出
for k in headerTable: # 遍历头指针表
headerTable[k] = [headerTable[k], None] # 保存计数值及指向每种类型第一个元素项的指针
# print ('headerTable: ',headerTable)
retTree = treeNode('Null Set', 1, None) # 初始化tree
for tranSet, count in dataSet.items(): # 第二次遍历:
localD = {}
for item in tranSet: # put transaction items in order
if item in freqItemSet: # 只对频繁项集进行排序
localD[item] = headerTable[item][0]
# 使用排序后的频率项集对树进行填充
if len(localD) > 0:
orderedItems = [v[0] for v in sorted(localD.items(), key=lambda p: p[1], reverse=True)]
updateTree(orderedItems, retTree, headerTable, count) # populate tree with ordered freq itemset
return retTree, headerTable # 返回树和头指针表
def updateTree(items, inTree, headerTable, count):
if items[0] in inTree.children: # 首先检查是否存在该节点
inTree.children[items[0]].inc(count) # 存在则计数增加
else: # 不存在则将新建该节点
inTree.children[items[0]] = treeNode(items[0], count, inTree) # 创建一个新节点
if headerTable[items[0]][1] == None : # 若原来不存在该类别,更新头指针列表
headerTable[items[0]][1] = inTree.children[items[0]] # 更新指向
else: # 更新指向
updateHeader(headerTable[items[0]][1], inTree.children[items[0]])
if len(items) > 1: # 仍有未分配完的树,迭代
updateTree(items[1::], inTree.children[items[0]], headerTable, count)
# 节点链接指向树中该元素项的每一个实例。
# 从头指针表的 nodeLink 开始,一直沿着nodeLink直到到达链表末尾
def updateHeader(nodeToTest, targetNode):
while nodeToTest.nodeLink != None:
nodeToTest = nodeToTest.nodeLink
nodeToTest.nodeLink = targetNode
def loadSimpDat():
simpDat = [['r', 'z', 'h', 'j', 'p'],
['z', 'y', 'x', 'w', 'v', 'u', 't', 's'],
['z'],
['r', 'x', 'n', 'o', 's'],
['y', 'r', 'x', 'z', 'q', 't', 'p'],
['y', 'z', 'x', 'e', 'q', 's', 't', 'm']]
return simpDat
# createInitSet() 用于实现上述从列表到字典的类型转换过程
def createInitSet(dataSet):
retDict = {}
for trans in dataSet:
retDict[frozenset(trans)] = 1
return retDict
# 从FP树中发现频繁项集
def ascendTree(leafNode, prefixPath): # 递归上溯整棵树
if leafNode.parent != None:
prefixPath.append(leafNode.name)
ascendTree(leafNode.parent, prefixPath)
def findPrefixPath(basePat, treeNode): # 参数:指针,节点;
condPats = {}
while treeNode != None:
prefixPath = []
ascendTree(treeNode, prefixPath) # 寻找当前非空节点的前缀
if len(prefixPath) > 1:
condPats[frozenset(prefixPath[1:])] = treeNode.count # 将条件模式基添加到字典中
treeNode = treeNode.nodeLink
return condPats
# 递归查找频繁项集
def mineTree(inTree, headerTable, minSup, preFix, freqItemList):
# 头指针表中的元素项按照频繁度排序,从小到大
bigL = [v[0] for v in sorted(headerTable.items(), key=lambda p: str(p[1]))] # python3修改
for basePat in bigL: # 从底层开始
# 加入频繁项列表
newFreqSet = preFix.copy()
newFreqSet.add(basePat)
# print ('finalFrequent Item: ',newFreqSet)
freqItemList.append(newFreqSet)
# 递归调用函数来创建基
condPattBases = findPrefixPath(basePat, headerTable[basePat][1])
# print ('condPattBases :',basePat, condPattBases)
# 2. 构建条件模式Tree
myCondTree, myHead = createTree(condPattBases, minSup)
# 将创建的条件基作为新的数据集添加到fp-tree
# print ('head from conditional tree: ', myHead)
if myHead != None: # 3. 递归
# print('conditional tree for: ', newFreqSet)
myCondTree.disp(1)
mineTree(myCondTree, myHead, minSup, newFreqSet, freqItemList)
# rootNode = treeNode('pyramid', 9, None)
# rootNode.children['eye'] = treeNode('eye', 13, None)
# print(rootNode.disp())
# rootNode.children['phoenix'] = treeNode('phoenix', 3, None)
# print(rootNode.disp())
# 加载数据集
simpData = loadSimpDat()
# print(simpData)
# 数据包装器
initSet = createInitSet(simpData)
# print(initSet)
myFPtree, myHeaderTab = createTree(initSet, 3)
# print(findPrefixPath('x', myHeaderTab['x'][1]))
# print(findPrefixPath('z', myHeaderTab['z'][1]))
# 前两个运行结果都一样,但是这个运行结果每次都不一样,研究一下
# print(findPrefixPath('r', myHeaderTab['r'][1]))
freqItems = []
mineTree(myFPtree, myHeaderTab, 3, set([]), freqItems)
print(freqItems)
网友评论