美文网首页
Apriori 算法

Apriori 算法

作者: dreampai | 来源:发表于2021-04-22 18:15 被阅读0次

    问题引入

    在常见的超市购物数据集,或者电商的网购数据集中,如果我们找到了频繁出现的数据集,那么对于超市,我们可以优化产品的位置摆放,对于电商,我们可以优化商品所在的仓库位置,达到节约成本,增加经济效益的目的。

    Apriori 算法是常用的用于挖掘出数据关联规则的算法,它用来找出数据值中频繁出现的数据集合,找出这些集合的模式有助于我们做一些决策。

    频繁项集的评估标准

    什么样的数据才是频繁项集

    一起出现次数多的数据集就是频繁项集

    评估频繁项集的标准是什么

    10 条记录,里面 A 和 B 同时出现了三次,那么我们能不能说 A 和 B 一起构成频繁项集呢?

    支持度

    支持度是几个关联的数据在数据集中出现的次数占总数据集的概率。如果我们有两个想分析关联性的数据 X 和 Y,则对应的支持度为:
    Support(X,Y)=P(XY)= \frac{number(XY)}{num(AllSamples)}

    以此类推,如果我们有三个想分析关联性的数据 X,Y 和 Z,则对应的支持度为:
    Support(X,Y,Z)=P(XYZ)=\frac{number(XYZ)}{number(AllSamples)}

    置信度

    置信度体现了一个数据出现后,另一个数据出现的概率。如果我们有两个想分析关联性的数据 X 和 Y,X 对 Y 的置信度为
    Confidence(X|Y)=P(X|Y)=\frac{P(XY)}{P(Y)}
    也可以以此类推到多个数据的关联置信度,比如对于三个数据X,Y,Z,则X对于Y和Z的置信度为:
    Confidence(X|Y)=P(X|YZ)=\frac{P(XYZ)}{P(YZ)}

    提升度

    提升度表示含有Y的条件下,同时含有X的概率,与X总体发生的概率之比,即:
    Lift(X|Y)=P(X|Y)/P(X)=\frac{Confidence(X|Y)}{P(X)}

    提升度体先了 X 和 Y之间的关联关系, 提升度大于 1 则 X⇐Y 是有效的强关联规则, 提升度小于等于 1 则 X⇐Y 是无效的强关联规则。一个特殊的情况,如果 X 和 Y 独立,则有 Lift(X⇐Y)=1,因为此时 P(X|Y)=P(X)。

    算法思想

    对于Apriori算法,我们使用支持度来作为我们判断频繁项集的标准。Apriori算法的目标是找到最大的K项频繁集。这里有两层意思,首先,我们要找到符合支持度标准的频繁集。但是这样的频繁集可能有很多。第二层意思就是我们要找到最大个数的频繁集。比如我们找到符合支持度的频繁集AB和ABE,那么我们会抛弃AB,只保留ABE,因为AB是2项频繁集,而ABE是3项频繁集。那么具体的,Apriori算法是如何做到挖掘K项频繁集的呢?
    Apriori算法采用了迭代的方法,先搜索出候选1项集及对应的支持度,剪枝去掉低于支持度的1项集,得到频繁1项集。然后对剩下的频繁1项集进行连接,得到候选的频繁2项集,筛选去掉低于支持度的候选频繁2项集,得到真正的频繁二项集,以此类推,迭代下去,直到无法找到频繁k+1项集为止,对应的频繁k项集的集合即为算法的输出结果。
    可见这个算法还是很简洁的,第i次的迭代过程包括扫描计算候选频繁i项集的支持度,剪枝得到真正频繁i项集和连接生成候选频繁i+1项集三步。

    算法流程

    输入:数据集合 D,支持度阈值
    输出:最大的频繁 k 项集

    • 扫描整个数据集,得到所有出现过的数据,作为候选频繁 1 项集。k=1,频繁 0 项集为空集。
    • 挖掘频繁k项集
      • 扫描数据计算候选频繁k项集的支持度
      • 去除候选频繁k项集中支持度低于阈值的数据集,得到频繁k项集。如果得到的频繁k项集为空,则直接返回频繁k-1项集的集合作为算法结果,算法结束。如果得到的频繁k项集只有一项,则直接返回频繁k项集的集合作为算法结果,算法结束。
      • 基于频繁k项集,连接生成候选频繁k+1项集。
    • k=k+1,转入步骤2。

    Aprior 算法总结

    • Aprior 算法是一个非常经典的频繁项集的挖掘算法,很多算法都是基于 Aprior 算法而产生的,包括 FP-Tree,GSP, CBA 等。
    # -*- coding: utf-8 -*-
    import pandas as pd
    from time import process_time
    d = pd.read_csv('apriori.txt', header=None, dtype=object)
    
    print(u'\n转换原始数据至0-1矩阵...')
    
    start = process_time()
    ct = lambda x: pd.Series(1, index=x)
    b = map(ct, d.values)
    d = pd.DataFrame(list(b)).fillna(0)
    d = (d == 1)
    end = process_time()
    print(u'\n转换完毕,用时:%0.2f秒' % (end - start))
    print(u'\n开始搜索关联规则...')
    del b
    
    support = 0.06  # 最小支持度
    confidence = 0.75  # 最小置信度
    ms = '--'  # 连接符,用来区分不同元素,如A--B。需要保证原始表格中不含有该字符
    
    
    # 自定义连接函数,用于实现L_{k-1}到C_k的连接
    def connect_string(x, ms):
        x = list(map(lambda i: sorted(i.split(ms)), x))
        l = len(x[0])
        r = []
        for i in range(len(x)):
            for j in range(i, len(x)):
                if x[i][:l - 1] == x[j][:l - 1] and x[i][l - 1] != x[j][l - 1]:
                    r.append(x[i][:l - 1] + sorted([x[j][l - 1], x[i][l - 1]]))
        return r
    
    
    # 寻找关联规则的函数
    def find_rule(d, support, confidence):
        import time
        start = process_time()
        result = pd.DataFrame(index=['support', 'confidence'])  # 定义输出结果
    
        support_series = 1.0 * d.sum() / len(d)  # 支持度序列
        column = list(support_series[support_series > support].index)  # 初步根据支持度筛选
        k = 0
    
        while len(column) > 1:
            k = k + 1
            print(u'\n正在进行第%s次搜索...' % k)
            column = connect_string(column, ms)
            print(u'数目:%s...' % len(column))
            sf = lambda i: d[i].prod(axis=1, numeric_only=True)  # 新一批支持度的计算函数
    
            # 创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。
            d_2 = pd.DataFrame(list(map(sf, column)), index=[ms.join(i) for i in column]).T
    
            support_series_2 = 1.0 * d_2[[ms.join(i) for i in column]].sum() / len(d)  # 计算连接后的支持度
            column = list(support_series_2[support_series_2 > support].index)  # 新一轮支持度筛选
            support_series = support_series.append(support_series_2)
            column2 = []
    
            for i in column:  # 遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?
                i = i.split(ms)
                for j in range(len(i)):
                    column2.append(i[:j] + i[j + 1:] + i[j:j + 1])
    
            cofidence_series = pd.Series(index=[ms.join(i) for i in column2])  # 定义置信度序列
    
            for i in column2:  # 计算置信度序列
                cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))] / support_series[ms.join(i[:len(i) - 1])]
    
            for i in cofidence_series[cofidence_series > confidence].index:  # 置信度筛选
                result[i] = 0.0
                result[i]['confidence'] = cofidence_series[i]
                result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]
    
        result = result.T.sort_values(['confidence', 'support'], ascending=False)  # 结果整理,输出
        end = process_time()
        print(u'\n搜索完成,用时:%0.2f秒' % (end - start))
        print(u'\n结果为:')
        print(result)
    
        return result
    
    if __name__ == '__main__':
        result = find_rule(d, support, confidence)
        result.to_excel('rules.xls')
    

    参考链接

    相关文章

      网友评论

          本文标题:Apriori 算法

          本文链接:https://www.haomeiwen.com/subject/hicnactx.html