直接根据关联三度所定义的概念去理解会有不少难度,尤其是可信度喝提升度中的“ 谁对谁 ”的问题。其实可以换一种方式来看:
-
规则 X 的支持度 = 规则 X 的交易次数 / 交易的总数。理解:支持度表示规则 X 是否普遍。
-
规则 X(A→B) 的置信度 = 规则 X 的交易次数/规则X中商品B 的交易次数。理解:置信度是一种条件概率,表示购买了A产品的客户再购买B产品的概率。
为方便理解这些规则,我们通过下面五个购物篮的例子来练习一下
图片不难发现,支持度的分母都是5,也就是购物篮的数量,分子则是选取这个规则中的所有商品同时出现在一个篮子的次数。以A->D为例,同时包含A和D的篮子有2个,总的交易数量(篮子总数)有5个,所以规则A->D的支持度为2/5;有商品 A 的篮子个数为3,在这三个篮子中,其中2个篮子又包含商品D,所以该规则的置信度(可信度)为2/3。有关关联规则,还有以下两个问题想补充:
问:仅看支持度和置信度是否靠谱?
答:看一个案例:食堂卖饭,1000份打饭记录中,买米饭的有800人次,买牛肉的有600人次,两个共同买的有400人次,那么可以得出对于规则(牛肉 - > 米饭)Support=P(牛肉&米饭)= 400/1000=0.40;Confidence=P(米饭|牛肉)=400/600=0.67置信度和支持度都很高,但是给买牛肉的人推荐米饭有意义吗?显然是没有任何意义的。因为无任何条件下用户购买米饭的概率:P(米饭)=800/1000=0.8,都已经大过买了牛肉的前提下再买米饭的概率 0.67,毕竟米饭本来就比牛肉要畅销啊。
这个案例便引出了提升度的概念:提升度 = 置信度/无条件概率=0.67/0.8。规则 X(A→B) 的提升度为 n 时:向购买了 A 的客户推荐 B 的话,这个客户购买 B 的概率是 TA 自然而然购买 B 的 n × 100% 左右。生活理解:消费者平时较少单独购买桌角防撞海绵,可能偶尔想到或自己小孩碰到的时候才会想起购买,如果我们在桌子(书桌饭桌)的成功下单页面添加桌角防撞海绵的推荐,则很大程度上可以提高防撞海绵的销量。这也符合我们希望通过畅销商品带动相对非畅销商品的宗旨。
问:除了公式的含义,关联三度(支持度,置信度,提升度)还有什么关联吗?
答:可以这样理解:
-
支持度代表这组关联商品的份额是否够大
-
置信度(可信度)代表关联度的强弱
-
而提升度则是看该关联规则是否有利用价值和值得推广,用了(客户购买后推荐)比没用(客户自然而然的购买)要提高多少。
所以 1.0 是提升度的一个分界值,刚才的买饭案例中给买了牛肉的用户推荐米饭的这种骚操作的提升度小于 1 也就不难理解了。另外,高置信度的两个商品(假设达到了 100%,意味着它们总是成双成对的出现),但如果支持度很低(意味着份额低),那它对整体销售提升的帮助也不会大。
基于Apriori 算法的Python实战
由于有关Apriori等算法的研究已经很成熟,我们在用Python实战时无需一步一步计算,直接调用现有函数即可,主要是要明白背后的原理与不同算法的使用场景与优劣比较。
探索性分析
首先导入相关库并进行数据探索性分析
import pandas as pd
import numpy as np
df = pd.read_csv('bike_data.csv', encoding='gbk')
df.info(); df.head()
图片
数据参数解释
-
OrderNumber:客户昵称
-
LineNumber:购买顺序,如前三行分别表示同一个客户购买的三样商品的顺序
-
Model:商品名
接着来看看商品的种类
print(f"数据集中共有{df['Model'].nunique()}种商品")
model_names = df['Model'].unique()
print("商品名分别为:")
# 5 个为一行显示
for i in range(0, len(model_names), 5):
print(model_names[i:i+5])
再来看看最畅销的 15 种商品
再进行一些简单的可视化
top_15 = grouped.sort_values(by='count', ascending=False).head(15)
plt.figure(figsize=(8, 6))
sns.barplot(data=top_15, x='count', y='Model')
plt.grid(True)
图片
使用 Apriori 算法求解关联规则
首先生成购物篮,并将同一个客户购买的所有商品放入同一个购物篮,需要提前使用pip install Apriori安装,之后我们使用 Apriori 包中的 dataconvert 函数,下面是需要传入的参数解释
-
arulesdata:数据集 -- DataFrame
-
tidvar: “分类的索引”,即划分购物篮的标准,本案例是根据客户 OrderNumber -- object类型
-
itemvar:将什么东西放进篮子里,本案例是将数据集中的商品,就是 Model 列放入篮子 -- object类型
-
data_type: 默认选择 'inverted',库中提供的不变
注意:需要注意传入的参数类型,只要对了,直接套用就不是什么难事
import Apriori as apri
# 需要稍微等待一下
baskets = apri.dataconvert(arulesdata=df, tidvar='OrderNumber',
itemvar='Model', data_type='inverted')
# 返回的购物篮是一个大列表,大列表中的每一个小列表表示一个篮子
# 购物篮个数刚好等于数据集中的客户数量
type(baskets), len(baskets) == df['OrderNumber'].nunique()
# (list, True)
现在查看前五个购物篮中的物品
图片 图片现在生成关联规则,根据排列组合,可知这些交易将会产生 21255×21254÷2 这么多个关联规则。首先就要满足支持度的要求,太小则直接被删去,支持度的大小可根据关联规则的多少调整 如果关联规则很少,可根据实际情况放宽支持度的要求。相关参数说明:
-
+ minSupport:最小支持度阈值
-
+ minConf:最小置信度阈值
-
+ minlen:规则最小长度
-
+ maxlen:规则最大长度,一般2就够了
这里,minSupport 或 minConf 设定越低,产生的规则越多,计算量也就越大
图片结果说明: 以 result 第一行为例
-
+ lhs: 被称为左手规则,通俗理解即用户购买的商品 - 山地车内胎
-
+ rhs: 被称为右手规则,通俗理解即根据用户购买某商品来推荐的另一件商品 - ll山地胎
-
+ support: 支持度,山地车内胎 和 ll山地胎 同时出现在一张购物小票中的概率
-
+ confidence: 置信度,购买了 山地车内胎 的前提下,同时购买 ll山地胎 的概率
-
+ lift:向购买了 山地车内胎 的客户推荐 ll山地胎 的话,这个客户购买 ll山地胎 的概率是这个客户自然而然购买 ll山地胎 的 400% 左右,即高了300% 多!
现在我们筛选互补品和互斥品,代码如下
# 互补品
# lift 提升度首先要大于1,然后再排序选择自己希望深究的前 n 个
hubu = result[result['lift'] > 1].sort_values(by='lift',
ascending=False).head(20)
# 互斥品
huchi = result[result['lift'] < 1].sort_values(by='lift',
ascending=True).head(20)
hubu.head(5) # 结果也合情合理
图片
对结果简单分析一些,不要期望每个规则都有意义,要结合业务思考,比如竞速型赛道自行车与运动水壶互斥实属正常,竞速讲究轻量化,还配个水壶干什么... 比如山地车配一个竞速公路车用的运动型头盔...互斥产品则是成对出现的!
根据关联规则结果推荐产品
需要结合业务需求
-
获得最大营销响应度?-- 看置信度,越高越好
-
销售最大化?-- 看提升度,越高越好
-
用户未产生消费,我们向其推荐商品?
# 注意数据类型,frozenset,需要拆一下
result['lhs'][1], type(result['lhs'][1])
# (frozenset({'山地车内胎'}), frozenset)
以获得最高的营销相应率为目标
如果一个新客户刚刚下单了山地车英骑这个产品,如果希望获得最高的营销响应率,那在他付费成功页面上最应该推荐什么产品?
目标:获得最高的营销响应率
图片以最大化总体销售额为目标
如果一个新客户刚下单了山地英骑这个产品,如果希望最大化提升总体的销售额,那么在他付费成功的页面上应该推荐什么产品?
目标:最大化销售额
图片再次重申提升度通俗含义:提升度是相对于自然而然购买而言,A对B的提升度为4.0的理解如下:向购买了A的用户推荐B,则该用户购买B的概率是该用户单独(即自然而然的购买)购买B的概率的 400% 向购买了A的用户推荐B,则该用户购买B的概率比该用户单独(即自然而然的购买)购买B的概率高300%!
用户并未产生消费,为其推荐某样商品
图片最后总结一下,基于关联规则的 Apriori 算法是智能推荐领域十分经典的应用之一,简单易上手。其实推荐领域的难点不一定在于算法,而在于过大的客户量与其产生的数据,所以一般到了最后用的都是混合推荐。至于更深层次的序贯模型与协同过滤,几乎没有人使用 Python 或 R 来实现,大部分都是使用分布式框架如 Spark 。
网友评论