机器学习A-Z~Thompson抽样算法

作者: Carey_Wu | 来源:发表于2019-04-16 10:52 被阅读5次

本文继续讲一个强化学习的算法,叫做Thompson抽样算法。这个算法的数学理论基础要用到的是贝叶斯推断(Bayesian Inference)。我们先谈谈这个算法的基本原理。

Thompson抽样算法基本原理

我们依然使用之前的多臂老虎机的问题。如图所示,横轴代表奖励,越往右边表示奖励越多。三条竖线代表三个不同的老虎机它们的平均奖励。

image

在算法开始前,我们是什么都不知道的,因此需要得到一些基础数据。图中有四个蓝色的数据,表示按下蓝色老虎机得到的奖励,根据这几个得到的奖励,可以得到一个数学分布。同样绿色的老虎机也能得到一个分布,黄色同理。

image

这三个分布预测的是这三个机器给我们带来奖励实际上可能的数学期望的概率分布。接下来基于这三个随机分布,我们得到几个随机抽样,选择获得最大抽样值的机器按下去。但由于是随机的,虽然黄色的实际期望是最高的,但我们依然可能会选出一个绿色大于黄色数据结果。

image

按下去后我们会得到一个新的观察到的奖励值,得到新的奖励值后就要调整绿色机器的分布。

image

显然这个绿色的分布变得更高更窄了,后面的步骤和这里其实是一样的,也是依然选择奖励值最高的机器按下去,通过得到的结果继续调整分布。

当这个游戏进行到很多步骤之后,这些分布都会变得非常窄,尤其是黄色的基本会和实际期望吻合.

image

这时由于我们一直选择奖励值最高的机器,因此按下黄色的概率会比较高,导致黄色的会越来越窄,而蓝色的很少玩到,因此相对要宽一点。

Thompson抽样算法 vs. 置信区间上界算法

我们使用Thompson抽样算法和ucb算法都处理了多臂老虎机问题,那么现在来比较下两个算法。来看看这两个算法的基本原理图。

image

首先这个UCB算法,它是一个确定性算法,当我们得到相同的奖励时,我们作出的决策时确定,因此我们每一轮的总收益和总收益都是确定的。每一轮中作出的决策只和置信区间的上界有关,而这个上界只和这个机器所有的观察值有关。所以说当所有机器的观察值相同时,我们永远会做相同的决策。对于Thompson算法,它是个随机性算法,它的某一步或者某几步是在一个随机函数控制下,跟运气是有关系的。它依赖于一些随机事件,就像我们上面选择点的时候,虽然黄色的实际期望大于绿色,但我们还是可能会选出绿色大于黄色的数据点。因此说它是个随机性的算法。

那么对于UCB,它还有个特点,就是需要实时更新上界,这个在之前的文章描述UCB算法原理的时候可以看出来。对于Thompson抽样算法,它是允许延迟更新甚至批量更新的,比如我们往网上投放一批广告,这里是允许它得到的结果是有延迟的。最后一点,在近些年的实际应用和研究中发现,Thompson抽样算法相对于置信区间算法,它是有更好的实际应用效果的。

代码实现

首先看看Thompson抽样算法的计算逻辑:

image image

代码这里就直接贴出来了:

import matplotlib.pyplot as plt
import pandas as pd
import random

# import the dataset
dataset = pd.read_csv('Ads_CTR_Optimisation.csv')

# Implementing Thompson Sampling
N = 10000
d = 10
ads_selected = []
numbers_of_rewards_1 = [0] * d
numbers_of_rewards_0 = [0] * d
total_reward = 0
for n in range(0, N):
    ad = 0
    max_random = 0
    for i in range(0, d):
        random_beta = random.betavariate(numbers_of_rewards_1[i] + 1, numbers_of_rewards_0[i] + 1)
        if random_beta > max_random:
            max_random = random_beta
            ad = i
    ads_selected.append(ad)
    reward = dataset.values[n, ad]
    if reward == 1:
        numbers_of_rewards_1[ad] = numbers_of_rewards_1[ad] + 1
    else:
        numbers_of_rewards_0[ad] = numbers_of_rewards_0[ad] + 1
    total_reward = total_reward + reward

# Visualising the results
plt.hist(ads_selected)
plt.title('Histogram of ads selections')
plt.xlabel('Ads')
plt.ylabel('Number of times each ad was selected')
plt.show()

最终得到总奖励数相对于之前的置信区间算法要高很多,而且得到的图像很明显能看到最佳的广告是ad5,因此Thompson抽样算法的实际效果的确要优于置信区间算法。

以上,就是强化学习中的Thompson抽样算法的基础知识。

相关文章

  • 机器学习A-Z~Thompson抽样算法

    本文继续讲一个强化学习的算法,叫做Thompson抽样算法。这个算法的数学理论基础要用到的是贝叶斯推断(Bayes...

  • Thompson抽样算法原理

    1、回顾多臂老虎机 在多臂老虎机中,我们通过探索加利用的方法,预测多臂老虎机的奖励分布。 我们将生活中的问题转化成...

  • Thompson抽样算法-Python

    楔子:伯努利试验:就是一次实验只有两种可能的结果n次伯努利试验:一次实验只有两种可能的结果,并且每次的实验之间相互...

  • Thompson抽样算法-R

    楔子: 1、数据预处理 代码: 2、数据初始化 代码: 3、ThompsonSampling 代码: 4、数据可视...

  • 分层抽样

    这篇帖子中实现了常见集中抽样方法:【机器学习算法-python实现】采样算法的简单实现 但没有是实现 分层抽样。今...

  • 25、为什么你应该在你的机器学习问题上进行抽样检查算法

    抽样检查算法是关于在机器学习问题上快速评估一堆不同的算法,以便您了解要关注的算法和丢弃的内容。 照片来自witha...

  • 机器学习A-Z~先验算法Apriori

    本文将会讲述关联规则学习中的一个基本算法,叫做先验算法。所谓先验算法,就是找出不同事件之间的联系。比如一个人在超市...

  • 特征工程

    数据和特征的质量决定了机器学习的上限,而模型和算法只是不断逼近这个上限而已 数据清洗 数据样本抽样 异常值(空值处...

  • 机器学习A-Z~K平均聚类算法

    本文来讲讲K平均聚类算法(K-Means Clustering),K Means算法是所有聚类算法中最经典的一种,...

  • 人工智能 机器学习 深度学习

    一、人工智能包括机器学习,而机器学习包括深度学习。 人工智能就是算法组成的, 而机器学习就是包括很多算法,机器学习...

网友评论

    本文标题:机器学习A-Z~Thompson抽样算法

    本文链接:https://www.haomeiwen.com/subject/jqbvwqtx.html