美文网首页
其他分类练习题

其他分类练习题

作者: 从此不迷茫 | 来源:发表于2020-03-20 22:21 被阅读0次

    1.考虑一个二值分类问题,属性集和属性值如下:

    空调={可用,不可用}

    引擎={好,差}

    行车里程={高,中,低}

    生锈={是,否}

    假设一个基于规则的分类器产生的规则集如下:

    行车里程=高\rightarrow 价值=低

    行车里程=低\rightarrow价值=高

    空调=可用,引擎=好\rightarrow价值=高

    可调=可用,引擎=差\rightarrow价值=低

    空调=不可用\rightarrow价值=低

    (a)这些规则是互斥的吗?

    不是

    (b)这些规则是完全的吗?

    是。

    (c)这些规则需要排序吗?

    Yes because a test instance may trigger more than one rule.

    (d)规则集需要默认类吗?

    No because every instance is guaranteed to trigger at least

    one rule.

    2.RIPPER算法是早期算法IREP的扩展,两个算法都使用减少误差剪枝(reduced-error pruning)方法来确定一个规则是否需要剪枝,减少误差剪枝方法使用一个确认集来估计分类器的泛化误差。考虑下面两个规则:

    R1:A\rightarrow C

    R2:A\land B\rightarrow C

    R2是由R1左边添加合取项B得到的。现在的问题是,从规则增长和规则剪枝的角度来确定R2是否比R1好。为了确定规则是否应该剪枝,IREP计算下面的度量:

    v_{IREP} \frac{p+(N-n)}{P+N}

    其中,P是确认集中正例的总数,N是确认集中反例的总数,p是确认集中被规则覆盖的正例数,而n是确认集中被规则覆盖的反例数。实际上,virep类似于确认集的分类准确率.IREP偏向于virep值较高的规则。另一方面,RIPPER使用下面的度量来确定规则是否应该剪枝:v_{RIPPER} \frac{p-n}{p+n}

    (1)假设R1覆盖350个正例和150个反例,而R2覆盖300个正例和50个反例。计算R2相对于R1的FOIL信息增益。

    Gain=300*{log2(300/350)-log2(350/500)}=87.65

    (2)考虑一个确认集,包含500个正例和500个反例。假设R1覆盖200个正例和50个反例,R2覆盖100个正例和5个反例。计算R1和R2的Virep,IREP 偏向于那个规则?

    对R1:v_{IREP} \frac{p+(N-n)}{P+N} ={200+(500-50)}/1000=0.65

    对R2:v_{IREP} \frac{p+(N-n)}{P+N} ={100+(500-5)}/1000=0.595

    IREP偏向于R1

    (3)计算(2)中的Vripper,RIPPER偏向于哪个规则?

    对R1:v_{RIPPER} \frac{p-n}{p+n} =(200-50)/(200+50)=0.6

    对R2:v_{RIPPER} \frac{p-n}{p+n} =(100-5)/(100+5)=0.9

    RIPPER偏向于R2

    3.C4.5规则是从决策树生成规则的间接方法的一个实现,而RIPPER是从数据中生成规则的直接方法的一个实现。

    (a)讨论两者的优缺点。

    C4.5规则算法从全局角度生成分类规则。这是因为规则是从决策树中派生出来的,决策树的目的是将特征空间划分为同质区域,而不关注任何类。相反,RIPPER一次生成一个类的规则。因此,它更偏向于首先生成的类。

    (b)考虑一个数据集,其中类的大小差别很大(即有些累比其它类大得多)。在为较小的类寻找高准确率规则方面,哪一种方法(C4.5和RIPPER)更好?

    C4.5规则使用的类排序方案比RIPPER使用的方案更容易解释。

    4.考虑一个训练集,包含100个正例和400个反例。对于下面的候选规则:

    R1:A->+(覆盖4个正例和1个反例)

    R2:B->+ (覆盖30个正例和10个反例)

    R3:C-> + (覆盖100个正例和90个反例)

    根据下面的度量,确定最好规则和最差规则:

    (1)规则准确率。

    准确率依次为:R1:80%,R2:75%,R3:52.6%。因此最好规则是R1,最差规则是R3

    (2)FOIL信息增益

    假设初始规则:\phi \rightarrow +(覆盖100个正例和400个反例)

    对R1:Gain1=4*{log2(4/5)-log2(100/500)}=8

    对R2:Gain2=30*{log2(30/40)-log2(100/500)}=57.2

    对R3:Gain3=100*{log2(100/190)-log2(100/500)}=139.6

    因此,R3最好,R1最差。

    (3)似然比统计量

    对于R1,正类的期望频率为5×100/500=1

    负类的期望频率为5×400/500=4。

    因此,R1的似然比是2*{4*log2(4/1)+1*log2(1/4)}=12

    对于R2,正类的期望频率为40×100/500=8

    负类的期望频率为40×400/500=32。

    因此,R2的似然比是2*{30*log2(30/8)+10*log2(10/32)}=80.85

    对于R3,正类的期望频率为190×100/500=38

    负类的期望频率为190×400/500=152。

    因此,R3的似然比是2*{100*log2(100/38)+90*log2(90/152)}=143

    R3是最好的规则,R1是最差的。

    (4)拉普拉斯度量

    (5)m度量(k=2且p+=0.2)

    其中n是规则覆盖的样例数,f+是规则覆盖的正例数,k是类的总数,p+是正类的先验概率。注意,当=1/k时,m估计等价于Laplace度量。

    拉普拉斯度量依次为:R1:(4+1)/(5+2)=71.43%,R2:(30+1)/(40+2)=73.81%,R3:(100+1)/(190+2)=52.6%.因此R2是最好的,R3是最差的。

    m度量:R1:(4+2*0.2)/(5+2)=62.86%,R2:(30+2*0.2)/(40+2)=73.38%,R3:(100+2*0.2)/(190+2)=52.3%

    R2最好,R3最差。

    5.下图给出了分类规则R1、R2、R3的覆盖率。根据以下度量确定最好规则和最差规则:

    (1)似然比统计量

    (2)拉普拉斯统计量

    (3)m度量(k=2且p+=0.58)

    (4)发现规则R1后的准确率,这里不删除R1覆盖的任何样例

    (5)发现规则R1后的准确率,这里仅删除R1覆盖的正例

    (6)发现R1后的准确率,这里删除R1覆盖的任何样例

    Elimination of training records by the sequential covering algorithm. R1, R2, and R3represent regions covered by three different rules.

    (1)数据集中有29个正例21个反例。R1覆盖了12个正例和3个反例,正例期望样例数为15*29/50=8.7,反例期望数为15*21/50=6.3.因此R1的似然比统计量为:

    2*{12*log2(12/8.7)+3*log2(3/6.3)}=4.71

    R2 covers 7 positive examples and 3 negative examples. The expected frequency for the negative class is 10 × 21/50 = 4.2 and the expected frequency for the positive class is 10 × 29/50 = 5.8. Therefore, the likelihood ratio for R2 is

    2*{7*log2(7/5.8)+3*log2(3/4.2)}=0.89

    R3 covers 8 positive examples and 4 negative examples. The expectedfrequency for the positive class is 12 × 29/50 = 6.96 and the expected frequency for the negative class is 12 × 21/50 = 5.04. Therefore, the likelihood ratio for R3 is

    2*{8*log2(8/6.96)+4*log2(4/5.04)}=0.5472

    因此根据似然比统计量,R1是最好的规则,R3最差。

    (2)The Laplace measure for the rules are 76.47% ((12+1)/(15+2)for R1), 66.67% (for R2), and 64.29% (for R3), respectively. Therefore R1 is the best rule and R3 is the worst rule according to the Laplace measure.

    (3)The m-estimate measure for the rules are 77.41% (for R1), 68.0% ((7+2*29/50)/(10+2)for R2), and 65.43% (for R3), respectively. Therefore R1 is the best rule and R3 is the worst rule according to the m-estimate measure.

    (4)If the examples for R1 are not discarded, then R2 will be chosen because it has a higher accuracy (7/10=70%) than R3 (8/12=66.7%).

    (5)If the positive examples covered by R1 are discarded, the new accuracies for R2 and R3 are 70% and 60%, respectively. Therefore R2 is preferred over R3.

    (6)If the positive and negative examples covered by R1 are discarded, the new accuracies for R2 and R3 are 70% and 75%, respectively. In this case, R3 is preferred over R2.

    6.(a)假设本科生抽烟的比例为15%,研究生抽烟的比例为23%。如果大学生中研究生占比1/5,其余是本科生,那么抽烟的学生是研究生的概率是多少?

    设X={0,1},表示抽烟与否。Y={本科生,研究生}

    P{X=1|Y=本科生}=15%,P{X=1|Y=研究生}=23%,P{Y=研究生}=1/5

    P{X=1}=P{X=1,Y=本科生}+P{X=1,Y=研究生}=P{X=1|Y=本科生}*P{Y=本科生}+P{X=1|Y=研究生}*P{Y=研究生}=15%*4/5+23%*1/5=16.6%

    故P{Y=研究生|X=1}=P{X=1|Y=研究生}*P{Y=研究生}/P{X=1}=(23%*1/5)/16.6%=27.7%

    (b)根据(a)中信息,随机选择一个大学生,该生是研究生和本科生的可能性哪个大?

    本科生大。P(UG)>P(G)

    (c)同(b),假设学生是个抽烟者。

    P{Y=本科生|X=1}=1-P{Y=研究生|X=1}=72.3%。本科生的可能性大。

    (d)假设30%的研究生住学生宿舍,只有10%的本科生住学生宿舍。如果一个学生抽烟又住宿舍,那么他(她)是研究生或本科生的可能性哪个大?可以假设学生抽烟和住宿舍独立。

    设Z={住宿舍,不住宿舍}={1,0}.P{Z=1|Y=研究生}=0.3 P{Z=1|Y=本科生}=0.1

    P(D) = P(UG).P (D|UG)+P(G).P (D|G) = 0.8∗0.1+0.2∗0.3 = 0.14.

    P(S) = P(S|UG)P(UG)+P(S|G)P(G) = 0.15∗0.8+0.23∗0.2 = 0.166.

    P(DS|G) = P(D|G) × P(S|G) = 0.3 × 0.23 = 0.069 (using conditional independent assumption)

    P(DS|UG) = P(D|UG) × P(S|UG) = 0.1 × 0.15 = 0.015.

    P{Y=研究生|X=1,Z=1}=P(DS|G)*P(G)/P(DS)=0.069*0.2/P(DS)=0.0138/P(DS)

    P{Y=本科|X=1,Z=1}=P(DS|UG)*P(UG)/P(DS)=0.015*0.8/P(DS)=0.012/P(DS)

    P{Y=研究生|X=1,Z=1}>P{Y=本科|X=1,Z=1}.

    7.考虑下表中数据集。

    (1)估计条件概率P(A|+),P(B|+),P(C|+),P(A|-),P(B|-),P(C|-)。

    P(A=1|+)=P(A=1,+)/P(+)=0.3/0.5=0.6

    P(A = 1|−) = 2/5 = 0.4, P(B = 1|−) = 2/5 = 0.4,

    P(C = 1|−) = 1, P(A = 0|−) = 3/5 = 0.6,

    P(B = 0|−) = 3/5 = 0.6, P(C = 0|−) = 0;

    P(B = 1|+) = 1/5 = 0.2, P(C = 1|+) = 2/5 = 0.4,

    P(A = 0|+) = 2/5 = 0.4, P(B = 0|+) = 4/5 = 0.8,

    P(C = 0|+) = 3/5 = 0.6.

    (2)根据(1)中条件概率,使用朴素贝叶斯方法预测测试样本(A=0,B=1,C=0)的类标号。

    设P(A=0,B=1,C=0)=K

    P(+|A=0,B=1,C=0)=P(A=0,B=1,C=0,+)/P(A=0,B=1,C=0)

    =P(A=0,B=1,C=0|+)P(+)/K

    =P(A=0|+)P(B=1|+)P(C=0|+)P(+)/K

    =0.4*0.2*0.6*0.5/K=0.024/K

    P(-|A=0,B=1,C=0|)=P(A=0,B=1,C=0|-)P(-)/K

    =0

    由于P(-|A=0,B=1,C=0)<P(+|A=0,B=1,C=0),故类标号为+

    (3)使用m估计方法(p=1/2且m=4)估计条件概率。

    P(x_{i} |y_{j})=\frac{n_{c} +mp}{n+m}

    P(A=1|+)=(3+4*1/2)/(5+4)=5/9

    P(A = 0|+) = (2 + 2)/(5 + 4) = 4/9,

    P(A = 0|−) = (3+2)/(5 + 4) = 5/9,

    P(B = 1|+) = (1 + 2)/(5 + 4) = 3/9,

    P(B = 1|−) = (2+2)/(5 + 4) = 4/9,

    P(C = 0|+) = (3 + 2)/(5 + 4) = 5/9,

    P(C = 0|−) = (0+2)/(5 + 4) = 2/9.

    (4)同(b),使用(c)中条件概率。

    Let P(A = 0,B = 1, C = 0) = K

    P(+|A = 0,B = 1, C = 0)

    = P(A = 0,B = 1, C = 0|+) × P(+)/P(A = 0,B = 1, C = 0)

    =P(A = 0|+)P(B = 1|+)P(C = 0|+) × P(+)/K

    =(4/9) × (3/9) × (5/9) × 0.5/K

    = 0.0412/K

    P(−|A = 0,B = 1, C = 0)= 0.0274/K

    类标号是+

    (5)比较两种方法,哪种好?

    当其中一个条件概率为零时,使用m-估计概率方法对条件概率的估计更好,因为我们不希望整个表达式变成零。

    8.考虑下标数据集。


    (1)估计条件概率P(A=1|+),P(B=1|+),P(C=1|+),P(A=1|-),P(B=1|-),P(C=1|-).

    P(A=1|+)=3/5=0.6,P(A=1|-)=2/5=0.4

    P(B=1|+)=2/5=0.4,P(B=1|-)=2/5=0.4

    P(C=1|+)=4/5=0.8,P(C=1|-)=1/5=0.2

    (2)根据(1)中条件概率,使用朴素贝叶斯方法预测测试样本(A=1,B=1,C=1)的类标号。

    P(+|A=1,B=1,C=1)=P(A=1,B=1,C=1|+)P(+)/P(A=1,B=1,C=1)=P(A=1|+)P(B=1|+)P(C=1|+)P(+)/P(A=1,B=1,C=1)=0.6*0.4*0.8*0.5/0.1=0.96

    P(-|A=1,B=1,C=1)=P(A=1,B=1,C=1|-)P(-)/P(A=1,B=1,C=1)=P(A=1|-)P(B=1|-)P(C=1|-)P(-)/P(A=1,B=1,C=1)=0.4*0.4*0.2*0.5/0.1=0.16

    类标号为+

    (3)比较P(A=1),P(B=1)和P(A=1,B=1).陈述A,B之间的关系。

    P(A=1)=0.5,P(B=1)=0.4,P(A=1,B=1)=0.2.

    P(A=1,B=1)=P(A=1)*P(B=1),因此A,B之间独立。

    (4)对P(A=1),P(B=0)和P(A=1,B=0)重复(3)的分析。

    P(A=1)=0.5,P(B=0)=0.6,P(A=1,B=0)=0.3,A,B独立。

    (5)比较P(A=1,B=1|类=+)与P(A=1|类=+)和P(B=1|类=+)。给定+,变量A,B独立吗?

    P(A=1,B=1|类=+)=0.2     P(A=1|类=+)=3/5=0.6  P(B=1|类=+)=0.4

    P(A=1,B=1|类=+)=0.2≠P(A=1|类=+)*P(B=1|类=+)A,B不条件独立

    9.(a)解释朴素贝叶斯分类器在下图数据集上的工作过程。

    下图  数据集

    朴素贝叶斯分类器在这个数据集上做得不好,因为给定类的每个区别属性的条件概率对于类A和类B都是相同的。

    (b)如果每个类进一步分割,得到四个类(A1,A2,B1,B2),朴素贝叶斯分类器会工作得更好吗?

    朴素贝叶斯分类器的性能在子类上会有所提高,因为每个子类的区分属性的条件概率乘积是不同的。

    (c)决策树在该数据集上怎样工作(两类问题)?四个类呢?

    对于两类问题,决策树的性能不好,因为在使用区分属性对数据进行分割后,熵不会得到改善。如果有四个类,那么决策树将会有很大的改进。

    10.使用下面的信息,重复例子的分析,寻找决策边界位置:

    (a)先验概率P(鳄鱼)=2*P(美洲鳄)

    P(X|鳄鱼)=\frac{P(鳄鱼|X)\times P(X)}{P(鳄鱼)}

    P(X|美洲鳄)=\frac{P(美洲鳄|X)\times P(X)}{P(美洲鳄)}

    理想决策边界满足:ˆx = 13.0379.

    (b)先验概率P(美洲鳄)=2*P(🐊)

    ˆx = 13.9621.

    (c)先验概率相同,但标准差不同,例如,σ(鳄鱼)=4,σ(美洲鳄)=2.

    ˆx = 22.1668.

    11.下图给出了下表数据集对应的贝叶斯信念网络(假设所有属性都是二元的)。

    (a)画出网络中每个结点对应的概率表。

    (b)使用贝叶斯信念网络计算P(引擎=差,空调=不可用)。

    (a)P(行车里程=高)=0.5

    P(引擎=好|行车里程=高)=0.5

    P(引擎=好|行车里程=低)=0.5

    P(空调=可用)=0.5

    P(车的价值=高|引擎=好,空调=可用)=12/16

    P(车的价值=高|引擎=好,空调=不可用)=6/9

    P(车的价值=高|引擎=差,空调=可用)=2/9

    P(车的价值=高|引擎=差,空调=不可用)=0

    (b)P(引擎=差,空调=不可用)=\sum\nolimits_{\alpha \beta }P(引擎=差,空调=不可用,行车里程=\alpha ,车的价值=\beta )

    =\sum\nolimits_{\alpha \beta }P(车的价值=\beta|引擎=差,空调=不可用 )\times P(引擎 = 差|行车里程= α)P(行车里程 = α)P(空调=不可用)

    (上式中,用到全概率公式,空调和引擎独立条件)

    =0.1453

    12.给定下图所示贝叶斯信念网络,计算下面概率:


    (a)P(B=好,F=空,G=空,S=是)

    (b)P(B=差,F=空,G=非空,S=否)

    (c)如果电池是差的,计算车发动起来的概率。

    (a)P(B = good, F = empty,G = empty, S = yes)

    = P(B = good) × P(F = empty) × P(G = empty|B = good, F = empty)×P(S = yes|B = good, F = empty)= 0.9 × 0.2 × 0.8 × 0.2 = 0.0288.

    (b)P(B = bad, F = empty,G = not empty, S = no)= P(B = bad) × P(F = empty) × P(G = not empty|B = bad, F = empty)×P(S = no|B = bad, F = empty)= 0.1 × 0.2 × 0.1 × 1.0 = 0.002.

    (c)P(S = yes|B = bad)

    =\sum_{\alpha }P(S = yes|B = bad, F = α)P(B = bad)P(F = α)

    = 0.1 × 0.1 × 0.8

    = 0.008

    相关文章

      网友评论

          本文标题:其他分类练习题

          本文链接:https://www.haomeiwen.com/subject/amgdyhtx.html