美文网首页
Softmax 函数的变体

Softmax 函数的变体

作者: 过过的算法笔记 | 来源:发表于2023-04-04 21:25 被阅读0次

Softmax 函数的变体——Softmax 函数的负版本(Negative Softmax)。

具体来说,对于给定的输入向量 x 和温度参数 \tau,Negative Softmax 函数将计算如下:

\text{NSoftmax}(x_i, \tau) = \frac{\exp(-x_i / \tau)}{\sum_j \exp(-x_j / \tau)}

与标准 Softmax 不同,Negative Softmax 中的每个元素都被除以了温度参数 \tau 的负数次幂。这意味着输入数字越大,指数部分越小,输出概率就会越小。

以下是一个示例:

import torch.nn.functional as F

# 创建一个大小为 (1, n) 的一行张量
x = torch.randn(1, 5)

# 定义温度参数
tau = 0.5

# 应用负 softmax 函数
probs = F.softmax(-x/tau, dim=1)

print(probs)

在上述示例中,我们首先创建了一个大小为 (1, 5) 的一行张量 x。然后,我们定义了温度参数 tau 为 0.5。接下来,我们使用 PyTorch 中的 torch.nn.functional.softmax() 函数和 - 运算符来将其转换为 Negative Softmax,即 -x/tau。最后,我们打印输出了转换后的概率分布张量 probs。

请注意,与标准 Softmax 类似,如果需要处理多个样本的情况,可以将输入张量的第一维设置为样本数量,然后在 softmax() 函数中指定 dim 参数为 1。这将对每个样本进行独立的 Negative Softmax 转换,并返回一个大小为 (batch_size, n) 的张量,其中每一行都是对应样本的概率分布。同时也可以通过调整温度参数来控制输出分布的形状。

本文由mdnice多平台发布

相关文章

  • softmax函数详解

    softmax函数详解softmax的log似然代价函数(公式求导)

  • Softmax

    Softmax 我们令 , 定义 softmax 函数为 这样, Softmax Regression 算法是 L...

  • Logistic Regression

    推导 sigmoid 推导LR损失函数 推导LR梯度下降 Softmax原理 softmax 损失函数 softm...

  • Softmax函数 Logistic函数

    Softmax函数:https://en.wikipedia.org/wiki/Softmax_function ...

  • softmax函数的求导学习

    今天学习了softmax函数的求导,和其他函数求导不同,softmax函数中的参数不是常量,而是向量。 对于陌生的...

  • 12- 深度学习之神经网络核心原理与算法-Softmax

    softmax 输出层的激励函数softmax 前面我们已经接触了一种激励函数,sigmoid函数。含义: 似然度...

  • 神经网络[输出层]激活函数的选择

    目录 1.输出层激活函数的选择 2.Softmax激活函数的特征 3.Softmax激活函数的实现以及优化 对于机...

  • 损失函数和优化-损失函数(2)

    引言 这一节的笔记,主要讲解除了SVM以外的另一种损失函数——softmax损失函数。 softmax损失函数 如...

  • softmax函数

    这几天学习了一下softmax激活函数,以及它的梯度求导过程,整理一下便于分享和交流! 一、softmax函数so...

  • softmax函数

    softmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类...

网友评论

      本文标题: Softmax 函数的变体

      本文链接:https://www.haomeiwen.com/subject/ffnsddtx.html