美文网首页Deep Learning
PyTorch基本用法(三)——激活函数

PyTorch基本用法(三)——激活函数

作者: SnailTyan | 来源:发表于2017-09-18 21:11 被阅读30次

文章作者:Tyan
博客:noahsnail.com  |  CSDN  |  简书

本文主要是关于PyTorch的激活函数。

import torch
import torch.nn.functional as func
from torch.autograd import Variable
import matplotlib.pyplot as plt

# 定义数据x
x = torch.linspace(-5, 5, 200)
x = Variable(x)
np_x = x.data.numpy()

# 通过激活函数处理x
y_relu = func.relu(x).data.numpy()
y_sigmoid = func.sigmoid(x).data.numpy()
y_tanh = func.tanh(x).data.numpy()
y_softmax = func.softplus(x).data.numpy()

# 绘制激活函数图
plt.figure(1, figsize = (8, 6))
plt.subplot(221)
plt.plot(np_x, y_relu, c = 'red', label = 'relu')
plt.ylim((-1, 5))
plt.legend(loc = 'best')

plt.figure(1, figsize = (8, 6))
plt.subplot(222)
plt.plot(np_x, y_sigmoid, c = 'red', label = 'sigmoid')
plt.ylim((0, 1))
plt.legend(loc = 'best')

plt.figure(1, figsize = (8, 6))
plt.subplot(223)
plt.plot(np_x, y_tanh, c = 'red', label = 'tanh')
plt.ylim((-1, 1))
plt.legend(loc = 'best')

plt.figure(1, figsize = (8, 6))
plt.subplot(224)
plt.plot(np_x, y_softmax, c = 'red', label = 'softmax')
plt.ylim((-1, 5))
plt.legend(loc = 'best')

plt.show()

运行结果:

Figure

相关文章

网友评论

    本文标题:PyTorch基本用法(三)——激活函数

    本文链接:https://www.haomeiwen.com/subject/jrqisxtx.html