美文网首页
Pytorch里面某些包的用法

Pytorch里面某些包的用法

作者: 吱吱加油 | 来源:发表于2020-04-10 10:09 被阅读0次

    torch.utils.data.DataLoader

    主要用于数据读取的一个接口,一般在Pytorch中训练模型时用到,详细见torch.utils.data — PyTorch master documentation

    DataLoader(dataset,batch_size=1,shuffle=False,sampler=None,batch_sampler=None,num_workers=0,collate_fn=None,pin_memory=False,drop_last=False,timeout=0,worker_init_fn=None)

    dataset是这个主要的组成部分,表示数据加载的对象

    batch_size表示每次加载多少个样本,默认为1

    shuffle表示是否打乱顺序,默认为否

    drop_last=False表示不舍去所有数据量除以每批次个数多余的部分

    后面的几个参数没用过,看不懂

    torch.nn.Sequential()

    表示一种容器,主要用于神经网络模块,保证网络的流动顺序,自带forward方法

    torch.nn.ModuleDict()

    nn.ModuleDict同样也是一种容器 

    name=nn.ModuleDict({ 可供选择的网络/可供选择的激活函数})对应的forward:x=self.name[选择的序号](x)


    class Modeldict(nn.Module):

    def __init__(self):

    super(Modeldict,self).__init__()

    self.choices = nn.ModuleDict({

    "conv1": nn.Conv2d(10,10,3),

    "pool": nn.MaxPool2d(3) })

    self.activations = nn.ModuleDict({

    "relu": nn.ReLU(),

    "prelu": nn.PReLU() })

    def forward(self,x,choice,act):

    x = self.choices[choice](x)

    x = self.activations[act](x) return x

    #input = img

    model = Modeldict()

    out = model(input,"pool","prelu")

    优化函数Adam自适应优化算法,

    torch.optim.Adam(model.parameters()) 需要对Model中所有生成的参数进行优化

    相关文章

      网友评论

          本文标题:Pytorch里面某些包的用法

          本文链接:https://www.haomeiwen.com/subject/ijulmhtx.html