CLASS torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False)
以Adam优化器为例,其params定义如下:
- params (iterable) – iterable of parameters to optimize or dicts defining parameter groups
所以我们传入的是一个迭代器,可以通过tertools.chain将两个网络参数连接起来。
import itertools
......
optimizer = torch.optim.Adam(itretools.chain(net1.parameters(), net2.parameters()), 0.001, weight_decay = 1e-5)
网友评论