Tensorflow: 1.2.0 Keras: 2.1.6
最近学习keras, 下载了数据集和一些已经训练好的模型,比如VGG16,VGG19
因为查阅keras 文档,发现很多文章参数都没有更新,所以自己根据安装的版本记下以便于自己记忆。
Dense() 普通的全连接层
参数:
output_dim: 输出空间维度
init: 初始化权重函数名称
activation: 激活函数,'relu','sigmoid'等
weights: 初始化权重
W_regularizer: 权重上的正则化
b_regularizer: 偏置项的正则化
activity_regularizer: 施加在输出上的正则化
W_constraint: 权重上约束项
b_constraint: 偏置上的约束项
bias: 是否添加偏置项
input_dim :输入的维度(如果作为模型的第一层,一定要输入,或者用input_shape)
卷积层:
Convolution1D:
一维卷积层
nb_filter: 卷积核的个数
filter_length: 每个卷积核的长度
init: 权重初始化函数名称
weights: 权重初始化
border_mode: 'valid', 'same' or 'full' 如果是‘valid ’ 进行有效的卷积,对边界数据不处理,‘same'表示保留边界处的卷积结果’
subsample_length: 子样的长度
W_regularizer: 权重上的正则化
b_regularizer: 偏置项上的正则化
activity_regularizer: 输出上的正则化
W_constraint: 权重上的约束项
b_constraint: 偏置上的约束项
bias: 偏置项
input_dim: 输入的维度
input_length:
Convolution2D
nb_filter: 卷积核的个数
nb_row: 卷积核的行数
nb_col: 卷积核的列数
init: 权重初始化函数名称
activation: 激活函数
weights: 权重初始化
border_mode: 'valid', 'same' or 'full'
'valid'代表只进行有效的卷积,对边界数据不处理
'same'代表保留边界处的卷积结果
W_regularizer 同Convolution1D
b_regularizer: 同Convolution1D
activity_regularizer: 同Convolution1D
W_constraint: 同Convolution1D
b_constraint: 同Convolution1D
dim_ordering: 如果是'th', 则是基于thenao, 则为(channels, row,cols)的张量
如果是'tf', 基于tensorflow, 则为(rows, cols, channels)的张量
bias: 是否有偏置项
Embedding :嵌入层
Embedding层只能作为模型的第一层
input_dim: 大或等于0的整数,字典长度,即输入数据最大下标+1
output_dim: 大于0的整数,代表全连接嵌入的维度
init: 初始化函数名称
weights: .权重的初始化
W_regularizer: 权重上的正则化
W_constraint: 权重上的约束项
mask_zero: 布尔值,确定是否将输入中的‘0’看作是应该被忽略的‘填充’(padding)值,该参数在使用递归层处理变长输入时有用。设置为True的话,模型中后续的层必须都支持masking,否则会抛出异常。如果该值为True,则下标0在字典中不可用,input_dim应设置为|vocabulary| + 1
input_length: 当输入序列的长度固定时,该值为其长度。如果要在该层后接Flatten层,然后接Dense层,则必须指定该参数,否则Dense层的输出维度无法自动推断。
dropout: 0-1之间的浮点数,控制需要断开的神经元的比例
循环层
LSTM , GRU , simpleRNN 参数类似都如下
simpleRNN: keras.layers.simpleRNN()
output_dim: 输出的维度
init: 权重初始化函数
inner_init: 内部单元的初始化函数
activation: 激活函数
W_regularizer:权重上的正则项
U_regularizer: 循环核上的正则项
b_regularizer: 偏置项上的正则项
dropout_W: 0-1之间的浮点数,控制输入线性变换的神经元断开比例
dropout_U: 0-1之间的浮点数,控制循环状态的线性变换的神经元断开比例
激活函数一般有:‘relu','sigmoid','tanh','linear',softmax’
网友评论