1.sess.run()
sess.run([a,b]),同时运行ab两个函数
sess.run(a)
sess.run(b)先运行a再运行b
https://www.cnblogs.com/cloud-ken/p/9092377.html
这个不知道具体影响,后来认真分析可以
2.return_sequence
lstm rnn模型的独特参数,表达是否返回所有细胞层的输出,默认为false,即不反回所有的,只返回最后一个。
3.keras application模块
keras的application模块提供了几款训练好的模型,我们要用的时候可以直接用就行了,Xception、VGG16、VGG19、ResNet50、InceptionV3。注意tensorflow的后端问题,dim_ordering,也就是维度顺序,比方说一张224*224的彩色图片,theano的维度顺序是(3,224,224),即通道维在前。而tf的维度顺序是(224,224,3),即通道维在后。
4.keras ImageDataGenerator()
ImageDataGenerator()用于生成图像,同时也可以在batch中对数据进行增强,扩充数据集大小,增强模型的泛化能力。比如进行旋转,变形,归一化等等。
宏观上理解keras
5.keras的两种模型构建模式
sequential和model式
sequential比较好理解,就是贯序模式
model比sequential效果好但复杂
6.keras.preprocessing.sequence
pad_sequences(sequences, maxlen, padding=’pre’, truncating=’pre’, value=0.) 将序列填充到maxlen长度,padding取值有pre|post,value指定用何值填充的值。经常用到文本截断和补足当中。
7.keras embedding
embedding层只能作为作为模型的第一层,是对输入的截取和截断的。基本用法为keras.layers.embeddings.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_regularizer=None, embeddings_constraint=None, mask_zero=False, input_length=None),找几个重要的参数介绍一下,input_dim输入维度,比如说已知文本包含的词典单词数量为20,输入维度为20,outputdim输出维度,输出你想输出的维度,这个值自己指定,没有固定套路能满足词量的要求就好了,input_length,输入句子的实际长度。
8.keras.layers.recurrent.LSTM
用法如下,注意参数的含义:model.add(LSTM(100, dropout=0.2, recurrent_dropout=0.2))
第一个dropout是x和hidden之间的dropout,第二个是hidden-hidden之间的dropout
9.model.predict()
返回的是由array组成的结果列表,取具体值得时候用两个[][]。
10.pandas.values
假设我们读入了一个dataframe现在要遍历其中的值,我们可能想用colume和iloc进行定位取数,但这种方法比较繁琐,有的时候对基础知识掌握不扎实,很容易报错。.values方法给我们提供一个可行的思路它将dataframe的值转换为ndarry,而你可以像array一样去遍历它,十分方便。
2019-5-30补充,这个使用过程中要注意values后边不能加()。
11.df.shift()
移动数据,看到整理数据时候用到过,需严谨的逻辑。
df.shift()
12.列表可以和列表相加,相当于append方法
比如list1 = ['1','2'] list1 + ['3'] = ['1','2','3']
13.df.columns()
可以用columns的名,可以用固定的列名,也可以用索引,索引从1开始。
网友评论