x = tf.placeholder(int32, [], name='x') #占位符
with tf.Session() as sess: #占位符用法
sess.run(2 * x, feed={x : 3})
tf.matmul(a, b) #矩阵乘法
tf.one_hot(labels,depth,axis)#one hot编码
tf.get_variable("W1", [x,y], initializer=tf.contrib.layers.xavier_initializer(seed=1))#tf.Variable() 每次都在创建新对象,对于get_variable()来说,对于已经创建的变量对象,就把那个对象返回,如果没有创建变量对象的话,就创建一个新的
tf.reduce_mean(input_tensor,axis=None,keep_dims=False,name=None)#计算平均值
tf.cast(x, dtype, name=None)#转换数据格式
tf.transpose()#转置
tf.argmax()#按列取最大值的索引位置
tf.equal(a, b)#判断a是否等于b
tf.reset_default_graph#函数用于清除默认图形堆栈并重置全局默认图形。
ops.reset_default_graph() #能够重新运行模型而不覆盖tf变量
tf.random_normal(shape,mean=x,stddev=y,seed=) #创建维度为shape,均值为x,标准差为y的正态分布.
tf.nn
tf.nn.sigmoid_cross_entropy_with_logits(logits = ..., labels = ...) #计算sigmoid损失函数
tf.nn.softmax_cross_entropy_with_logits(logits=...,labels=...) #计算softmax损失函数.注意logits的shape(batch_size,num_classes)
tf.nn.conv2d(X,W,strides=[1,s,s,1],padding='SAME') #给定输入X和一组过滤器W,这个函数将会自动使用W来对X进行卷积
tf.nn.max_pool(A, ksize = [1,f,f,1], strides = [1,s,s,1], padding = 'SAME') #计算池化层的最大值
tf.nn.relu(X) #计算X的ReLU激活
tf.contrib.layers
tf.contrib.layers.xavier_initializer(uniform=True,seed=None,dtype) # Xavier初始化
tf.contrib.layers.flatten(P) #将样本转为一维向量,维度为(batch_size,k)
tf.contrib.layers.fully_connected(X, num_outputs) #给定一个已经一维化了的输入X,此函数将会返回一个由全连接层计算过后的输出。
#全连接层会自动初始化权值且在训练模型的时候它也会一直参与,所以初始化参数的时候不需要专门去初始化它的权值。
tf.train
tf.train.GradientDescentOptimizer(learning_rate=).minimize(cost)#普通梯度下降
tf.train.AdamOptimizer(learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, use_locking=False),minimize(cost) #Adam优化
tf.image
tf.image.non_max_suppression(boxes,scores,max_output_size,iou_threshold=0.5,score_threshold=float('-inf'),name=None) #非最大抑制