创建了各种形式的常量和变量后,但TensorFlow 同样还支持占位符。占位符并没有初始值,它只会分配必要的内存。在会话中,占位符可以使用 feed_dict 馈送数据。
feed_dict是一个字典,在字典中需要给出每一个用到的占位符的取值。在训练神经网络时需要每次提供一个批量的训练样本,如果每次迭代选取的数据要通过常量表示,那么TensorFlow 的计算图会非常大。因为每增加一个常量,TensorFlow 都会在计算图中增加一个结点。所以说拥有几百万次迭代的神经网络会拥有极其庞大的计算图,而占位符却可以解决这一点,它只会拥有占位符这一个结点。
w1=tf.Variable(tf.random_normal([1,2],stddev=1,seed=1)) #因为需要重复输入x,而每建一个x就会生成一个结点,计算图的效率会低。所以使用占位符 x=tf.placeholder(tf.float32,shape=(1,2)) x1=tf.constant([[0.7,0.9]]) a=x+w1 b=x1+w1 sess=tf.Session() sess.run(tf.global_variables_initializer()) #运行y时将占位符填上,feed_dict为字典,变量名不可变 y_1=sess.run(a,feed_dict={x:[[0.7,0.9]]}) y_2=sess.run(b) print(y_1) print(y_2) sess.close
[[-0.11131823 2.38459873]] [[-0.11131823 2.38459873]]
# Solution is available in the other "solution.py" tab import tensorflow as tf softmax_data = [0.7, 0.2, 0.1] one_hot_data = [1.0, 0.0, 0.0] softmax = tf.placeholder(tf.float32) one_hot = tf.placeholder(tf.float32) cn = -tf.reduce_sum(tf.multiply(one_hot,tf.log(softmax))) sess = tf.Session() y = sess.run(cn,feed_dict={softmax:softmax_data,one_hot:one_hot_data}) print(y) # TODO: Print cross entropy from session
0.356675