TensorFlow学习3:feed_dict

创建了各种形式的常量和变量后,但TensorFlow 同样还支持占位符。占位符并没有初始值,它只会分配必要的内存。在会话中,占位符可以使用 feed_dict 馈送数据。


feed_dict是一个字典,在字典中需要给出每一个用到的占位符的取值。在训练神经网络时需要每次提供一个批量的训练样本,如果每次迭代选取的数据要通过常量表示,那么TensorFlow 的计算图会非常大。因为每增加一个常量,TensorFlow 都会在计算图中增加一个结点。所以说拥有几百万次迭代的神经网络会拥有极其庞大的计算图,而占位符却可以解决这一点,它只会拥有占位符这一个结点。

w1=tf.Variable(tf.random_normal([1,2],stddev=1,seed=1))  
  
#因为需要重复输入x,而每建一个x就会生成一个结点,计算图的效率会低。所以使用占位符  
x=tf.placeholder(tf.float32,shape=(1,2))  
x1=tf.constant([[0.7,0.9]])  
  
a=x+w1  
b=x1+w1  
  
sess=tf.Session()  
sess.run(tf.global_variables_initializer())  
  
#运行y时将占位符填上,feed_dict为字典,变量名不可变  
y_1=sess.run(a,feed_dict={x:[[0.7,0.9]]})  
y_2=sess.run(b)  
print(y_1)  
print(y_2)  
sess.close  
 
 
[[-0.11131823  2.38459873]]
[[-0.11131823  2.38459873]]
# Solution is available in the other "solution.py" tab
import tensorflow as tf

softmax_data = [0.7, 0.2, 0.1]
one_hot_data = [1.0, 0.0, 0.0]

softmax = tf.placeholder(tf.float32)
one_hot = tf.placeholder(tf.float32)

cn = -tf.reduce_sum(tf.multiply(one_hot,tf.log(softmax)))

sess = tf.Session()

y = sess.run(cn,feed_dict={softmax:softmax_data,one_hot:one_hot_data})
print(y)

# TODO: Print cross entropy from session
0.356675



猜你喜欢

转载自blog.csdn.net/softdiamonds/article/details/80333877