这一节讲了使用 MNIST 数据集训练并评估一个简易前馈神经网络(feed-forward neural network)
input,output 和前两节是一样的:即划分数据集并预测图片的 label
data_sets.train 55000个图像和标签(labels),作为主要训练集。data_sets.validation 5000个图像和标签,用于迭代验证训练准确度。data_sets.test 10000个图像和标签,用于最终测试训练准确度(trained accuracy)。
主要有两个代码:
mnist.py
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist.py
构建一个全连接网络,由 2 个隐藏层,1 个 `softmax_linearv 输出构成
定义损失函数,用 `cross entropyv
定义训练时的优化器,用
GradientDescentOptimizer
定义评价函数,用
tf.nn.in_top_k
**fully_connected_feed.py **
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/fully_connected_feed.py
向
placeholder_inputs
传入batch size
,得到 image 和 label 的两个placeholder定义生成
feed_dict
的函数,key 是 placeholders,value 是 data定义
do_eval
函数,每隔 1000 个训练步骤,就对模型进行以下评估,分别作用于训练集、验证集和测试集训练时:
导入数据
得到 image 和 label 两个 placeholder
传入
mnist.inference
定义的 NN, 得到 predictions将 predictions 传给
mnist.loss
计算 lossloss 传给
mnist.training
进行优化训练再用
mnist.evaluation
评价预测值和实际值
代码中涉及到下面几个函数:
with tf.Graph().as_default():
即所有已经构建的操作都要与默认的 tf.Graph
全局实例关联起来,tf.Graph
实例是一系列可以作为整体执行的操作
summary = tf.summary.merge_all():
为了释放 TensorBoard 所使用的 events file,所有的即时数据都要在图表构建时合并至一个操作 op 中,每次运行 summary 时,都会向 events file 中写入最新的即时数据
summary_writer = tf.summary.FileWriter(FLAGS.log_dir, sess.graph):
用于写入包含了图表本身和即时数据具体值的 events file。
saver = tf.train.Saver():
就是向训练文件夹中写入包含了当前所有可训练变量值 checkpoint file
with tf.name_scope('hidden1'):
主要用于管理一个图里面的各种 op,返回的是一个以 scope_name
命名的 context manager,一个 graph 会维护一个 name_space
的堆,实现一种层次化的管理,避免各个 op 之间命名冲突。例如,如果额外使用 tf.get_variable()
定义的变量是不会被 tf.name_scope()
当中的名字所影响的
tf.nn.in_top_k(logits, labels, 1):
意思是在 K 个最有可能的预测中如果可以发现 true,就将输出标记为 correct。本文 K 为 1,也就是只有在预测是 true 时,才判定它是 correct。
共同学习,写下你的评论
评论加载中...
作者其他优质文章