|
|
# 建立神经网络
|
|
|
|
|
|
import tensorflow as tf
|
|
|
|
|
|
|
|
|
# 网络结构定义
|
|
|
# 输入参数:images,image batch、4D tensor、tf.float32、[batch_size, width, height, channels]
|
|
|
# 返回参数:logits, float、 [batch_size, n_classes]
|
|
|
def inference(images, batch_size, n_classes):
|
|
|
# 构建一个简单的卷积神经网络,其中(卷积+池化层)x2,全连接层x2,最后一个softmax层做分类。
|
|
|
|
|
|
# 卷积层1
|
|
|
# 64个3x3的卷积核(3通道),padding=’SAME’,表示padding后卷积的图与原图尺寸一致,激活函数relu()
|
|
|
# tf.variable_scope 可以让变量有相同的命名,包括tf.get_variable得到的变量,还有tf.Variable变量
|
|
|
# 它返回的是一个用于定义创建variable(层)的op的上下文管理器。
|
|
|
with tf.compat.v1.variable_scope('conv1') as scope:
|
|
|
# tf.truncated_normal截断的产生正态分布的随机数,即随机数与均值的差值若大于两倍的标准差,则重新生成。
|
|
|
# shape,生成张量的维度
|
|
|
# mean,均值
|
|
|
# stddev,标准差
|
|
|
weights = tf.Variable(tf.random.truncated_normal(shape=[3, 3, 3, 64], stddev=1.0, dtype=tf.float32),
|
|
|
name='weights', dtype=tf.float32)
|
|
|
|
|
|
# 偏置biases计算
|
|
|
# shape表示生成张量的维度
|
|
|
# 生成初始值为0.1的偏执biases
|
|
|
biases = tf.Variable(tf.constant(value=0.1, dtype=tf.float32, shape=[64]),
|
|
|
name='biases', dtype=tf.float32)
|
|
|
|
|
|
# 卷积层计算
|
|
|
# 输入图片x和所用卷积核w
|
|
|
# x是对输入的描述,是一个4阶张量:
|
|
|
# 比如:[batch,5,5,3]
|
|
|
# 第一阶给出一次喂入多少张图片也就是batch
|
|
|
# 第二阶给出图片的行分辨率
|
|
|
# 第三阶给出图片的列分辨率
|
|
|
# 第四阶给出输入的通道数
|
|
|
# w是对卷积核的描述,也是一个4阶张量:
|
|
|
# 比如:[3,3,3,16]
|
|
|
# 第一阶第二阶分别给出卷积行列分辨率
|
|
|
# 第三阶是通道数
|
|
|
# 第四阶是有多少个卷积核
|
|
|
# strides卷积核滑动步长:[1,1,1,1]
|
|
|
# 第二阶第三阶表示横向纵向滑动的步长
|
|
|
# 第一和第四阶固定为1
|
|
|
# 使用0填充,所以padding值为SAME
|
|
|
conv = tf.nn.conv2d(images, weights, strides=[1, 1, 1, 1], padding='SAME')
|
|
|
|
|
|
# 非线性激活
|
|
|
# 对卷积后的conv1添加偏执,通过relu激活函数
|
|
|
pre_activation = tf.nn.bias_add(conv, biases)
|
|
|
|
|
|
conv1 = tf.nn.relu(pre_activation, name=scope.name)
|
|
|
|
|
|
# 池化层1
|
|
|
# 3x3最大池化,步长strides为2,池化后执行lrn()操作,局部响应归一化,对训练有利。
|
|
|
# 最大池化层计算
|
|
|
# x是对输入的描述,是一个四阶张量:
|
|
|
# 比如:[batch,28,28,6]
|
|
|
# 第一阶给出一次喂入多少张图片batch
|
|
|
# 第二阶给出图片的行分辨率
|
|
|
# 第三阶给出图片的列分辨率
|
|
|
# 第四阶输入通道数
|
|
|
# 池化核大小2*2的
|
|
|
# 行列步长都是2
|
|
|
# 使用SAME的padding
|
|
|
with tf.compat.v1.variable_scope('pooling1_lrn') as scope:
|
|
|
pool1 = tf.nn.max_pool(conv1, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1], padding='SAME', name='pooling1')
|
|
|
|
|
|
# 局部响应归一化函数tf.nn.lrn
|
|
|
norm1 = tf.nn.lrn(pool1, depth_radius=4, bias=1.0, alpha=0.001 / 9.0, beta=0.75, name='norm1')
|
|
|
|
|
|
# 卷积层2
|
|
|
# 16个3x3的卷积核(16通道),padding=’SAME’,表示padding后卷积的图与原图尺寸一致,激活函数relu()
|
|
|
with tf.compat.v1.variable_scope('conv2') as scope:
|
|
|
weights = tf.Variable(tf.random.truncated_normal(shape=[3, 3, 64, 16], stddev=0.1, dtype=tf.float32),
|
|
|
name='weights', dtype=tf.float32)
|
|
|
|
|
|
biases = tf.Variable(tf.constant(value=0.1, dtype=tf.float32, shape=[16]),
|
|
|
name='biases', dtype=tf.float32)
|
|
|
|
|
|
conv = tf.nn.conv2d(norm1, weights, strides=[1, 1, 1, 1], padding='SAME')
|
|
|
|
|
|
pre_activation = tf.nn.bias_add(conv, biases)
|
|
|
|
|
|
conv2 = tf.nn.relu(pre_activation, name='conv2')
|
|
|
|
|
|
# 池化层2
|
|
|
# 3x3最大池化,步长strides为2,池化后执行lrn()操作,
|
|
|
# pool2 and norm2
|
|
|
with tf.compat.v1.variable_scope('pooling2_lrn') as scope:
|
|
|
norm2 = tf.nn.lrn(conv2, depth_radius=4, bias=1.0, alpha=0.001 / 9.0, beta=0.75, name='norm2')
|
|
|
|
|
|
pool2 = tf.nn.max_pool(norm2, ksize=[1, 3, 3, 1], strides=[1, 1, 1, 1], padding='SAME', name='pooling2')
|
|
|
|
|
|
# 全连接层3
|
|
|
# 128个神经元,将之前pool层的输出reshape成一行,激活函数relu()
|
|
|
with tf.compat.v1.variable_scope('local3') as scope:
|
|
|
# 函数的作用是将tensor变换为参数shape的形式。 其中shape为一个列表形式,特殊的一点是列表中可以存在-1。
|
|
|
# -1代表的含义是不用我们自己指定这一维的大小,函数会自动计算,但列表中只能存在一个-1。
|
|
|
reshape = tf.reshape(pool2, shape=[batch_size, -1])
|
|
|
|
|
|
# get_shape返回的是一个元组
|
|
|
dim = reshape.get_shape()[1].value
|
|
|
|
|
|
weights = tf.Variable(tf.random.truncated_normal(shape=[dim, 128], stddev=0.005, dtype=tf.float32),
|
|
|
name='weights', dtype=tf.float32)
|
|
|
|
|
|
biases = tf.Variable(tf.constant(value=0.1, dtype=tf.float32, shape=[128]),
|
|
|
name='biases', dtype=tf.float32)
|
|
|
|
|
|
local3 = tf.nn.relu(tf.matmul(reshape, weights) + biases, name=scope.name)
|
|
|
|
|
|
# 全连接层4
|
|
|
# 128个神经元,激活函数relu()
|
|
|
with tf.compat.v1.variable_scope('local4') as scope:
|
|
|
weights = tf.Variable(tf.random.truncated_normal(shape=[128, 128], stddev=0.005, dtype=tf.float32),
|
|
|
name='weights', dtype=tf.float32)
|
|
|
|
|
|
biases = tf.Variable(tf.constant(value=0.1, dtype=tf.float32, shape=[128]),
|
|
|
name='biases', dtype=tf.float32)
|
|
|
|
|
|
local4 = tf.nn.relu(tf.matmul(local3, weights) + biases, name='local4')
|
|
|
|
|
|
# dropout层
|
|
|
# with tf.variable_scope('dropout') as scope:
|
|
|
# drop_out = tf.nn.dropout(local4, 0.8)
|
|
|
|
|
|
# Softmax回归层
|
|
|
# 将前面的FC层输出,做一个线性回归,计算出每一类的得分,在这里是2类,所以这个层输出的是两个得分。
|
|
|
with tf.compat.v1.variable_scope('softmax_linear') as scope:
|
|
|
weights = tf.Variable(tf.random.truncated_normal(shape=[128, n_classes], stddev=0.005, dtype=tf.float32),
|
|
|
name='softmax_linear', dtype=tf.float32)
|
|
|
|
|
|
biases = tf.Variable(tf.constant(value=0.1, dtype=tf.float32, shape=[n_classes]),
|
|
|
name='biases', dtype=tf.float32)
|
|
|
|
|
|
softmax_linear = tf.add(tf.matmul(local4, weights), biases, name='softmax_linear')
|
|
|
|
|
|
return softmax_linear
|
|
|
|
|
|
|
|
|
# loss计算
|
|
|
# 传入参数:logits,网络计算输出值。labels,真实值,在这里是0或者1
|
|
|
# 返回参数:loss,损失值
|
|
|
def losses(logits, labels):
|
|
|
with tf.compat.v1.variable_scope('loss') as scope:
|
|
|
# 传入的logits为神经网络输出层的输出,shape为[batch_size,num_classes],
|
|
|
# 传入的label为一个一维的vector,长度等于batch_size,
|
|
|
# 每一个值的取值区间必须是[0,num_classes),其实每一个值就是代表了batch中对应样本的类别
|
|
|
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits, labels=labels,
|
|
|
name='xentropy_per_example')
|
|
|
|
|
|
# tf.reduce_mean 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,
|
|
|
# 主要用作降维或者计算tensor(图像)的平均值。
|
|
|
loss = tf.reduce_mean(cross_entropy, name='loss')
|
|
|
|
|
|
# tf.summary.scalar用来显示标量信息
|
|
|
# 一般在画loss,accuary时会用到这个函数。
|
|
|
tf.summary.scalar(scope.name + '/loss', loss)
|
|
|
|
|
|
return loss
|
|
|
|
|
|
|
|
|
# loss损失值优化
|
|
|
# 输入参数:loss。learning_rate,学习速率。
|
|
|
# 返回参数:train_op,训练op,这个参数要输入sess.run中让模型去训练。
|
|
|
def trainning(loss, learning_rate):
|
|
|
with tf.name_scope('optimizer'):
|
|
|
# tf.train.AdamOptimizer()函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。
|
|
|
# learning_rate:张量或浮点值。学习速率
|
|
|
optimizer = tf.compat.v1.train.AdamOptimizer(learning_rate=learning_rate)
|
|
|
|
|
|
global_step = tf.Variable(0, name='global_step', trainable=False)
|
|
|
|
|
|
# minimize() 实际上包含了两个步骤,即 compute_gradients 和 apply_gradients,
|
|
|
# 前者用于计算梯度,后者用于使用计算得到的梯度来更新对应的variable
|
|
|
train_op = optimizer.minimize(loss, global_step=global_step)
|
|
|
|
|
|
return train_op
|
|
|
|
|
|
|
|
|
# 评价/准确率计算
|
|
|
# 输入参数:logits,网络计算值。labels,标签,也就是真实值,在这里是0或者1。
|
|
|
# 返回参数:accuracy,当前step的平均准确率,也就是在这些batch中多少张图片被正确分类了。
|
|
|
def evaluation(logits, labels):
|
|
|
with tf.compat.v1.variable_scope('accuracy') as scope:
|
|
|
# tf.nn.in_top_k用于计算预测的结果和实际结果的是否相等,并返回一个bool类型的张量
|
|
|
correct = tf.nn.in_top_k(logits, labels, 1)
|
|
|
|
|
|
# tf.cast()函数的作用是执行 tensorflow 中张量数据类型转换
|
|
|
correct = tf.cast(correct, tf.float16)
|
|
|
|
|
|
# tf.reduce_mean计算张量的各个维度的元素的量
|
|
|
accuracy = tf.reduce_mean(correct)
|
|
|
|
|
|
# tf.summary.scalar用来显示标量信息
|
|
|
tf.summary.scalar(scope.name + '/accuracy', accuracy)
|
|
|
|
|
|
return accuracy
|
|
|
|
|
|
|