关于tensorflow的一个问题

用tensorflow构建一个具有五层全连接层的网络,网络每一层神经元数量为[784,512,256,128,10]输入的数据为mnist数据集前十张图,打印输出结果。


#全连接层函数

def fcn_layer(
    inputs,    #输入数据
    input_dim, #输入层神经元数量
    output_dim,#输出层神经元数量
    activation =None): #激活函数
    
    W = tf.Variable(tf.truncated_normal([input_dim,output_dim],stddev = 0.1))
        #以截断正态分布的随机初始化W
    b = tf.Variable(tf.zeros([output_dim]))
        #以0初始化b
    XWb = tf.matmul(inputs,W)+b # Y=WX+B
    
    if(activation==None): #默认不使用激活函数
        outputs =XWb
    else:
        outputs = activation(XWb) #代入参数选择的激活函数
    return outputs #返回
#各层神经元数量设置
H1_NN = 256
H2_NN = 64
H3_NN = 32

#构建输入层
x = tf.placeholder(tf.float32,[None,784],name='X')
y = tf.placeholder(tf.float32,[None,10],name='Y')
#构建隐藏层
h1 = fcn_layer(x,784,H1_NN,tf.nn.relu)
h2 = fcn_layer(h1,H1_NN,H2_NN,tf.nn.relu)
h3 = fcn_layer(h2,H2_NN,H3_NN,tf.nn.relu)
#构建输出层
forward = fcn_layer(h3,H3_NN,10,None)
pred = tf.nn.softmax(forward)#输出层分类应用使用softmax当作激活函数