深度学习初学者,keras相关的问题,以下代码看不懂,能不能给解释下?

代码如下,这是一个处理图片的深度学习代码,我不明白的是,在这段代码中有很多重复的语句,这是为什么呢?我把重复的都删除以后,输出结果和之前的发生了变化,求大神给讲解一下
能不能给讲解一下,哪几行是哪个层,这个代码看的好乱啊,完全分不清楚哪层是哪的,谢谢啦

layers = [
        kr.layers.SeparableConv2D(64, 3, padding="same", depth_multiplier=16, input_shape=(32, 32, 3)),

        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15), 
        kr.layers.MaxPooling2D(), #池化层
        kr.layers.Conv2D(128, 3, padding="same"), 
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(),
        kr.layers.Conv2D(128, 3, padding="same"),
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(),
        kr.layers.Conv2D(128, 3, padding="same"),
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(),
        kr.layers.Conv2D(256, 2, padding="same"),
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(), 
        kr.layers.Flatten(),               
        kr.layers.Dense(128),             
        kr.layers.Dropout(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.Dense(32),             
        kr.layers.Dropout(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.Dense(1, activation="sigmoid")   
    ]

Dense 是全连接层
Conv2D 是二维卷积层(这是卷积网络的核心)
MaxPooling2D 这是池化(根据区块只保留最大的值)
Dropout BatchNormalization 是防止过拟合的
LeakyReLU 这是激活层

这可不是“重复代码”,而是把很多层叠加起来构成一个完整的神经网络。

有什么不明白得可以具体问,我虽然不可能在一个回答的篇幅里给你说清楚,但是我可以给你一些相关的书。

留下email、采纳回答可以发给你。我也是花了不少积分搜集的。

神经网络就是由许多层组成的,虽然代码是重复的,但是在结构中构成了前后的层次

楼主属于纯小白级别的。建议去看看最基础的教程。keras.layer 里面封装了每一层的实现方法。这一步也是在构建神经网络计算图。例如这一层是全连接层就kr.layers.Dense。神经网络中不同层相同结构是正常的,那么有的层代码相同有啥关系。