tensorflow中如何取消反向传播?

我在微调网络,比如我想取消第三层卷积层的反向传播,就是第一层第二层不更新,只更新后面的,caffe配置文件可以设置,tensorflow怎么改的呢?
比如:我尝试 b=tf.Variable(0.,name="b",trainable=True) ....... b.__setattriabute('trainable',False) 提示没有这个属性

init(initial_value=None, trainable=True, collections=None, validate_shape=True, caching_device=None, name=None, variable_def=None, dtype=None, expected_shape=None, import_scope=None)可以考虑这个吗

调了整层之后你把上一次的前面两层的权值变成以前的,不就行了?

这样不是每次迭代都要恢复么,请问要怎么做到啊,谢谢您