问题描述
-
在基于tensorflow和keras框架的网络建模中,通过编译工具的Debug功能我们会发现网络中数据流的shape为(None, d1, d2, d3, ...) ,即shape的第一个位置为None,它代表网络可以一次接收batch_size个数据,便于数据流动和网络计算; -
但是,对张量使用keras.backend.mean() 方法求均值(如计算两个张量的MSE过程中)后,计算结果的shape变成了() ,而不是(None, 1) ;
"""
input_ : 编码前的输入张量, 假设其Debug中的shape为(None, 120, 10)
output_ : 解码后的输出张量, 假设其Debug中的shape为(None, 120, 10)
"""
from keras import backend as K
a = K.square(input_ - output_)
b = K.mean(a)
- 这可能会导致:当输入数据的个数一定时,网络输出数据的个数会随着参数batch_size大小的改变而发生变化:
假设搭建了一个基于重构方法的模型,输入20个数据,我希望网络能够输出20个重构loss值(MSE)。但是,当batch_size=2时,网络输出10个loss值;当batch_size=4时,网络输出5个loss值。
原因分析:
当张量KerasTensor数据的shape为() 时,表明该数据是一个标量,正是因为它的shape不对,导致无论batch_size大小被设为多少,该轮batch都只会产生一个结果。
解决方案:
解决思路很简单,就是将shape由() 改成(None, 1)
操作方式:
import tensorflow as tf
from keras import backend as K
input_ = tf.reshape(input_, [-1, 120 * 10])
output_ = tf.reshape(output_, [-1, 120 * 10])
a = K.square(input_ - output_)
b = K.mean(a, axis=-1, keepdims=True)
|