L****8 发帖数: 3938 | 1 就是看绝对值大小
tensorflow 里面有吗? |
w***g 发帖数: 5958 | 2 tf.abs再maxpool不就行了。Relu出来都是正的。
【在 L****8 的大作中提到】 : 就是看绝对值大小 : tensorflow 里面有吗?
|
L****8 发帖数: 3938 | 3 我的目的就是去掉relu 换成 max(abs(X)) pooling 然后保留正负号
【在 w***g 的大作中提到】 : tf.abs再maxpool不就行了。Relu出来都是正的。
|
w***g 发帖数: 5958 | 4 那这样:
absX = tf.abs(X)
mp, argmax = tf.nn.max_pool_with_argmax(absX, ...)
然后再通过argmax把X里的对应项取出来用。
据tf的文档,argmax是flat的,所以就是先把X也flatten了,
然后用tf.gather把flat_X里对应argmax的项取出来,然后再
reshape成mp的形状就行。
【在 L****8 的大作中提到】 : 我的目的就是去掉relu 换成 max(abs(X)) pooling 然后保留正负号
|
L****8 发帖数: 3938 | 5 这些操作 可以保证 自动 back-propagate gradient ?
【在 w***g 的大作中提到】 : 那这样: : absX = tf.abs(X) : mp, argmax = tf.nn.max_pool_with_argmax(absX, ...) : 然后再通过argmax把X里的对应项取出来用。 : 据tf的文档,argmax是flat的,所以就是先把X也flatten了, : 然后用tf.gather把flat_X里对应argmax的项取出来,然后再 : reshape成mp的形状就行。
|
w***g 发帖数: 5958 | 6 能,放手去干。
【在 L****8 的大作中提到】 : 这些操作 可以保证 自动 back-propagate gradient ?
|