L****8 发帖数: 3938 | |
d*****n 发帖数: 754 | 2 cnn 可以,但深不了了
【在 L****8 的大作中提到】 : 比如 只有100副图 512x512 分两类
|
w***g 发帖数: 5958 | 3 看是什么图. 我现在搞的, 有时候就几十个图也能弄.
还有你可能得把网络变小点. 比如原来128 channel的, 变成64甚至32.
如果只是分两类, 图片区分又比较明显, 也不需要多深的网络.
【在 L****8 的大作中提到】 : 比如 只有100副图 512x512 分两类
|
L****8 发帖数: 3938 | 4 我用 64 64 128 128 2 这种 结构
加上 data argumentation
目前看还可以
主要是数据少用CNN 怕被人鄙视
【在 w***g 的大作中提到】 : 看是什么图. 我现在搞的, 有时候就几十个图也能弄. : 还有你可能得把网络变小点. 比如原来128 channel的, 变成64甚至32. : 如果只是分两类, 图片区分又比较明显, 也不需要多深的网络.
|
C*****5 发帖数: 8812 | 5 可以试试SVM等传统算法。deep learning 的优点主要体现在数据量大的时候。数据量
少有时候还真不一定比老方法好。
512*512够搞好多层了,尤其是做Same padding不搞Max pool多少层都可以。100个数据
就不要搞SGD了,一个batch完事儿了。可以搞点jitter,反转,调brightness之类的多
整点数据。
【在 L****8 的大作中提到】 : 比如 只有100副图 512x512 分两类
|
L****8 发帖数: 3938 | 6 CNN的竞争力是pooling
【在 C*****5 的大作中提到】 : 可以试试SVM等传统算法。deep learning 的优点主要体现在数据量大的时候。数据量 : 少有时候还真不一定比老方法好。 : 512*512够搞好多层了,尤其是做Same padding不搞Max pool多少层都可以。100个数据 : 就不要搞SGD了,一个batch完事儿了。可以搞点jitter,反转,调brightness之类的多 : 整点数据。
|
c*******9 发帖数: 9032 | 7 数据少效果好才牛逼。
data argumentation做了什么?
【在 L****8 的大作中提到】 : 我用 64 64 128 128 2 这种 结构 : 加上 data argumentation : 目前看还可以 : 主要是数据少用CNN 怕被人鄙视
|
C*****5 发帖数: 8812 | 8 很多情况下Max pool有没有都没差
【在 L****8 的大作中提到】 : CNN的竞争力是pooling
|
c*******9 发帖数: 9032 | 9 举例?
【在 C*****5 的大作中提到】 : 很多情况下Max pool有没有都没差
|
L****8 发帖数: 3938 | 10 那是因为数据多
MNIST 没有pooling 你试试
【在 C*****5 的大作中提到】 : 很多情况下Max pool有没有都没差
|
|
|
L****8 发帖数: 3938 | |
d*****n 发帖数: 754 | 12 cnn 可以,但深不了了
【在 L****8 的大作中提到】 : 比如 只有100副图 512x512 分两类
|
w***g 发帖数: 5958 | 13 看是什么图. 我现在搞的, 有时候就几十个图也能弄.
还有你可能得把网络变小点. 比如原来128 channel的, 变成64甚至32.
如果只是分两类, 图片区分又比较明显, 也不需要多深的网络.
【在 L****8 的大作中提到】 : 比如 只有100副图 512x512 分两类
|
L****8 发帖数: 3938 | 14 我用 64 64 128 128 2 这种 结构
加上 data argumentation
目前看还可以
主要是数据少用CNN 怕被人鄙视
【在 w***g 的大作中提到】 : 看是什么图. 我现在搞的, 有时候就几十个图也能弄. : 还有你可能得把网络变小点. 比如原来128 channel的, 变成64甚至32. : 如果只是分两类, 图片区分又比较明显, 也不需要多深的网络.
|
C*****5 发帖数: 8812 | 15 可以试试SVM等传统算法。deep learning 的优点主要体现在数据量大的时候。数据量
少有时候还真不一定比老方法好。
512*512够搞好多层了,尤其是做Same padding不搞Max pool多少层都可以。100个数据
就不要搞SGD了,一个batch完事儿了。可以搞点jitter,反转,调brightness之类的多
整点数据。
【在 L****8 的大作中提到】 : 比如 只有100副图 512x512 分两类
|
L****8 发帖数: 3938 | 16 CNN的竞争力是pooling
【在 C*****5 的大作中提到】 : 可以试试SVM等传统算法。deep learning 的优点主要体现在数据量大的时候。数据量 : 少有时候还真不一定比老方法好。 : 512*512够搞好多层了,尤其是做Same padding不搞Max pool多少层都可以。100个数据 : 就不要搞SGD了,一个batch完事儿了。可以搞点jitter,反转,调brightness之类的多 : 整点数据。
|
c*******9 发帖数: 9032 | 17 数据少效果好才牛逼。
data argumentation做了什么?
【在 L****8 的大作中提到】 : 我用 64 64 128 128 2 这种 结构 : 加上 data argumentation : 目前看还可以 : 主要是数据少用CNN 怕被人鄙视
|
C*****5 发帖数: 8812 | 18 很多情况下Max pool有没有都没差
【在 L****8 的大作中提到】 : CNN的竞争力是pooling
|
c*******9 发帖数: 9032 | 19 举例?
【在 C*****5 的大作中提到】 : 很多情况下Max pool有没有都没差
|
L****8 发帖数: 3938 | 20 那是因为数据多
MNIST 没有pooling 你试试
【在 C*****5 的大作中提到】 : 很多情况下Max pool有没有都没差
|
|
|
l*****z 发帖数: 3022 | 21 可以每幅图搞各种转换变成20副,这样训练数据就是20倍了吧
【在 L****8 的大作中提到】 : 比如 只有100副图 512x512 分两类
|
s*****l 发帖数: 7106 | 22 如果你的图不是太特殊 你根本不要train几层layer
你用caffe 找个用imagenet train好的google net或者resnet
前面都fix 直接train最后一层 说不定已经可以了
不行就从后面多activate几层 |
L****8 发帖数: 3938 | 23 特殊图 不是自然界的图像
【在 s*****l 的大作中提到】 : 如果你的图不是太特殊 你根本不要train几层layer : 你用caffe 找个用imagenet train好的google net或者resnet : 前面都fix 直接train最后一层 说不定已经可以了 : 不行就从后面多activate几层
|
s*****l 发帖数: 7106 | 24 医学?天文?
如果你觉得Gabor那套有用 就可以试试
否则就要自己train了
【在 L****8 的大作中提到】 : 特殊图 不是自然界的图像
|
L****8 发帖数: 3938 | 25 总算解决问题了
发明了一个简单的unsupervised learning算法
只需要supervised learning 最后一层分类就可以了
【在 L****8 的大作中提到】 : 比如 只有100副图 512x512 分两类
|