由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - xiaoju 老师进来一下
相关主题
再问机器学习。。。用keras分类水木上python大坑啊: 疑Google员工把8w行Python项目用4w行Java重写了
神经网络研究的致命伤提高12306的关键在于大数据和筹划
Tf里面怎么选optimizer?围棋时兴让子,和goodbug还有另外一种赌法
Facebook的用CNN作翻译怎么性能超过RNN的我老不厚道地说一句,C的工作稳定是假的。
DL一个基础问题:菜鸟问个node.js问题
区块链真正有意义的地方是代码复用:复制粘贴是一个很好的办法,不亚于继承
闲聊:关于编程流程标题党,12306今年确实比较安静 (转载)
大家来解剖个鸵鸟再请教个关于API Gateway-micro service的问题
相关话题的讨论汇总
话题: 随机话题: xiaoju话题: sigmoid话题: cnn话题: 函数
进入Programming版参与讨论
1 (共1页)
b***d
发帖数: 288
1
刚开始学习,两个问题想学习一下,
1. “制约CNN的不是硬件而是sigmoid函数”
sigmoid函数怎么制约了CNN?
2. 网络里很多地方引入了随机数,比如在DBN中的初始场和激活函数,
为什么一定要引入随机?而实际计算过程中,epoch,batch循环时这个貌似随机数 并
不是真正的随机(每次循环时都是相同的)。
x****u
发帖数: 44466
2
你问wdong更好,他专业我是业余爱好者
1是因为sigmoid梯度消失限制了深度,relu简单粗暴的解决了问题;
2我不清楚随机在神经网络里的本质意义,似乎也没有人理论上搞出结论。感觉目前各
种随机性的引入基于经验规律多点。很多代码每次用固定种子是为了确保结果可重复。

【在 b***d 的大作中提到】
: 刚开始学习,两个问题想学习一下,
: 1. “制约CNN的不是硬件而是sigmoid函数”
: sigmoid函数怎么制约了CNN?
: 2. 网络里很多地方引入了随机数,比如在DBN中的初始场和激活函数,
: 为什么一定要引入随机?而实际计算过程中,epoch,batch循环时这个貌似随机数 并
: 不是真正的随机(每次循环时都是相同的)。

w***g
发帖数: 5958
3
这个我也不知道。太细节了。

【在 x****u 的大作中提到】
: 你问wdong更好,他专业我是业余爱好者
: 1是因为sigmoid梯度消失限制了深度,relu简单粗暴的解决了问题;
: 2我不清楚随机在神经网络里的本质意义,似乎也没有人理论上搞出结论。感觉目前各
: 种随机性的引入基于经验规律多点。很多代码每次用固定种子是为了确保结果可重复。

g****t
发帖数: 31659
4
personal experience:
指数函数代价太高。我很少在数值计算中用。查表解决快非常多。
早期的计算器,乘法用对数算,我怀疑也是查表算的。
http://www.convict.lu/Jeunes/ultimate_stuff/exp_ln_2.htm
http://pdfs.semanticscholar.org/35d3/2b272879a2018a2d33d982639d4be489f789.
pdf

【在 w***g 的大作中提到】
: 这个我也不知道。太细节了。
b***d
发帖数: 288
5
谢谢

【在 x****u 的大作中提到】
: 你问wdong更好,他专业我是业余爱好者
: 1是因为sigmoid梯度消失限制了深度,relu简单粗暴的解决了问题;
: 2我不清楚随机在神经网络里的本质意义,似乎也没有人理论上搞出结论。感觉目前各
: 种随机性的引入基于经验规律多点。很多代码每次用固定种子是为了确保结果可重复。

l*****z
发帖数: 3022
6
Relu 死起来也可以死的很难看
dropout有啥理论基础?感觉很诡异

【在 x****u 的大作中提到】
: 你问wdong更好,他专业我是业余爱好者
: 1是因为sigmoid梯度消失限制了深度,relu简单粗暴的解决了问题;
: 2我不清楚随机在神经网络里的本质意义,似乎也没有人理论上搞出结论。感觉目前各
: 种随机性的引入基于经验规律多点。很多代码每次用固定种子是为了确保结果可重复。

n******r
发帖数: 4455
7
Drop out就是一种regularization的方式,随机断掉的方式可以让节点之间的耦合度降
低,减少overfit

【在 l*****z 的大作中提到】
: Relu 死起来也可以死的很难看
: dropout有啥理论基础?感觉很诡异

n******r
发帖数: 4455
8
随机一方面是为了打破对称性,让Back Propagation能算下去
另一方面GD本质是是空间的搜索,随机起始点搞多次是比较常见的搞法

【在 x****u 的大作中提到】
: 你问wdong更好,他专业我是业余爱好者
: 1是因为sigmoid梯度消失限制了深度,relu简单粗暴的解决了问题;
: 2我不清楚随机在神经网络里的本质意义,似乎也没有人理论上搞出结论。感觉目前各
: 种随机性的引入基于经验规律多点。很多代码每次用固定种子是为了确保结果可重复。

1 (共1页)
进入Programming版参与讨论
相关主题
再请教个关于API Gateway-micro service的问题DL一个基础问题:
how to get the number of days between two dates in C++区块链真正有意义的地方是
问一个c的问题闲聊:关于编程流程
boost的deadline_timer要多脑残才能整出来?大家来解剖个鸵鸟
再问机器学习。。。用keras分类水木上python大坑啊: 疑Google员工把8w行Python项目用4w行Java重写了
神经网络研究的致命伤提高12306的关键在于大数据和筹划
Tf里面怎么选optimizer?围棋时兴让子,和goodbug还有另外一种赌法
Facebook的用CNN作翻译怎么性能超过RNN的我老不厚道地说一句,C的工作稳定是假的。
相关话题的讨论汇总
话题: 随机话题: xiaoju话题: sigmoid话题: cnn话题: 函数