由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
EE版 - Deep learning现状和未来
相关主题
FPGA-based DNNs (转载)图像处理算法还有前途吗
想了解一下实际工作中需要解决的 NP-complete 问题?求推荐硬件大牛名单
请教图像识别的人工智能算法AI和deep learning芯片领域好文一片 (转载)
招 Human-Robot Interaction(HRI),Affective Computing,Computer Vision,NPL的 技术方向人才deep learning到底是个什么
老师问我愿不愿意搞neural network?关于搞ML刷数据的职业前途
神经网络到底是真的有用的技术还是伪科学?恭喜开版,发个刚看到的好玩的machine learning的图
请教最流行maching learing算法有哪些google有没有公开自己的deep learning infrastructure?
qcom vs nvda on deeping learing我知道的吴恩达
相关话题的讨论汇总
话题: deep话题: learning话题: 参数话题: 棋谱话题: 数据
进入EE版参与讨论
1 (共1页)
j****q
发帖数: 12
1
最近阿法狗炒的如此热,EE的牛人请介绍下deep learning主要的优势还有局限。
m*****h
发帖数: 2292
2
需要big data做大规模training
training后目前的实效非常好,这是最大的优势,但目前理论基础并没有建立起来,还
解释不了为什么它的效果好
局限就是如果没有big data做大规模training,它就没有优势了

【在 j****q 的大作中提到】
: 最近阿法狗炒的如此热,EE的牛人请介绍下deep learning主要的优势还有局限。
j****q
发帖数: 12
3
一般需要多大规模的data?比如阿法狗需要多少棋谱?还有对于data有什么要求,试验
数据还是模拟数据?

【在 m*****h 的大作中提到】
: 需要big data做大规模training
: training后目前的实效非常好,这是最大的优势,但目前理论基础并没有建立起来,还
: 解释不了为什么它的效果好
: 局限就是如果没有big data做大规模training,它就没有优势了

m*****h
发帖数: 2292
4
数据量大到目前只有google,facebook,baidu这样的公司能搞。。
他们也公开了部分数据集供学术界使用
阿法狗用了所有能用的人类棋谱。。
这个数量还是远远不够的,于是每天几百台阿法狗互下,产生新的棋谱,再用这些棋谱
来继续training,data当然是要实际数据
其实deep learning还是很好骗的,前几年有paper就用人造图片能让这类图像识别系统
完全失效。。

【在 j****q 的大作中提到】
: 一般需要多大规模的data?比如阿法狗需要多少棋谱?还有对于data有什么要求,试验
: 数据还是模拟数据?

j****q
发帖数: 12
5
如果阿法狗可以自己产生无数棋谱,是否意味着它可以在很短时间内大幅提高能力?阿
法狗互下的棋谱和人类的棋谱对于机器学习来说效果应该不同。
前几年的deep learning好像还没这么厉害,最近的主要技术突破是否有本质的提高?
比如说以前的机器很好骗,但现在只能程度更高。当然还是有局限性。

【在 m*****h 的大作中提到】
: 数据量大到目前只有google,facebook,baidu这样的公司能搞。。
: 他们也公开了部分数据集供学术界使用
: 阿法狗用了所有能用的人类棋谱。。
: 这个数量还是远远不够的,于是每天几百台阿法狗互下,产生新的棋谱,再用这些棋谱
: 来继续training,data当然是要实际数据
: 其实deep learning还是很好骗的,前几年有paper就用人造图片能让这类图像识别系统
: 完全失效。。

H***F
发帖数: 2501
6
按hinton的说法,以前神经网络名声臭大街,文章题目带神经网络的高级会议都不收。
后来他改进了方法,现在改头换面称deep learning,又热火了

如果阿法狗可以自己产生无数棋谱,是否意味着它可以在很短时间内大幅提高能力?阿
法狗互下的棋谱和人类的棋谱对于机器学习来说效果应该不同。
前几年的deep learning好像还没这么厉害,最近的主要技术突破是否有本质的提高?
比如说以前的机器很好骗,但现在只能程度更高。当然还是有局限性。

【在 j****q 的大作中提到】
: 如果阿法狗可以自己产生无数棋谱,是否意味着它可以在很短时间内大幅提高能力?阿
: 法狗互下的棋谱和人类的棋谱对于机器学习来说效果应该不同。
: 前几年的deep learning好像还没这么厉害,最近的主要技术突破是否有本质的提高?
: 比如说以前的机器很好骗,但现在只能程度更高。当然还是有局限性。

j****q
发帖数: 12
7
Hinton改进的是新的技术?还是以前不可能被实现的技术,但是因为computer的进步现
在实现成为可能?
Deep learning现在主要能解决哪些以前无法解决的问题?

【在 H***F 的大作中提到】
: 按hinton的说法,以前神经网络名声臭大街,文章题目带神经网络的高级会议都不收。
: 后来他改进了方法,现在改头换面称deep learning,又热火了
:
: 如果阿法狗可以自己产生无数棋谱,是否意味着它可以在很短时间内大幅提高能力?阿
: 法狗互下的棋谱和人类的棋谱对于机器学习来说效果应该不同。
: 前几年的deep learning好像还没这么厉害,最近的主要技术突破是否有本质的提高?
: 比如说以前的机器很好骗,但现在只能程度更高。当然还是有局限性。

O********9
发帖数: 59
8
据我理解,Deep Learning不一定需要大数据支持。他所需的训练数据量比Shallow
Network要少得多。这是因为Deep Network具有强大的表达能力。假设一个DL有L层,每
层有N个节点。他的参数只有LN个。但是同样表达能力的Shallow Network需要N^L个节
点。这意味着训练数据量是O(LN)。这点类似于与或门电路。一个3层的电路(A+B)*(C+D
)*(E+F)展开有2^3=8项。L层的电路(每层N个或门)展开有N^L项。
Deep Network训练的问题是它的目标函数是一个复杂的非线性函数,有很多局部最优点
,但不是全剧最优。所以用Gradient Decent更新参数的时候,很容易陷入局部最优点
出不来。而且越靠近网络前端的参数的导数越小,所以前几层收敛非常慢。Deep
Learning提出用unsupervised learning的方法先初始化网络参数,然后再用
supervised learning调节参数,使之收敛。这其中的思想是,我们先用unsupervised
learning的方法学习先验概率P(X)的结构(X是网络输入),然后再用supervised
learning的方法学习似然函数P(Y|X)的结构(Y是网络输出)。在很多问题中,P(Y|X)
的结构类似于P(X),所以前者对后者是有帮助的。举个例子,在图像识别中,
unsupervised learning会从图像中抽象出很多feature,比如线条,轮廓。越靠近前端
的feature越简单,越靠近后端的feature越复杂。然后再用这些feature来识别图像。
回到楼上的问题,Deep Learning是一种思想,即使用unsupervised learning来改进
deep network的训练。当然计算机的进步,使得工业界开始运用DNN。相比于以前的技
术,它在图像识别,语音识别,自然语言识别上有所提高。但是要说它一定比SVM,
Ensemble Methods好,那也不一定。具体到某一个问题,还要所有的方法都试一遍。
m*****h
发帖数: 2292
9
如果不需要大数据支持,google就不需要多training三个月再挑战李世石了
主要还是因为理论问题没解决,需要多大的数据量没法说(目前成功的例子都需要大数
据支持)
这个并不是表达能力决定的,目前没有什么好的基础理论来解释
更新参数的这种所谓理论离基础理论还差很远

+D
unsupervised

【在 O********9 的大作中提到】
: 据我理解,Deep Learning不一定需要大数据支持。他所需的训练数据量比Shallow
: Network要少得多。这是因为Deep Network具有强大的表达能力。假设一个DL有L层,每
: 层有N个节点。他的参数只有LN个。但是同样表达能力的Shallow Network需要N^L个节
: 点。这意味着训练数据量是O(LN)。这点类似于与或门电路。一个3层的电路(A+B)*(C+D
: )*(E+F)展开有2^3=8项。L层的电路(每层N个或门)展开有N^L项。
: Deep Network训练的问题是它的目标函数是一个复杂的非线性函数,有很多局部最优点
: ,但不是全剧最优。所以用Gradient Decent更新参数的时候,很容易陷入局部最优点
: 出不来。而且越靠近网络前端的参数的导数越小,所以前几层收敛非常慢。Deep
: Learning提出用unsupervised learning的方法先初始化网络参数,然后再用
: supervised learning调节参数,使之收敛。这其中的思想是,我们先用unsupervised

l*******m
发帖数: 1096
10
全靠试,没理论,所以要很多工程师,给很多工资。通信的理论牛吧,资本家都知道离
shannon极限近了,没必要投资了。

【在 m*****h 的大作中提到】
: 如果不需要大数据支持,google就不需要多training三个月再挑战李世石了
: 主要还是因为理论问题没解决,需要多大的数据量没法说(目前成功的例子都需要大数
: 据支持)
: 这个并不是表达能力决定的,目前没有什么好的基础理论来解释
: 更新参数的这种所谓理论离基础理论还差很远
:
: +D
: unsupervised

相关主题
神经网络到底是真的有用的技术还是伪科学?图像处理算法还有前途吗
请教最流行maching learing算法有哪些求推荐硬件大牛名单
qcom vs nvda on deeping learingAI和deep learning芯片领域好文一片 (转载)
进入EE版参与讨论
O********9
发帖数: 59
11
就围棋来说,训练策略网络确实需要很多专家下过的棋谱。但不代表所有的问题都需要
很多训练数据。今天看葵花宝典版大牛woshialex文章。他用CNN解决了Kaggle的“
Diagnose Heart Disease”问题,在192之参赛队伍中排第一。那里的训练数据也不过
13G,都可以装在手机里。
不过有一点我同意,确实没有什么太好的理论来解释DNN,很多参数选择都要靠经验。
不过这也是件好事,工程师可以靠经验混饭吃。如果所有的东西都有理论解释,那就不
需要工程师,编个程序自动计算所有的参数好了:)

【在 m*****h 的大作中提到】
: 如果不需要大数据支持,google就不需要多training三个月再挑战李世石了
: 主要还是因为理论问题没解决,需要多大的数据量没法说(目前成功的例子都需要大数
: 据支持)
: 这个并不是表达能力决定的,目前没有什么好的基础理论来解释
: 更新参数的这种所谓理论离基础理论还差很远
:
: +D
: unsupervised

m*****h
发帖数: 2292
12
心跳数据是不是本来就是bit level的,如果是那样的话13G bytes数据绝对是大数据了
而且排第一的准确率是多少?是不是已经高于专业医生了?这个应该是衡量成功的标准

【在 O********9 的大作中提到】
: 就围棋来说,训练策略网络确实需要很多专家下过的棋谱。但不代表所有的问题都需要
: 很多训练数据。今天看葵花宝典版大牛woshialex文章。他用CNN解决了Kaggle的“
: Diagnose Heart Disease”问题,在192之参赛队伍中排第一。那里的训练数据也不过
: 13G,都可以装在手机里。
: 不过有一点我同意,确实没有什么太好的理论来解释DNN,很多参数选择都要靠经验。
: 不过这也是件好事,工程师可以靠经验混饭吃。如果所有的东西都有理论解释,那就不
: 需要工程师,编个程序自动计算所有的参数好了:)

j****q
发帖数: 12
13
那是不是说只要有足够多的数据,机器可以非常的智能?如果人可以给机器提供比较合
理的参数,还需要这么大的数据量?

【在 m*****h 的大作中提到】
: 如果不需要大数据支持,google就不需要多training三个月再挑战李世石了
: 主要还是因为理论问题没解决,需要多大的数据量没法说(目前成功的例子都需要大数
: 据支持)
: 这个并不是表达能力决定的,目前没有什么好的基础理论来解释
: 更新参数的这种所谓理论离基础理论还差很远
:
: +D
: unsupervised

j****q
发帖数: 12
14
机器也可以学习工程师如何试的吧。一旦学会了,不久不需要工程师了?

【在 l*******m 的大作中提到】
: 全靠试,没理论,所以要很多工程师,给很多工资。通信的理论牛吧,资本家都知道离
: shannon极限近了,没必要投资了。

m*****h
发帖数: 2292
15
目前其实谈不上真正的“智能”
说穿了就是用一个有很多很多参数的复杂函数去拟合数据(因为太复杂,人没法直接给
出合理参数)
deep learning给定了一个函数结构(但还不能解释为什么这个函数结构是好的),然
后做的就是用大数据去决定参数

【在 j****q 的大作中提到】
: 那是不是说只要有足够多的数据,机器可以非常的智能?如果人可以给机器提供比较合
: 理的参数,还需要这么大的数据量?

1 (共1页)
进入EE版参与讨论
相关主题
我知道的吴恩达老师问我愿不愿意搞neural network?
2005年左右本科的时候就用过MATLAB图...神经网络到底是真的有用的技术还是伪科学?
最新图像识别算法突破请教最流行maching learing算法有哪些
陆奇vs唐骏vs李开复,谁更牛逼?qcom vs nvda on deeping learing
FPGA-based DNNs (转载)图像处理算法还有前途吗
想了解一下实际工作中需要解决的 NP-complete 问题?求推荐硬件大牛名单
请教图像识别的人工智能算法AI和deep learning芯片领域好文一片 (转载)
招 Human-Robot Interaction(HRI),Affective Computing,Computer Vision,NPL的 技术方向人才deep learning到底是个什么
相关话题的讨论汇总
话题: deep话题: learning话题: 参数话题: 棋谱话题: 数据