d*****u 发帖数: 17243 | 1 这两年不少人在做这个方向
在学术界之外市场行情如何? |
h********3 发帖数: 2075 | 2 工业应用很小,基本上都是被吹嘘出来的。
现实当中绝大多数分类问题,logistic regression和SVM比deep learning效果更好速
度更快。deep learning只有在超高维的数据,比如图像,声音,和具有海量训练数据
的情况下,才有极微弱的优势战胜logistic regression和SVM。工业应用当中,
feature engineering是最能决定精度的,而不是分类算法。如何做feature是主要问题
,而不是选择什么分类算法。
现实当中很多重要的问题,例如医学生物,训练出一个分类器,只是得到一个基于临床
数据的猜想。专业人员还要对学习出来的coefficient和feature进行专门的隔离和病理
分析验证,最后才能得到可靠的结论。deep learning中间太多层了,所以logistic
regression和SVM更方便一些。
此外,在deep learning吹大之前就有很多基于监督的高维数据的降维和feature
reconstruction的算法。用这些算法先对超高维度的feature进行一个预处理,然后再
用logistic regression和SVM分类,背后的逻辑几乎和deep learning是一样的。
【在 d*****u 的大作中提到】 : 这两年不少人在做这个方向 : 在学术界之外市场行情如何?
|
d*****u 发帖数: 17243 | 3 thanks 解释得很专业
我感觉deep learning的一个好处似乎是不用做太多的预处理
比如图像,直接送进去再说,不用去操心用什么filter或者找什么point of interest
里面每一层其实就是一个新的representation,可能会给研究带来一些启发
但说到底也还是data driven
估计绝大多数中小企业都犯不着去用它
logistic regression什么的就是直接去model各数据的边界
所以特征选取比较重要
数学模型相对简单,运算也快
另外deep learning的模型听起来比较酷一点,好多信息论以及物理里的名词
所以门槛稍高,可以培养圈子骗funding
【在 h********3 的大作中提到】 : 工业应用很小,基本上都是被吹嘘出来的。 : 现实当中绝大多数分类问题,logistic regression和SVM比deep learning效果更好速 : 度更快。deep learning只有在超高维的数据,比如图像,声音,和具有海量训练数据 : 的情况下,才有极微弱的优势战胜logistic regression和SVM。工业应用当中, : feature engineering是最能决定精度的,而不是分类算法。如何做feature是主要问题 : ,而不是选择什么分类算法。 : 现实当中很多重要的问题,例如医学生物,训练出一个分类器,只是得到一个基于临床 : 数据的猜想。专业人员还要对学习出来的coefficient和feature进行专门的隔离和病理 : 分析验证,最后才能得到可靠的结论。deep learning中间太多层了,所以logistic : regression和SVM更方便一些。
|
x******r 发帖数: 3489 | 4 不实用。
能做点东西并得到认可的都是有头有脸的人。
普通人,还是别浪费时间了。
学历不够,资历不够,DL的实验室都去不了。 |
c***z 发帖数: 6348 | 5 个人理解,DL可以看作一个wrapper,底层可以仍然使用logit或者SVM或者anything |
c***z 发帖数: 6348 | |
r**********g 发帖数: 22734 | 7 DL还有路要走。优点是糙快猛,一把锤子拍哪哪响。
问题是理论不行,好你也不知道为什么好,不好也不知道为什么不好,拍了不响就不知
道怎么拍好了。 |
e***y 发帖数: 4307 | 8 解释的很好,和我想法很相近,谢谢
【在 h********3 的大作中提到】 : 工业应用很小,基本上都是被吹嘘出来的。 : 现实当中绝大多数分类问题,logistic regression和SVM比deep learning效果更好速 : 度更快。deep learning只有在超高维的数据,比如图像,声音,和具有海量训练数据 : 的情况下,才有极微弱的优势战胜logistic regression和SVM。工业应用当中, : feature engineering是最能决定精度的,而不是分类算法。如何做feature是主要问题 : ,而不是选择什么分类算法。 : 现实当中很多重要的问题,例如医学生物,训练出一个分类器,只是得到一个基于临床 : 数据的猜想。专业人员还要对学习出来的coefficient和feature进行专门的隔离和病理 : 分析验证,最后才能得到可靠的结论。deep learning中间太多层了,所以logistic : regression和SVM更方便一些。
|
l*******m 发帖数: 1096 | 9 如果已经在dl小团体里,有0.4-1m的包裹。没有的话,还和一般人一样
【在 d*****u 的大作中提到】 : 这两年不少人在做这个方向 : 在学术界之外市场行情如何?
|
d****n 发帖数: 12461 | 10 做这个要有耐心和勇气。往后看,例如追sigmod从2010年追到现在,那自然是感慨得不
得了。但是往前看,如果60岁无人驾驶还没有普及,你说会不会后悔? |
|
|
c*******g 发帖数: 332 | 11 正解 DL要在现实取得让用户非常满意的效果 还有很长的路要走
【在 l*******m 的大作中提到】 : 如果已经在dl小团体里,有0.4-1m的包裹。没有的话,还和一般人一样
|
b**k 发帖数: 268 | 12 mark 专业!
【在 h********3 的大作中提到】 : 工业应用很小,基本上都是被吹嘘出来的。 : 现实当中绝大多数分类问题,logistic regression和SVM比deep learning效果更好速 : 度更快。deep learning只有在超高维的数据,比如图像,声音,和具有海量训练数据 : 的情况下,才有极微弱的优势战胜logistic regression和SVM。工业应用当中, : feature engineering是最能决定精度的,而不是分类算法。如何做feature是主要问题 : ,而不是选择什么分类算法。 : 现实当中很多重要的问题,例如医学生物,训练出一个分类器,只是得到一个基于临床 : 数据的猜想。专业人员还要对学习出来的coefficient和feature进行专门的隔离和病理 : 分析验证,最后才能得到可靠的结论。deep learning中间太多层了,所以logistic : regression和SVM更方便一些。
|
e*******s 发帖数: 1979 | 13 刚好说反了吧. flg都开始用在产品里了. 最大的问题是缺乏理论, 学出来的feature为
什么好 怎么好 什么时候好 什么时候不好没有人能解释清楚. PHD做Deep learning基
本学不到什么东西.
【在 h********3 的大作中提到】 : 工业应用很小,基本上都是被吹嘘出来的。 : 现实当中绝大多数分类问题,logistic regression和SVM比deep learning效果更好速 : 度更快。deep learning只有在超高维的数据,比如图像,声音,和具有海量训练数据 : 的情况下,才有极微弱的优势战胜logistic regression和SVM。工业应用当中, : feature engineering是最能决定精度的,而不是分类算法。如何做feature是主要问题 : ,而不是选择什么分类算法。 : 现实当中很多重要的问题,例如医学生物,训练出一个分类器,只是得到一个基于临床 : 数据的猜想。专业人员还要对学习出来的coefficient和feature进行专门的隔离和病理 : 分析验证,最后才能得到可靠的结论。deep learning中间太多层了,所以logistic : regression和SVM更方便一些。
|
g****y 发帖数: 1172 | 14 说的大多同意,除了“极微弱”的优势这个描述。在高维数据上,优势还是很明显的。
【在 h********3 的大作中提到】 : 工业应用很小,基本上都是被吹嘘出来的。 : 现实当中绝大多数分类问题,logistic regression和SVM比deep learning效果更好速 : 度更快。deep learning只有在超高维的数据,比如图像,声音,和具有海量训练数据 : 的情况下,才有极微弱的优势战胜logistic regression和SVM。工业应用当中, : feature engineering是最能决定精度的,而不是分类算法。如何做feature是主要问题 : ,而不是选择什么分类算法。 : 现实当中很多重要的问题,例如医学生物,训练出一个分类器,只是得到一个基于临床 : 数据的猜想。专业人员还要对学习出来的coefficient和feature进行专门的隔离和病理 : 分析验证,最后才能得到可靠的结论。deep learning中间太多层了,所以logistic : regression和SVM更方便一些。
|
B***i 发帖数: 724 | 15 知道几个start up找做DL的都是几个$m 的offer. |
N*****m 发帖数: 42603 | 16 基于监督的高维降维是难点,没那么简单
【在 h********3 的大作中提到】 : 工业应用很小,基本上都是被吹嘘出来的。 : 现实当中绝大多数分类问题,logistic regression和SVM比deep learning效果更好速 : 度更快。deep learning只有在超高维的数据,比如图像,声音,和具有海量训练数据 : 的情况下,才有极微弱的优势战胜logistic regression和SVM。工业应用当中, : feature engineering是最能决定精度的,而不是分类算法。如何做feature是主要问题 : ,而不是选择什么分类算法。 : 现实当中很多重要的问题,例如医学生物,训练出一个分类器,只是得到一个基于临床 : 数据的猜想。专业人员还要对学习出来的coefficient和feature进行专门的隔离和病理 : 分析验证,最后才能得到可靠的结论。deep learning中间太多层了,所以logistic : regression和SVM更方便一些。
|
N*****m 发帖数: 42603 | 17 是这个问题
【在 e*******s 的大作中提到】 : 刚好说反了吧. flg都开始用在产品里了. 最大的问题是缺乏理论, 学出来的feature为 : 什么好 怎么好 什么时候好 什么时候不好没有人能解释清楚. PHD做Deep learning基 : 本学不到什么东西.
|
c***z 发帖数: 6348 | 18 unsupervised 的做过,supervised还真不知道怎么做,大牛能不能说几句?
【在 N*****m 的大作中提到】 : 基于监督的高维降维是难点,没那么简单
|
N*****m 发帖数: 42603 | 19 主要是feature selection, pca等等,对于高维数据不是很实用
【在 c***z 的大作中提到】 : unsupervised 的做过,supervised还真不知道怎么做,大牛能不能说几句?
|
c***z 发帖数: 6348 | 20 我工作中的主要问题不是feature太多,而是没有feature,得自己挖掘
感觉DL应该有帮助,但是一直没有时间学,
这也是跳槽的原因之一,老是不让去conference,也不让学新技术 |
|
|
l*******m 发帖数: 1096 | 21 DL在data有很多redendncy 是比较有用,太多features 可以做,这样交给机器比较好。
【在 c***z 的大作中提到】 : 我工作中的主要问题不是feature太多,而是没有feature,得自己挖掘 : 感觉DL应该有帮助,但是一直没有时间学, : 这也是跳槽的原因之一,老是不让去conference,也不让学新技术
|
N*****m 发帖数: 42603 | 22 没有feature是因为太多了,你不知道到底哪个是features
【在 c***z 的大作中提到】 : 我工作中的主要问题不是feature太多,而是没有feature,得自己挖掘 : 感觉DL应该有帮助,但是一直没有时间学, : 这也是跳槽的原因之一,老是不让去conference,也不让学新技术
|
c***z 发帖数: 6348 | 23 对,没有feature其实就是太多feature,unstructured
好。
【在 l*******m 的大作中提到】 : DL在data有很多redendncy 是比较有用,太多features 可以做,这样交给机器比较好。
|
a***y 发帖数: 852 | 24 哪些startup呢
【在 B***i 的大作中提到】 : 知道几个start up找做DL的都是几个$m 的offer.
|
x****q 发帖数: 101 | 25 个人觉得DL最大的好处是他能够自己学feature
不要去设计或提取feature
CNN就是发展的很不错的了,虽然理论还有距离
其他的RNN,LSTM之类的用处都很大,
很多公司都已经用了,比如google,FB。。。 |
d***e 发帖数: 193 | |
l*****z 发帖数: 3022 | 27 围观年薪200万刀的大神们
【在 d*****u 的大作中提到】 : 这两年不少人在做这个方向 : 在学术界之外市场行情如何?
|
h**l 发帖数: 176 | 28 deep learning这几年简直横扫了语音识别,图像识别领域。连下棋都用上了。这几个
井底之蛙还在问行不行? |
p*****d 发帖数: 183 | 29 装内行回帖的那位大牛以前很活跃
各种吹捧 L 和MS
我真要服了他了
【在 h**l 的大作中提到】 : deep learning这几年简直横扫了语音识别,图像识别领域。连下棋都用上了。这几个 : 井底之蛙还在问行不行?
|
S****8 发帖数: 401 | 30 哈哈, 人都是屁股决定脑袋, 自己没能赶上这波浪, 就贬低是hype
【在 h**l 的大作中提到】 : deep learning这几年简直横扫了语音识别,图像识别领域。连下棋都用上了。这几个 : 井底之蛙还在问行不行?
|
|
|
h*j 发帖数: 393 | 31 主要是高维数据的建模对人类比较困难,现有的feature extraction还没能和机器自己
学习出来的抗衡
【在 g****y 的大作中提到】 : 说的大多同意,除了“极微弱”的优势这个描述。在高维数据上,优势还是很明显的。
|
x******r 发帖数: 3489 | 32 差不多。真正搞得,也就是那么些人。跟风的,学了,用处不大。
【在 l*******m 的大作中提到】 : 如果已经在dl小团体里,有0.4-1m的包裹。没有的话,还和一般人一样
|
x******r 发帖数: 3489 | 33 要做这个,首先要看跟着谁。
【在 d****n 的大作中提到】 : 做这个要有耐心和勇气。往后看,例如追sigmod从2010年追到现在,那自然是感慨得不 : 得了。但是往前看,如果60岁无人驾驶还没有普及,你说会不会后悔?
|
e*******o 发帖数: 2271 | 34 好比别人搞出了JAVA,你学写JAVA也可以吃肉喝汤。所以未必非得“搞出”DL,只要能
用DL赚钱即可。 |