g****t 发帖数: 31659 | 1 我觉得基本上理解为啥深学这么强大了。
可以专心写程序了. |
w*****r 发帖数: 197 | 2 我可以理解你这种内心狂喜,又无处抒发的心情...lol
【在 g****t 的大作中提到】 : 我觉得基本上理解为啥深学这么强大了。 : 可以专心写程序了.
|
w*****r 发帖数: 197 | 3 我们老板看到google duplex后,已经hold不住了
dl这东西,不服不行啊... 不过好日子的门槛未必是马工 |
g****t 发帖数: 31659 | 4 我非常肯定。其他领域的方法,例如传统的逻辑主义AI。
用深学的办法分一下层,然后梯度学习下。
在计算效率上会有介于线性到指数之间的提高。
一条直线上n个点可以把直线分成n+1个部分。
但是n个ReLU分层,可以把直线分成远大于n个部分。
类似于财务上用的nested tables >>>> x-y lookup。
【在 w*****r 的大作中提到】 : 我们老板看到google duplex后,已经hold不住了 : dl这东西,不服不行啊... 不过好日子的门槛未必是马工
|
a*****g 发帖数: 19398 | 5 可以用来多训练买买提鸡器廊五
【在 g****t 的大作中提到】 : 我觉得基本上理解为啥深学这么强大了。 : 可以专心写程序了.
|
b****u 发帖数: 1130 | 6 其实我不觉得是程序特别强大。其实最重要的是后面的海量数据。
现在是数据为王。
【在 g****t 的大作中提到】 : 我觉得基本上理解为啥深学这么强大了。 : 可以专心写程序了.
|
g****t 发帖数: 31659 | 7 There will be more and more data in future, right?
It looked that DL was the only promising data representing and processing
technique after the data scale >some threshold.
: 其实我不觉得是程序特别强大。其实最重要的是后面的海量数据。
: 现在是数据为王。
【在 b****u 的大作中提到】 : 其实我不觉得是程序特别强大。其实最重要的是后面的海量数据。 : 现在是数据为王。
|
n******t 发帖数: 4406 | 8 就那個demo?我怎麼覺得是托啊。
【在 w*****r 的大作中提到】 : 我们老板看到google duplex后,已经hold不住了 : dl这东西,不服不行啊... 不过好日子的门槛未必是马工
|
b*********r 发帖数: 44 | 9 看了Google报道,整个就是 HolySh*t. 这也叫Demo。现在自称能做AI就知道
tensorflow, DL, CNN, DNN, 用这些东西真以为可以做出自由对话吗? |
x****u 发帖数: 44466 | 10 这的确是炒作,此技术早就成熟了只是卖不了钱
除了电话诈骗谁对它感兴趣啊
【在 n******t 的大作中提到】 : 就那個demo?我怎麼覺得是托啊。
|
|
|
s*****V 发帖数: 21731 | 11 那个一看就是个假牙,多轮对话,随便多问两个问题就不行。
【在 n******t 的大作中提到】 : 就那個demo?我怎麼覺得是托啊。
|
g****t 发帖数: 31659 | 12 ANN很强大,值得学习。
现在是突破阶段。就是别的方法解决不了的问题,例如图像,语音,
self driving,etc用ANN。
第二步,大家会发现many别的方法本质上其实是不如ANN。以前是因为工具齐备,
投资多才灭了ANN。
很多别的方法会以看得见的速度被ANN消灭。
中小规模问题在ANN工具齐备之后,也会走ANN.
【在 n******t 的大作中提到】 : 就那個demo?我怎麼覺得是托啊。
|
n******7 发帖数: 12463 | 13 ANN本质是不是暴力采样,暴力拟合?
我司的DL组
高层重金请来
想在某些方面比传统方法有所突破
结果他们折腾了半天
除了虚报结果,还没比那个传统项目组真的做的好
现在是过街老鼠,不成功就要成仁了
【在 g****t 的大作中提到】 : ANN很强大,值得学习。 : 现在是突破阶段。就是别的方法解决不了的问题,例如图像,语音, : self driving,etc用ANN。 : 第二步,大家会发现many别的方法本质上其实是不如ANN。以前是因为工具齐备, : 投资多才灭了ANN。 : 很多别的方法会以看得见的速度被ANN消灭。 : 中小规模问题在ANN工具齐备之后,也会走ANN.
|
w*****r 发帖数: 197 | 14 Google作假倒不至于,展示的是Cherry-picked results基本是一定的
但是即使这样,这种质量的结果在前深学时代也是很难想象的。
: 就那個demo?我怎麼覺得是托啊。
【在 n******t 的大作中提到】 : 就那個demo?我怎麼覺得是托啊。
|
g****t 发帖数: 31659 | 15 你们公司找的人水平太低。深学骗子多也是个问题。
: ANN本质是不是暴力采样,暴力拟合?
: 我司的DL组
: 高层重金请来
: 想在某些方面比传统方法有所突破
: 结果他们折腾了半天
: 除了虚报结果,还没比那个传统项目组真的做的好
: 现在是过街老鼠,不成功就要成仁了
【在 n******7 的大作中提到】 : ANN本质是不是暴力采样,暴力拟合? : 我司的DL组 : 高层重金请来 : 想在某些方面比传统方法有所突破 : 结果他们折腾了半天 : 除了虚报结果,还没比那个传统项目组真的做的好 : 现在是过街老鼠,不成功就要成仁了
|
S*****e 发帖数: 6676 | 16 不是说DL这些东西不好,但俺不相信任何 one fits all的东西,too good to be true
。 |
w***g 发帖数: 5958 | 17 如果不是语音图像或者别的传感器信号的话,
干不过传统方法很有可能。
【在 n******7 的大作中提到】 : ANN本质是不是暴力采样,暴力拟合? : 我司的DL组 : 高层重金请来 : 想在某些方面比传统方法有所突破 : 结果他们折腾了半天 : 除了虚报结果,还没比那个传统项目组真的做的好 : 现在是过街老鼠,不成功就要成仁了
|
f******2 发帖数: 2455 | 18 如果我是你的话,就把wdong,切比雪夫推荐给你们公司的vp,雇来一个明白人做领头
人对一个公司很重要。
: ANN本质是不是暴力采样,暴力拟合?
: 我司的DL组
: 高层重金请来
: 想在某些方面比传统方法有所突破
: 结果他们折腾了半天
: 除了虚报结果,还没比那个传统项目组真的做的好
: 现在是过街老鼠,不成功就要成仁了
【在 n******7 的大作中提到】 : ANN本质是不是暴力采样,暴力拟合? : 我司的DL组 : 高层重金请来 : 想在某些方面比传统方法有所突破 : 结果他们折腾了半天 : 除了虚报结果,还没比那个传统项目组真的做的好 : 现在是过街老鼠,不成功就要成仁了
|
w***g 发帖数: 5958 | 19 我估计没用。能不能成其实专家心里很清楚,只是有时候明知要失败也得挺身而上。
【在 f******2 的大作中提到】 : 如果我是你的话,就把wdong,切比雪夫推荐给你们公司的vp,雇来一个明白人做领头 : 人对一个公司很重要。 : : : ANN本质是不是暴力采样,暴力拟合? : : 我司的DL组 : : 高层重金请来 : : 想在某些方面比传统方法有所突破 : : 结果他们折腾了半天 : : 除了虚报结果,还没比那个传统项目组真的做的好 : : 现在是过街老鼠,不成功就要成仁了
|
g****t 发帖数: 31659 | 20 昨天我查了下最新的文献,
有一个最新的匿名文章
BOUNDING AND COUNTING LINEAR REGIONS OF
DEEP NEURAL NETWORKS
Anonymous authors
Paper under double-blind review
https://openreview.net/pdf?id=Sy-tszZRZ
page 16就是我考虑过的一维情形.
作者说L层,每层n个神经元的单输入单输出实数映射的网络。
可以把x轴切割成(n+1)**L个部分.
我怀疑高维的话。加深一层,也会超线性的提高表示能力。那么这个优势,会造成
长期有利于DL的趋势。其他方法会逐步消退。
从根本上来讲,我怀疑function composition对数据表示有优势。
可能类似于计算
(cx(ax+b)+d)+e 比 ac x^2 + (bc +cd)x +e
快
NN先天就是composition的。
【在 w***g 的大作中提到】 : 如果不是语音图像或者别的传感器信号的话, : 干不过传统方法很有可能。
|
|
|
g****t 发帖数: 31659 | 21 组织人做个原有方法基础上的DL小增量,改名叫做xxx-network,
这就成功了。有了下一步资金,再说下一步。
成熟的传统数据产品往往包括很多复杂约束。
完全重新做往往不现实,主因不一定是算法问题。
【在 w***g 的大作中提到】 : 我估计没用。能不能成其实专家心里很清楚,只是有时候明知要失败也得挺身而上。
|
x***4 发帖数: 1815 | 22 什么是ann?和nn有什么不同?
【在 g****t 的大作中提到】 : ANN很强大,值得学习。 : 现在是突破阶段。就是别的方法解决不了的问题,例如图像,语音, : self driving,etc用ANN。 : 第二步,大家会发现many别的方法本质上其实是不如ANN。以前是因为工具齐备, : 投资多才灭了ANN。 : 很多别的方法会以看得见的速度被ANN消灭。 : 中小规模问题在ANN工具齐备之后,也会走ANN.
|
g****t 发帖数: 31659 | 23 artificial neural network
【在 x***4 的大作中提到】 : 什么是ann?和nn有什么不同?
|
w*****r 发帖数: 197 | 24 公司要有多小吾等才能跟VP说上话,还要VP能信你?
: 如果我是你的话,就把wdong,切比雪夫推荐给你们公司的vp,雇来一个明白人
做领头
: 人对一个公司很重要。
【在 f******2 的大作中提到】 : 如果我是你的话,就把wdong,切比雪夫推荐给你们公司的vp,雇来一个明白人做领头 : 人对一个公司很重要。 : : : ANN本质是不是暴力采样,暴力拟合? : : 我司的DL组 : : 高层重金请来 : : 想在某些方面比传统方法有所突破 : : 结果他们折腾了半天 : : 除了虚报结果,还没比那个传统项目组真的做的好 : : 现在是过街老鼠,不成功就要成仁了
|
g****t 发帖数: 31659 | 25 这个倒不一定。
java 15+ year, 那么老板的老板,多半就是vp了吧。
关键不要多跳槽,按照根据地思维走
【在 w*****r 的大作中提到】 : 公司要有多小吾等才能跟VP说上话,还要VP能信你? : : : 如果我是你的话,就把wdong,切比雪夫推荐给你们公司的vp,雇来一个明白人 : 做领头 : : 人对一个公司很重要。 :
|
s*****V 发帖数: 21731 | 26 其实ANN的作用很简单就是替代人的作用,凡是人做的比机器好的,或者更有效率的,
ANN就有可能替代,如果是机器比人干的好的,ANN也不见得有用。
看到神经网络的应用,语音识别,图像识别,围棋,自动驾驶,都是之前人比机器强的
例子。
【在 w***g 的大作中提到】 : 如果不是语音图像或者别的传感器信号的话, : 干不过传统方法很有可能。
|
l*******m 发帖数: 1096 | 27 这篇被据了,因为没有引用下面的
https://arxiv.org/pdf/1402.1869.pdf
这个2014年的明显写的好
【在 g****t 的大作中提到】 : 昨天我查了下最新的文献, : 有一个最新的匿名文章 : BOUNDING AND COUNTING LINEAR REGIONS OF : DEEP NEURAL NETWORKS : Anonymous authors : Paper under double-blind review : https://openreview.net/pdf?id=Sy-tszZRZ : page 16就是我考虑过的一维情形. : 作者说L层,每层n个神经元的单输入单输出实数映射的网络。 : 可以把x轴切割成(n+1)**L个部分.
|
g****t 发帖数: 31659 | 28 14年文章好像作者自己有更新。然后这个新文章作者说比14文章作者的更新的构造方法
更好?
这就是黑帮啊,还可以因为少引用而被据的...
Anyway,这里确有一个超线性的度量律。估计很快物理学家做gauge theory ,统计物理
等的会进来做大尺度分析。
: 这篇被据了,因为没有引用下面的
: https://arxiv.org/pdf/1402.1869.pdf
: 这个2014年的明显写的好
【在 l*******m 的大作中提到】 : 这篇被据了,因为没有引用下面的 : https://arxiv.org/pdf/1402.1869.pdf : 这个2014年的明显写的好
|
l*******m 发帖数: 1096 | 29 有意思。我又研究了一下。这问题最早在http://www.inference.org.uk/mackay/itila/
第40章研究过。不过d mackay死得太早了
不过不引用大会主席的文章,也是自找的
:14年文章好像作者自己有更新。然后这个新文章作者说比14文章作者的更新的构造方
法更好?
: |
g****t 发帖数: 31659 | 30 Alpha Go的实证,以及最近的理论分析,我想基本确认了
Deep neural network在很多情况下优于传统的look up table。
既然piecewise neural network和表格是等价的。未来也许数据库就存下神经网络的w,
b完事。不
要直接存数据了。
: 有意思。我又研究了一下。这问题最早在http://www.inference.org.uk/mackay/itila/
: 第40章研究过。不过d mackay死得太早了
: 不过不引用大会主席的文章,也是自找的
: :14年文章好像作者自己有更新。然后这个新文章作者说比14文章作者的
更新的
构造方
: 法更好?
: :
【在 l*******m 的大作中提到】 : 有意思。我又研究了一下。这问题最早在http://www.inference.org.uk/mackay/itila/ : 第40章研究过。不过d mackay死得太早了 : 不过不引用大会主席的文章,也是自找的 : : :14年文章好像作者自己有更新。然后这个新文章作者说比14文章作者的更新的构造方 : 法更好? : :
|
|
|
s*****V 发帖数: 21731 | 31 chomsky很反对目前的基于统计模型的AI.
http://www.openculture.com/2012/11/noam_chomsky_explains_where_artificial_intelligence_went_wrong_.html
It's true there's been a lot of work on trying to apply statistical models
to various linguistic problems. I think there have been some successes, but
a lot of failures. There is a notion of success ... which I think is novel
in the history of science. It interprets success as approximating unanalyzed
data.
NORVIG的辩护文章
http://norvig.com/chomsky.html
w,
【在 g****t 的大作中提到】 : Alpha Go的实证,以及最近的理论分析,我想基本确认了 : Deep neural network在很多情况下优于传统的look up table。 : 既然piecewise neural network和表格是等价的。未来也许数据库就存下神经网络的w, : b完事。不 : 要直接存数据了。 : : : 有意思。我又研究了一下。这问题最早在http://www.inference.org.uk/mackay/itila/ : : 第40章研究过。不过d mackay死得太早了 : : 不过不引用大会主席的文章,也是自找的 : : :14年文章好像作者自己有更新。然后这个新文章作者说比14文章作者的
|
x****u 发帖数: 44466 | 32 计算机这东西变化太快了,虽然比杨振宁年轻,但他退休的时候很多前端理论还没被广
泛接受
现在流行统计模型是因为非统计模型不可避免的被PNP锁死了啊
but
unanalyzed
【在 s*****V 的大作中提到】 : chomsky很反对目前的基于统计模型的AI. : http://www.openculture.com/2012/11/noam_chomsky_explains_where_artificial_intelligence_went_wrong_.html : It's true there's been a lot of work on trying to apply statistical models : to various linguistic problems. I think there have been some successes, but : a lot of failures. There is a notion of success ... which I think is novel : in the history of science. It interprets success as approximating unanalyzed : data. : NORVIG的辩护文章 : http://norvig.com/chomsky.html :
|
m******r 发帖数: 1033 | 33 什么是pnp ?
【在 x****u 的大作中提到】 : 计算机这东西变化太快了,虽然比杨振宁年轻,但他退休的时候很多前端理论还没被广 : 泛接受 : 现在流行统计模型是因为非统计模型不可避免的被PNP锁死了啊 : : but : unanalyzed
|