由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - 深学的好日子看不到头
相关主题
关于搞ML刷数据的职业前途你们这些python黑
机器学习的分类:这两个算法有什么本质的不同?王垠:解密“设计模式”
请推荐java 机器学习库 。。。Peter Norvig说编程竞赛强与工作干的好成反比 (转载)
亚麻决定支持mxnetpython question: A socket operation was attempted to an unreachable network
问几个神经网络的问题Deepmind,蜘蛛坦克,小笼包(zz)
FPGA-based DNNsDNN就是hype (转载)
张首晟也开始搞深学了大部分人还认为阿法狗在背棋谱 (转载)
$3.95的Lisp In Small Pieces计算机行业拜图灵为鼻祖是为了自己高大上
相关话题的讨论汇总
话题: br话题: ann话题: dl话题: 深学话题: 文章
进入Programming版参与讨论
1 (共1页)
g****t
发帖数: 31659
1
我觉得基本上理解为啥深学这么强大了。
可以专心写程序了.
w*****r
发帖数: 197
2
我可以理解你这种内心狂喜,又无处抒发的心情...lol

【在 g****t 的大作中提到】
: 我觉得基本上理解为啥深学这么强大了。
: 可以专心写程序了.

w*****r
发帖数: 197
3
我们老板看到google duplex后,已经hold不住了
dl这东西,不服不行啊... 不过好日子的门槛未必是马工
g****t
发帖数: 31659
4
我非常肯定。其他领域的方法,例如传统的逻辑主义AI。
用深学的办法分一下层,然后梯度学习下。
在计算效率上会有介于线性到指数之间的提高。
一条直线上n个点可以把直线分成n+1个部分。
但是n个ReLU分层,可以把直线分成远大于n个部分。
类似于财务上用的nested tables >>>> x-y lookup。

【在 w*****r 的大作中提到】
: 我们老板看到google duplex后,已经hold不住了
: dl这东西,不服不行啊... 不过好日子的门槛未必是马工

a*****g
发帖数: 19398
5
可以用来多训练买买提鸡器廊五

【在 g****t 的大作中提到】
: 我觉得基本上理解为啥深学这么强大了。
: 可以专心写程序了.

b****u
发帖数: 1130
6
其实我不觉得是程序特别强大。其实最重要的是后面的海量数据。
现在是数据为王。

【在 g****t 的大作中提到】
: 我觉得基本上理解为啥深学这么强大了。
: 可以专心写程序了.

g****t
发帖数: 31659
7
There will be more and more data in future, right?
It looked that DL was the only promising data representing and processing
technique after the data scale >some threshold.


: 其实我不觉得是程序特别强大。其实最重要的是后面的海量数据。

: 现在是数据为王。



【在 b****u 的大作中提到】
: 其实我不觉得是程序特别强大。其实最重要的是后面的海量数据。
: 现在是数据为王。

n******t
发帖数: 4406
8
就那個demo?我怎麼覺得是托啊。

【在 w*****r 的大作中提到】
: 我们老板看到google duplex后,已经hold不住了
: dl这东西,不服不行啊... 不过好日子的门槛未必是马工

b*********r
发帖数: 44
9
看了Google报道,整个就是 HolySh*t. 这也叫Demo。现在自称能做AI就知道
tensorflow, DL, CNN, DNN, 用这些东西真以为可以做出自由对话吗?
x****u
发帖数: 44466
10
这的确是炒作,此技术早就成熟了只是卖不了钱
除了电话诈骗谁对它感兴趣啊

【在 n******t 的大作中提到】
: 就那個demo?我怎麼覺得是托啊。
相关主题
张首晟也开始搞深学了王垠:解密“设计模式”
$3.95的Lisp In Small PiecesPeter Norvig说编程竞赛强与工作干的好成反比 (转载)
你们这些python黑python question: A socket operation was attempted to an unreachable network
进入Programming版参与讨论
s*****V
发帖数: 21731
11
那个一看就是个假牙,多轮对话,随便多问两个问题就不行。

【在 n******t 的大作中提到】
: 就那個demo?我怎麼覺得是托啊。
g****t
发帖数: 31659
12
ANN很强大,值得学习。
现在是突破阶段。就是别的方法解决不了的问题,例如图像,语音,
self driving,etc用ANN。
第二步,大家会发现many别的方法本质上其实是不如ANN。以前是因为工具齐备,
投资多才灭了ANN。
很多别的方法会以看得见的速度被ANN消灭。
中小规模问题在ANN工具齐备之后,也会走ANN.

【在 n******t 的大作中提到】
: 就那個demo?我怎麼覺得是托啊。
n******7
发帖数: 12463
13
ANN本质是不是暴力采样,暴力拟合?
我司的DL组
高层重金请来
想在某些方面比传统方法有所突破
结果他们折腾了半天
除了虚报结果,还没比那个传统项目组真的做的好
现在是过街老鼠,不成功就要成仁了

【在 g****t 的大作中提到】
: ANN很强大,值得学习。
: 现在是突破阶段。就是别的方法解决不了的问题,例如图像,语音,
: self driving,etc用ANN。
: 第二步,大家会发现many别的方法本质上其实是不如ANN。以前是因为工具齐备,
: 投资多才灭了ANN。
: 很多别的方法会以看得见的速度被ANN消灭。
: 中小规模问题在ANN工具齐备之后,也会走ANN.

w*****r
发帖数: 197
14
Google作假倒不至于,展示的是Cherry-picked results基本是一定的
但是即使这样,这种质量的结果在前深学时代也是很难想象的。


: 就那個demo?我怎麼覺得是托啊。



【在 n******t 的大作中提到】
: 就那個demo?我怎麼覺得是托啊。
g****t
发帖数: 31659
15
你们公司找的人水平太低。深学骗子多也是个问题。


: ANN本质是不是暴力采样,暴力拟合?

: 我司的DL组

: 高层重金请来

: 想在某些方面比传统方法有所突破

: 结果他们折腾了半天

: 除了虚报结果,还没比那个传统项目组真的做的好

: 现在是过街老鼠,不成功就要成仁了



【在 n******7 的大作中提到】
: ANN本质是不是暴力采样,暴力拟合?
: 我司的DL组
: 高层重金请来
: 想在某些方面比传统方法有所突破
: 结果他们折腾了半天
: 除了虚报结果,还没比那个传统项目组真的做的好
: 现在是过街老鼠,不成功就要成仁了

S*****e
发帖数: 6676
16
不是说DL这些东西不好,但俺不相信任何 one fits all的东西,too good to be true
w***g
发帖数: 5958
17
如果不是语音图像或者别的传感器信号的话,
干不过传统方法很有可能。

【在 n******7 的大作中提到】
: ANN本质是不是暴力采样,暴力拟合?
: 我司的DL组
: 高层重金请来
: 想在某些方面比传统方法有所突破
: 结果他们折腾了半天
: 除了虚报结果,还没比那个传统项目组真的做的好
: 现在是过街老鼠,不成功就要成仁了

f******2
发帖数: 2455
18
如果我是你的话,就把wdong,切比雪夫推荐给你们公司的vp,雇来一个明白人做领头
人对一个公司很重要。


: ANN本质是不是暴力采样,暴力拟合?

: 我司的DL组

: 高层重金请来

: 想在某些方面比传统方法有所突破

: 结果他们折腾了半天

: 除了虚报结果,还没比那个传统项目组真的做的好

: 现在是过街老鼠,不成功就要成仁了



【在 n******7 的大作中提到】
: ANN本质是不是暴力采样,暴力拟合?
: 我司的DL组
: 高层重金请来
: 想在某些方面比传统方法有所突破
: 结果他们折腾了半天
: 除了虚报结果,还没比那个传统项目组真的做的好
: 现在是过街老鼠,不成功就要成仁了

w***g
发帖数: 5958
19
我估计没用。能不能成其实专家心里很清楚,只是有时候明知要失败也得挺身而上。

【在 f******2 的大作中提到】
: 如果我是你的话,就把wdong,切比雪夫推荐给你们公司的vp,雇来一个明白人做领头
: 人对一个公司很重要。
:
:
: ANN本质是不是暴力采样,暴力拟合?
:
: 我司的DL组
:
: 高层重金请来
:
: 想在某些方面比传统方法有所突破
:
: 结果他们折腾了半天
:
: 除了虚报结果,还没比那个传统项目组真的做的好
:
: 现在是过街老鼠,不成功就要成仁了

g****t
发帖数: 31659
20
昨天我查了下最新的文献,
有一个最新的匿名文章
BOUNDING AND COUNTING LINEAR REGIONS OF
DEEP NEURAL NETWORKS
Anonymous authors
Paper under double-blind review
https://openreview.net/pdf?id=Sy-tszZRZ
page 16就是我考虑过的一维情形.
作者说L层,每层n个神经元的单输入单输出实数映射的网络。
可以把x轴切割成(n+1)**L个部分.
我怀疑高维的话。加深一层,也会超线性的提高表示能力。那么这个优势,会造成
长期有利于DL的趋势。其他方法会逐步消退。
从根本上来讲,我怀疑function composition对数据表示有优势。
可能类似于计算
(cx(ax+b)+d)+e 比 ac x^2 + (bc +cd)x +e

NN先天就是composition的。

【在 w***g 的大作中提到】
: 如果不是语音图像或者别的传感器信号的话,
: 干不过传统方法很有可能。

相关主题
Deepmind,蜘蛛坦克,小笼包(zz)计算机行业拜图灵为鼻祖是为了自己高大上
DNN就是hype (转载)100伪币悬赏:CNN这个东西本质上处理不了形变
大部分人还认为阿法狗在背棋谱 (转载)transfer learning是不是接近人类学习的本质了?
进入Programming版参与讨论
g****t
发帖数: 31659
21
组织人做个原有方法基础上的DL小增量,改名叫做xxx-network,
这就成功了。有了下一步资金,再说下一步。
成熟的传统数据产品往往包括很多复杂约束。
完全重新做往往不现实,主因不一定是算法问题。

【在 w***g 的大作中提到】
: 我估计没用。能不能成其实专家心里很清楚,只是有时候明知要失败也得挺身而上。
x***4
发帖数: 1815
22
什么是ann?和nn有什么不同?

【在 g****t 的大作中提到】
: ANN很强大,值得学习。
: 现在是突破阶段。就是别的方法解决不了的问题,例如图像,语音,
: self driving,etc用ANN。
: 第二步,大家会发现many别的方法本质上其实是不如ANN。以前是因为工具齐备,
: 投资多才灭了ANN。
: 很多别的方法会以看得见的速度被ANN消灭。
: 中小规模问题在ANN工具齐备之后,也会走ANN.

g****t
发帖数: 31659
23
artificial neural network

【在 x***4 的大作中提到】
: 什么是ann?和nn有什么不同?
w*****r
发帖数: 197
24
公司要有多小吾等才能跟VP说上话,还要VP能信你?


: 如果我是你的话,就把wdong,切比雪夫推荐给你们公司的vp,雇来一个明白人
做领头

: 人对一个公司很重要。



【在 f******2 的大作中提到】
: 如果我是你的话,就把wdong,切比雪夫推荐给你们公司的vp,雇来一个明白人做领头
: 人对一个公司很重要。
:
:
: ANN本质是不是暴力采样,暴力拟合?
:
: 我司的DL组
:
: 高层重金请来
:
: 想在某些方面比传统方法有所突破
:
: 结果他们折腾了半天
:
: 除了虚报结果,还没比那个传统项目组真的做的好
:
: 现在是过街老鼠,不成功就要成仁了

g****t
发帖数: 31659
25
这个倒不一定。
java 15+ year, 那么老板的老板,多半就是vp了吧。
关键不要多跳槽,按照根据地思维走

【在 w*****r 的大作中提到】
: 公司要有多小吾等才能跟VP说上话,还要VP能信你?
:
:
: 如果我是你的话,就把wdong,切比雪夫推荐给你们公司的vp,雇来一个明白人
: 做领头
:
: 人对一个公司很重要。
:

s*****V
发帖数: 21731
26
其实ANN的作用很简单就是替代人的作用,凡是人做的比机器好的,或者更有效率的,
ANN就有可能替代,如果是机器比人干的好的,ANN也不见得有用。
看到神经网络的应用,语音识别,图像识别,围棋,自动驾驶,都是之前人比机器强的
例子。

【在 w***g 的大作中提到】
: 如果不是语音图像或者别的传感器信号的话,
: 干不过传统方法很有可能。

l*******m
发帖数: 1096
27
这篇被据了,因为没有引用下面的
https://arxiv.org/pdf/1402.1869.pdf
这个2014年的明显写的好

【在 g****t 的大作中提到】
: 昨天我查了下最新的文献,
: 有一个最新的匿名文章
: BOUNDING AND COUNTING LINEAR REGIONS OF
: DEEP NEURAL NETWORKS
: Anonymous authors
: Paper under double-blind review
: https://openreview.net/pdf?id=Sy-tszZRZ
: page 16就是我考虑过的一维情形.
: 作者说L层,每层n个神经元的单输入单输出实数映射的网络。
: 可以把x轴切割成(n+1)**L个部分.

g****t
发帖数: 31659
28
14年文章好像作者自己有更新。然后这个新文章作者说比14文章作者的更新的构造方法
更好?
这就是黑帮啊,还可以因为少引用而被据的...
Anyway,这里确有一个超线性的度量律。估计很快物理学家做gauge theory ,统计物理
等的会进来做大尺度分析。


: 这篇被据了,因为没有引用下面的

: https://arxiv.org/pdf/1402.1869.pdf

: 这个2014年的明显写的好



【在 l*******m 的大作中提到】
: 这篇被据了,因为没有引用下面的
: https://arxiv.org/pdf/1402.1869.pdf
: 这个2014年的明显写的好

l*******m
发帖数: 1096
29
有意思。我又研究了一下。这问题最早在http://www.inference.org.uk/mackay/itila/
第40章研究过。不过d mackay死得太早了
不过不引用大会主席的文章,也是自找的

:14年文章好像作者自己有更新。然后这个新文章作者说比14文章作者的更新的构造方
法更好?
g****t
发帖数: 31659
30
Alpha Go的实证,以及最近的理论分析,我想基本确认了
Deep neural network在很多情况下优于传统的look up table。
既然piecewise neural network和表格是等价的。未来也许数据库就存下神经网络的w,
b完事。不
要直接存数据了。


: 有意思。我又研究了一下。这问题最早在http://www.inference.org.uk/mackay/itila/

: 第40章研究过。不过d mackay死得太早了

: 不过不引用大会主席的文章,也是自找的

: :14年文章好像作者自己有更新。然后这个新文章作者说比14文章作者的
更新的
构造方

: 法更好?

: :



【在 l*******m 的大作中提到】
: 有意思。我又研究了一下。这问题最早在http://www.inference.org.uk/mackay/itila/
: 第40章研究过。不过d mackay死得太早了
: 不过不引用大会主席的文章,也是自找的
:
: :14年文章好像作者自己有更新。然后这个新文章作者说比14文章作者的更新的构造方
: 法更好?
: :

相关主题
robpike 老流氓机器学习的分类:这两个算法有什么本质的不同?
[bssd]Golang还不错请推荐java 机器学习库 。。。
关于搞ML刷数据的职业前途亚麻决定支持mxnet
进入Programming版参与讨论
s*****V
发帖数: 21731
31
chomsky很反对目前的基于统计模型的AI.
http://www.openculture.com/2012/11/noam_chomsky_explains_where_artificial_intelligence_went_wrong_.html
It's true there's been a lot of work on trying to apply statistical models
to various linguistic problems. I think there have been some successes, but
a lot of failures. There is a notion of success ... which I think is novel
in the history of science. It interprets success as approximating unanalyzed
data.
NORVIG的辩护文章
http://norvig.com/chomsky.html

w,

【在 g****t 的大作中提到】
: Alpha Go的实证,以及最近的理论分析,我想基本确认了
: Deep neural network在很多情况下优于传统的look up table。
: 既然piecewise neural network和表格是等价的。未来也许数据库就存下神经网络的w,
: b完事。不
: 要直接存数据了。
:
:
: 有意思。我又研究了一下。这问题最早在http://www.inference.org.uk/mackay/itila/
:
: 第40章研究过。不过d mackay死得太早了
:
: 不过不引用大会主席的文章,也是自找的
:
: :14年文章好像作者自己有更新。然后这个新文章作者说比14文章作者的

x****u
发帖数: 44466
32
计算机这东西变化太快了,虽然比杨振宁年轻,但他退休的时候很多前端理论还没被广
泛接受
现在流行统计模型是因为非统计模型不可避免的被PNP锁死了啊

but
unanalyzed

【在 s*****V 的大作中提到】
: chomsky很反对目前的基于统计模型的AI.
: http://www.openculture.com/2012/11/noam_chomsky_explains_where_artificial_intelligence_went_wrong_.html
: It's true there's been a lot of work on trying to apply statistical models
: to various linguistic problems. I think there have been some successes, but
: a lot of failures. There is a notion of success ... which I think is novel
: in the history of science. It interprets success as approximating unanalyzed
: data.
: NORVIG的辩护文章
: http://norvig.com/chomsky.html
:

m******r
发帖数: 1033
33
什么是pnp ?

【在 x****u 的大作中提到】
: 计算机这东西变化太快了,虽然比杨振宁年轻,但他退休的时候很多前端理论还没被广
: 泛接受
: 现在流行统计模型是因为非统计模型不可避免的被PNP锁死了啊
:
: but
: unanalyzed

1 (共1页)
进入Programming版参与讨论
相关主题
100伪币悬赏:CNN这个东西本质上处理不了形变问几个神经网络的问题
transfer learning是不是接近人类学习的本质了?FPGA-based DNNs
robpike 老流氓张首晟也开始搞深学了
[bssd]Golang还不错$3.95的Lisp In Small Pieces
关于搞ML刷数据的职业前途你们这些python黑
机器学习的分类:这两个算法有什么本质的不同?王垠:解密“设计模式”
请推荐java 机器学习库 。。。Peter Norvig说编程竞赛强与工作干的好成反比 (转载)
亚麻决定支持mxnetpython question: A socket operation was attempted to an unreachable network
相关话题的讨论汇总
话题: br话题: ann话题: dl话题: 深学话题: 文章