由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - 大部分人还认为阿法狗在背棋谱 (转载)
相关主题
有没有大牛愿意牵头搞一个 deep learning projectdeep learning is not robust to noise
打败阿法狗的方法探讨,热点扩散法[bssd]AI血泪史
阿尔法幕后的陈御天台州高考理科状元清华电子系卡马克一星期写了个CNN...
FPGA-based DNNsDeepmind,蜘蛛坦克,小笼包(zz)
神经网络有没有什么数学基础上的研究?DNN就是hype (转载)
Java 在ML和DL还不错了问几个神经网络的问题
有什么中等规模的项目适合系统学习的?关于搞ML刷数据的职业前途
lightroom请科普下双路deep learning100伪币悬赏:CNN这个东西本质上处理不了形变
相关话题的讨论汇总
话题: game话题: lee话题: sedol话题: learning话题: 阿法
进入Programming版参与讨论
1 (共1页)
w**z
发帖数: 8232
1
【 以下文字转载自 JobHunting 讨论区 】
发信人: Roethlisberg (Big Ben), 信区: JobHunting
标 题: 大部分人还认为阿法狗在背棋谱
发信站: BBS 未名空间站 (Fri Mar 11 15:15:56 2016, 美东)
说明都还没理解这件事的不同寻常。阿法狗是一个模拟的大脑,只会下棋的大脑。
看看我犬正在做的另一件事。
http://www.popsci.com/googles-robots-are-learning-hand-eye-coor
让机器手自己学习怎么拿东西。
这是一个观念上的进步。以前的人工智能,是人来总结经验,然后编写程序让机器来做
,其实机器并没有学习,只是照人的指令行事而已。
现在DNN在做的,则完全不同。设计出一种可以学习的网络结构,然后让机器自己来学
——通过失败来学习。这是自然界最简单的应激反应,从阿米巴到人类智慧,其实都是
应激反应,只不过规模不同。比如那个机器手,其实就像一个小孩,从跌倒,到可以独
立行走的过程。你看到的是一个特化的生命体。
拿人类的语言打比方。每个人生下来,就由DNA赋予了学习语言的能力。这是网络结构
。除非是傻子,任何人都可以学会语言。但是有的人学中文,有的人学英文,这是一个
参数学习的过程。小孩说“你回来了”,然后你纠正他,应该说“我回来了”,人的神
经网络会相应调整。调整的能力,是由DNA赋予,自然生成的网络结构提供的。
以前,机器学习不是扮演DNA的角色,而是直接去连接神经元。现在,整个思路变成了
我只设计一个可学习的网络结构,并提供应激反应的机制和参数优化的能力。接下来,
学习就是机器自己的事了。
阿法狗就是如此,事实上人类创造了若干个能够(也只能够)下围棋的大脑。他们开始
互相切磋。每天几百万局,不停地切磋。好比科杰回到三百年前可以秒杀所有围棋高手
,每天几百万局不停下的狗,也会很快超过人类。
但是这不是没有上限的。比如阿法狗,神经元数量差不多和一只鸽子类似。那么它能学
到多厉害?能不能学星际?这就难说了。但是随着硬件进步,总有一天会足够聪明。
对于马工而言,这也是一个巨大的机会和挑战。我曾经说过DNN是一种新的编程方式,
从设计算法,变成设计网络结构、损失函数、输入输出。这就好比开启了上帝视角,你
实实在在在创造一个“生物”,它能学某种东西。然后你要给他这些东西让他学。
最后随便打个比分,DNN三大元素:神经网络,输入,损失函数。我们用训狗叼飞盘来
打比方。
网络是基础设施。你要有一只狗,它有脑子,并且具备学习叼飞盘的能力。如果是猫,
那么它学不了。
输入,这只狗必须不瞎,能尝味道——能看见飞盘,能吃肉
损失函数,叼到飞盘,损失为-1,有肉吃,叼不到,损失为1,有肉吃。飞个几百次,
狗肯定学会了。
w**z
发帖数: 8232
2
wdong, 你怎么看?

【在 w**z 的大作中提到】
: 【 以下文字转载自 JobHunting 讨论区 】
: 发信人: Roethlisberg (Big Ben), 信区: JobHunting
: 标 题: 大部分人还认为阿法狗在背棋谱
: 发信站: BBS 未名空间站 (Fri Mar 11 15:15:56 2016, 美东)
: 说明都还没理解这件事的不同寻常。阿法狗是一个模拟的大脑,只会下棋的大脑。
: 看看我犬正在做的另一件事。
: http://www.popsci.com/googles-robots-are-learning-hand-eye-coor
: 让机器手自己学习怎么拿东西。
: 这是一个观念上的进步。以前的人工智能,是人来总结经验,然后编写程序让机器来做
: ,其实机器并没有学习,只是照人的指令行事而已。

w***g
发帖数: 5958
3
https://en.wikipedia.org/wiki/Vacanti_mouse
这只老鼠当时很轰动,背上长了个人耳。
但其实是他们做了个ear-shaped mold让细胞在里面
乱长而已。
DNN那套东西我说不好是真牛还是取巧。

【在 w**z 的大作中提到】
: wdong, 你怎么看?
l**********n
发帖数: 8443
4
Lee Sedol has bested AlphaGo, brilliantly, in Game 4 of the 5 game challenge.
The big question now is who will win Game 5?
Personally, I'm rooting for Lee Sedol. Why? I hope he will adapt his
gameplay, based solely on the games so far, win again, and showcase the
learning power of the human brain!
Biological brains are amazing. We have watched Lee Sedol deliberately change
his style of play over this week, fluidly and consciously adapting and
exploring. Presumably he will use the experience of winning Game 4 to
further adapt to try to gain an advantage in Game 5.
This points to one of the largest differences between human learning and
modern machine learning. Deep networks, such as AlphaGo's policy and value
nets, learn with lots of data and are generalists. They do not retain and
refer back to individual examples, nor can they learn meaningfully from
single examples. Moreover, if trained on data from a changing distribution,
they will forget previous skills, quickly and catastrophically.
Researchers at DeepMind and elsewhere are developing methods for continual
learning, memory, and one-shot learning that scale to large deep networks.
Perhaps a future BetaGo will have the fast, one-shot learning abilities of
Lee Sedol.
N********n
发帖数: 8363
5
啊发够基本上就是作弊吗。多个CPU并行计算等于多个大脑同时下棋,这边小李
就一个脑子当然算不过来了。
1 (共1页)
进入Programming版参与讨论
相关主题
100伪币悬赏:CNN这个东西本质上处理不了形变神经网络有没有什么数学基础上的研究?
transfer learning是不是接近人类学习的本质了?Java 在ML和DL还不错了
robpike 老流氓有什么中等规模的项目适合系统学习的?
[bssd]Golang还不错lightroom请科普下双路deep learning
有没有大牛愿意牵头搞一个 deep learning projectdeep learning is not robust to noise
打败阿法狗的方法探讨,热点扩散法[bssd]AI血泪史
阿尔法幕后的陈御天台州高考理科状元清华电子系卡马克一星期写了个CNN...
FPGA-based DNNsDeepmind,蜘蛛坦克,小笼包(zz)
相关话题的讨论汇总
话题: game话题: lee话题: sedol话题: learning话题: 阿法