由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Go版 - 阿法狗生怕人类还不够绝望
相关主题
神经网络的结构决定了他的极限第三局估计也没啥可看了
阿法狗第二局最令人震惊的地方在于哈比斯说没用高手期局训练啊
原来阿尔法下的是5秒版的ZEN锵锵请的港大计算机系主任不懂啊
写过程序的都知道大家对Alphago的胜率理解有误
阿法狗下围棋离人类还差的远阿法狗怎样算气的?
AlphaGo is not the solution to AI金明完9段点评AlphaGo: 缺点明显
alphago其实根本不用学人的棋谱从第四盘棋看狗狗的弱点
阿法狗怎么做到每天练习几十万盘棋?看大家讨论中比较少提这个 reinforcement learning
相关话题的讨论汇总
话题: mct话题: 人类话题: 围棋话题: 棋谱话题: ai
进入Go版参与讨论
1 (共1页)
D*******r
发帖数: 2323
1
人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。
结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规
则和目标,由阿法狗从零开始自我学习。
看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。
推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。
b*******8
发帖数: 37364
2
可能下出王吉新遇仙图,证明的确是外星人带来的围棋
x**w
发帖数: 7947
3
这倒没什么。这其实测的不仅是阿狗的上限,也是围棋的上限。至少这次看,围棋的上
限还是很高的。光靠人脑摸不到边。阿狗能不能摸到实在不清楚。
e*g
发帖数: 4981
4
超级赛亚人了

【在 D*******r 的大作中提到】
: 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。
: 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规
: 则和目标,由阿法狗从零开始自我学习。
: 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。
: 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。

h*h
发帖数: 27852
5
楼主不太懂机器学习吧
阿狗完全靠自学达到现在水平估计也就3个月
r******i
发帖数: 1445
6
看看结果再说吧。
按照狗狗的那片nature文章,通过自我学习产生的policy神经网络在用于搜索时的表现
不如通过学习人类对局产生的。
g***n
发帖数: 14250
7
如果学到邪路上去了,整天杀大龙。。。hehe
那也很好看
s*****t
发帖数: 1661
8
不太懂机器学习。 但是对于复杂函数,蒙特卡罗算法虽然最后都收敛,但是到达手链
状态之前需要的烧入步数,相差非常大的。。。
股沟这么搞,应该是想测试他们算法对于初始值的依赖程度的高低吧。。。说没有依赖
,那数学上是不成立的。。。
D*******r
发帖数: 2323
9
那也是在有了人类十几万棋谱,三千万局部棋型的基础上学习的。如果这些人类的棋谱
中存在大量的错误和局限性,阿法狗就同样会受这些错误和局限性的影响。
完全不给人工智能任何外部经验,完全看它自我总结会形成什么样的智力,是和人类总
结的经验相近形成和人类相近的智力,还是完全不同于人类总结的经验,但是达到更高
的智力维度。
如果是后者,那真是感觉天网要降临了,因为以后的机器,你只要给它加上各种传感器
,以及高速它一个目标,它就开始日以继夜地不受控地成长了。

【在 h*h 的大作中提到】
: 楼主不太懂机器学习吧
: 阿狗完全靠自学达到现在水平估计也就3个月

O**l
发帖数: 12923
10
这样不错 只是开始converge慢
但是没有bias 最后上限会高很多
相关主题
AlphaGo is not the solution to AI第三局估计也没啥可看了
alphago其实根本不用学人的棋谱哈比斯说没用高手期局训练啊
阿法狗怎么做到每天练习几十万盘棋?锵锵请的港大计算机系主任不懂啊
进入Go版参与讨论
D*******r
发帖数: 2323
11
算法这部分是死的,主要是看计算机完全依靠自我的神经网络学习,会得出什么不同于
人类经验的地方。
可以说第一版的人工智能是要把棋下得像人下的,但是强到人赢不了。第二版的人工智
能要把棋下的可能人完全看不懂,完全颠覆人的既有观念,但是人依旧赢不了,不但人
赢不了,第一版的狗也赢不了。
如果第一版和第二版的狗计算力相同,而第一版的狗赢不了第二版的狗,那么说明,高
于人类智力的物种出现了。

【在 s*****t 的大作中提到】
: 不太懂机器学习。 但是对于复杂函数,蒙特卡罗算法虽然最后都收敛,但是到达手链
: 状态之前需要的烧入步数,相差非常大的。。。
: 股沟这么搞,应该是想测试他们算法对于初始值的依赖程度的高低吧。。。说没有依赖
: ,那数学上是不成立的。。。

D*******r
发帖数: 2323
12
有依据吗?在哪儿看到阿狗完全靠自学达到现在水平的?

【在 h*h 的大作中提到】
: 楼主不太懂机器学习吧
: 阿狗完全靠自学达到现在水平估计也就3个月

n*****t
发帖数: 22014
13
靠蛮力赢棋,只不过多了个刷题的机器狗,跟智能毫无关系

【在 D*******r 的大作中提到】
: 算法这部分是死的,主要是看计算机完全依靠自我的神经网络学习,会得出什么不同于
: 人类经验的地方。
: 可以说第一版的人工智能是要把棋下得像人下的,但是强到人赢不了。第二版的人工智
: 能要把棋下的可能人完全看不懂,完全颠覆人的既有观念,但是人依旧赢不了,不但人
: 赢不了,第一版的狗也赢不了。
: 如果第一版和第二版的狗计算力相同,而第一版的狗赢不了第二版的狗,那么说明,高
: 于人类智力的物种出现了。

D*******r
发帖数: 2323
14
别扯了,没有神经网络靠蒙特卡罗搜索的围棋软件出来已经有十多年了,最好的今年一
月被连笑打到让六子。
围棋盘上下一手的可选点有上百个,上百个点下面又有上百个分支,哪些需要计算哪些
根本不用考虑,你告诉我蛮力计算怎么解决?

【在 n*****t 的大作中提到】
: 靠蛮力赢棋,只不过多了个刷题的机器狗,跟智能毫无关系
n*****t
发帖数: 22014
15
跟以往棋谱的比对,确定最有可能的几个落点,然后计算之后的 20 手

【在 D*******r 的大作中提到】
: 别扯了,没有神经网络靠蒙特卡罗搜索的围棋软件出来已经有十多年了,最好的今年一
: 月被连笑打到让六子。
: 围棋盘上下一手的可选点有上百个,上百个点下面又有上百个分支,哪些需要计算哪些
: 根本不用考虑,你告诉我蛮力计算怎么解决?

s*****V
发帖数: 21731
16
我倒是觉得阿发狗自学,要么就做不出现在的水平,要么做出来很厉害的应该会是跟现
在类似但是有所不同的东西。如果完全不同,难道说人类之前所有的经验都是走在错误
的道路上?这种可能性很小。
D*******r
发帖数: 2323
17
现在人工智能要做的就是,你以往的棋谱不见得靠谱,干嘛要和你以往的棋谱比,谁知
道你以往的棋谱里有没有漏算错算,所以人工智能自己对局自己更加结果总结规律,这
不是智能是什么?

【在 n*****t 的大作中提到】
: 跟以往棋谱的比对,确定最有可能的几个落点,然后计算之后的 20 手
i***h
发帖数: 12655
18
最有可能出现的是不在角上的新开局
g***n
发帖数: 14250
19
五路比星位更值钱?hehe 不可能的
不然你去比狗下高一路,肯定一样很惨
C**E
发帖数: 2573
20
DeepMind这次成功的商业和社会影响力运作,很赞.
但,现在飘飘然了.类似于tesla的马斯克,在起步成功后,就开始吹牛和搞一些不切实际
的想法/运作.
没有初值, 这个成长的计算量级应该靠拢穷举的量级了, 现在的计算机根本达不到,与
学习算法/神经网络/MCTS等无关. DeepMind这个设想,只有未来光子晶体的量子计算机
才可能.
人类,相比电子计算机,胜在"灵感", 有机的生物芯片或许有可能达到"灵感"层次,但这
个又成了纸上扯淡了. 回顾科技和文化历史, 人类更多的是,"师法自然",从大自然--这
个上帝的杰作中--去获取"灵感"和知识方法等.我老记得Brookhaven国家实验室一进大
园子的石碑上的一段话,就是强调关于从自然中的"discovery"的重要性和意义.
我老的两分钱.
呵呵

【在 D*******r 的大作中提到】
: 那也是在有了人类十几万棋谱,三千万局部棋型的基础上学习的。如果这些人类的棋谱
: 中存在大量的错误和局限性,阿法狗就同样会受这些错误和局限性的影响。
: 完全不给人工智能任何外部经验,完全看它自我总结会形成什么样的智力,是和人类总
: 结的经验相近形成和人类相近的智力,还是完全不同于人类总结的经验,但是达到更高
: 的智力维度。
: 如果是后者,那真是感觉天网要降临了,因为以后的机器,你只要给它加上各种传感器
: ,以及高速它一个目标,它就开始日以继夜地不受控地成长了。

相关主题
大家对Alphago的胜率理解有误从第四盘棋看狗狗的弱点
阿法狗怎样算气的?看大家讨论中比较少提这个 reinforcement learning
金明完9段点评AlphaGo: 缺点明显Facebook’s AI tech mimics how humans learn
进入Go版参与讨论
h***e
发帖数: 2823
21
不受人类已有思路的污染。
这厮是要弄出来一个天庭土生土长的上帝出来啊。
希望练的足够了,再放出来接触人间。
t******l
发帖数: 10908
22
这个不一定有说的那么玄,绝大部分函数/系统迭代,初始条件的影响很大,有时能导
致结果是收敛还是发散的差别。
而其中不少关键初始条件/初始系数啥的,是设计者调试者经过尝试给出的,俗称
magic number。虽然很多系统设计者调试者可能根本不会下棋,但那些 magic number
是设计者调试者对其后面的数学模型的认知。
从这个角度说,除非 deepmind 能够不仅不用人类棋谱,而且把系统里所有的初始条件
和 magic number 都设在数学上的零点或极点,干干净净的开始狗咬狗进化。这样才够
狠。
当然,也有不排除生出震惊世界的棋局就是了。

:人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。
D*******r
发帖数: 2323
23
他只是说做过实验嘛,也没说结果一定会怎样,没准只是为了给头狗做个参照系。

【在 C**E 的大作中提到】
: DeepMind这次成功的商业和社会影响力运作,很赞.
: 但,现在飘飘然了.类似于tesla的马斯克,在起步成功后,就开始吹牛和搞一些不切实际
: 的想法/运作.
: 没有初值, 这个成长的计算量级应该靠拢穷举的量级了, 现在的计算机根本达不到,与
: 学习算法/神经网络/MCTS等无关. DeepMind这个设想,只有未来光子晶体的量子计算机
: 才可能.
: 人类,相比电子计算机,胜在"灵感", 有机的生物芯片或许有可能达到"灵感"层次,但这
: 个又成了纸上扯淡了. 回顾科技和文化历史, 人类更多的是,"师法自然",从大自然--这
: 个上帝的杰作中--去获取"灵感"和知识方法等.我老记得Brookhaven国家实验室一进大
: 园子的石碑上的一段话,就是强调关于从自然中的"discovery"的重要性和意义.

k*l
发帖数: 2574
24
开始穷举,后来能总结规律节省时间吗?。确实有是否收敛的问题。连最新狗都不够稳
定的话,这个小白狗会不会夭折或者收敛极慢?
z****g
发帖数: 2497
25
狗狗这个有点托大,如果零始狗打不过阿尔法狗,或者说和阿法狗不分伯仲,那就算是
被打脸了吧。。
AI自己练上亿万盘,还是只和人类几十万盘(有这么多吗?)的积累打个平手。

【在 D*******r 的大作中提到】
: 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。
: 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规
: 则和目标,由阿法狗从零开始自我学习。
: 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。
: 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。

O**l
发帖数: 12923
26
http://www.mitbbs.com/article_t/Go/31241351.html
我一个月前就说过
人的棋谱bias太大 到一定程度很难提高
其实就是一个迭代 converge更慢 但是最终上限会更高
说穷举的全是文科生
t******l
发帖数: 10908
27
或者打个比方说,就好比计算机模拟把地球回到最初重来一遍,看看智慧生命是否能自
我生成。
但这个问题是,没 delete 掉地球本身。而地球本身的设置,是生命生成的最大因子之
一。
其实光 delete 掉地球远远不够,还得 delete 掉光速和普朗克常数。这俩常数不对头
的话,连夸克都没有。。。当然,也有可能搞出个 Star Trek 里面的 Q 族智慧生命,
可以不依赖时空而存在。

:这个不一定有说的那么玄,绝大部分函数/系统迭代,初始条件的影响很大,有时能导
:致结果是收敛还是发散的差别。
t******l
发帖数: 10908
28
如果是仅仅不用人类棋谱,而系统的所有初始条件和 magic number 没有给清到零点和
极点的话,最多只能说明下围棋数学家和马工就够了,整个围棋界和那些专业棋手其实
就是娱乐圈。
当然,围棋这个简单问题,所有初始条件清零可能也有跑牛鼻狗的概率。

http://www.mitbbs.com/article_t/Go/31241351.html
O**l
发帖数: 12923
29
搞笑 不用任何heuristic
纯MCT 局部19*19至少就有业余1D的水平 9*9无敌
MCT self play, train CNN
CNN + MCT self play train CNN'
CNN'+ MCT self play train CNN''
....
MCT rollout纯随机没有任何bias
说穷举的都是文科生

【在 t******l 的大作中提到】
: 如果是仅仅不用人类棋谱,而系统的所有初始条件和 magic number 没有给清到零点和
: 极点的话,最多只能说明下围棋数学家和马工就够了,整个围棋界和那些专业棋手其实
: 就是娱乐圈。
: 当然,围棋这个简单问题,所有初始条件清零可能也有跑牛鼻狗的概率。
:
: :http://www.mitbbs.com/article_t/Go/31241351.html
: :

h*********r
发帖数: 10182
30
google的目的不是围棋。围棋的问题已经解决了。
而是这个深度学习的算法。他想试试不受人类的走法影响,只用机器纯自我学习会达到
什么高度。
在一些简单的游戏里,这个机器的自学可以完全找到最优解。现在想试试复杂的围棋。
相关主题
说说我眼中阿尔法的棋力阿法狗第二局最令人震惊的地方在于
棋渣判断太牛了原来阿尔法下的是5秒版的ZEN
神经网络的结构决定了他的极限写过程序的都知道
进入Go版参与讨论
t******l
发帖数: 10908
31
不熟悉围棋电算,但如果纯 MCT 里没有任何 magic number,随机数不需要 condition
,那围棋确实是体育运动。
不过更重要的事,deep neuro network 是不是要设初始条件和 magic number,还是照
paper 一抄直接上 MCT 结果就直接可以 train 了?

:搞笑 不用任何heuristic
O**l
发帖数: 12923
32
MCT != monte carlo

condition

【在 t******l 的大作中提到】
: 不熟悉围棋电算,但如果纯 MCT 里没有任何 magic number,随机数不需要 condition
: ,那围棋确实是体育运动。
: 不过更重要的事,deep neuro network 是不是要设初始条件和 magic number,还是照
: paper 一抄直接上 MCT 结果就直接可以 train 了?
:
: :搞笑 不用任何heuristic
: :

t******l
发帖数: 10908
33
另外我没说穷举法。其实穷举法倒是不需要任何初始条件以及 magic number。

:搞笑 不用任何heuristic
C**E
发帖数: 2573
34
我老个人认为你对初值地理解更深入, ozil对初值系统的理解很浅薄, 但他总是以为自
己全懂了.
就好比对金融的理解一样,ozil对tesla和solar city的技术问题也是满口名词,一深入
就眯瞪了.
金博士点评Ozil.
http://www.mitbbs.com/clubarticle_t/stockbash/31457953.html
呵呵

condition

【在 t******l 的大作中提到】
: 不熟悉围棋电算,但如果纯 MCT 里没有任何 magic number,随机数不需要 condition
: ,那围棋确实是体育运动。
: 不过更重要的事,deep neuro network 是不是要设初始条件和 magic number,还是照
: paper 一抄直接上 MCT 结果就直接可以 train 了?
:
: :搞笑 不用任何heuristic
: :

D******n
发帖数: 2965
35
倒不是看不起deepmind, 但他们这个目标比现在狗狗要更困难的多,至少理论上没有能
证明这个machine learning的过程一定是会converge的,弄不好会是个循环打圈圈。站
在人类的肩膀上来学习,虽说不能保证最终能收敛到神的水平,但可以保证打败人类。
现在狗狗能打败人,但不能说明能收敛到绝对正确的地步。

【在 D*******r 的大作中提到】
: 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。
: 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规
: 则和目标,由阿法狗从零开始自我学习。
: 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。
: 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。

D******n
发帖数: 2965
36
说到底还是因为无法证明最优策略的唯一性和收敛性。自我学习完全有可能是坐井观天
。更人类学好歹是和人类在一个井里数星星。

【在 r******i 的大作中提到】
: 看看结果再说吧。
: 按照狗狗的那片nature文章,通过自我学习产生的policy神经网络在用于搜索时的表现
: 不如通过学习人类对局产生的。

t*****9
发帖数: 10416
37
第二版出来,谷歌只需要拿第一版的狗 测试,p民 根本不知道大祸当前 ~~

【在 D*******r 的大作中提到】
: 算法这部分是死的,主要是看计算机完全依靠自我的神经网络学习,会得出什么不同于
: 人类经验的地方。
: 可以说第一版的人工智能是要把棋下得像人下的,但是强到人赢不了。第二版的人工智
: 能要把棋下的可能人完全看不懂,完全颠覆人的既有观念,但是人依旧赢不了,不但人
: 赢不了,第一版的狗也赢不了。
: 如果第一版和第二版的狗计算力相同,而第一版的狗赢不了第二版的狗,那么说明,高
: 于人类智力的物种出现了。

D*******r
发帖数: 2323
38
这个事情得这么理解,deepmind的目的是揭开人的智能之谜,而不是为了研发一款电脑
围棋软件。
假设有两个孩子,只告诉他们围棋的规则与游戏目标,然后让他们任意在盘上开始玩,
孩子们大概要多长时间会自己总结出一些规律和棋理来?然后这两个孩子可以把他们总
结出的规律和棋理告诉给另外完全不会围棋的孩子。换句话说,突然今天世界上所有的
围棋棋谱都烧毁了,所有会围棋的人都死绝了,只留下一本围棋规则手册,后人有人根
据这本手册开始从零开始玩围棋,人类要经过多少代的总结和练习,能重新达到今天的
围棋水平?
deepmind让贝塔狗从零开始学围棋,大概就是想模拟两个没有外界老师的孩子学围棋,
看它学习的增长速率和从零开始学围棋的人相比如何,总结出的经验和规律是否有差距?

【在 D******n 的大作中提到】
: 倒不是看不起deepmind, 但他们这个目标比现在狗狗要更困难的多,至少理论上没有能
: 证明这个machine learning的过程一定是会converge的,弄不好会是个循环打圈圈。站
: 在人类的肩膀上来学习,虽说不能保证最终能收敛到神的水平,但可以保证打败人类。
: 现在狗狗能打败人,但不能说明能收敛到绝对正确的地步。

D******n
发帖数: 2965
39
在你说的情况下,人类经过很多代的学习,可能会到达一个完全不同的认识。在有限理
性下,会不会收敛都不知道,更别说即使收敛,如果有多重均衡怎么办的问题。
我觉得你有点太迷信机器的学习能力了,机器只是计算能力强,存储能力强而已,但也
有自己的局限,要不然就不会有NP这一说了。真正能力强的,是老天。这次比赛,无非
是说了一旦机器学习了人类既有围棋知识,就能战胜人类,如此而已。不要因此而神化
机器。

距?

【在 D*******r 的大作中提到】
: 这个事情得这么理解,deepmind的目的是揭开人的智能之谜,而不是为了研发一款电脑
: 围棋软件。
: 假设有两个孩子,只告诉他们围棋的规则与游戏目标,然后让他们任意在盘上开始玩,
: 孩子们大概要多长时间会自己总结出一些规律和棋理来?然后这两个孩子可以把他们总
: 结出的规律和棋理告诉给另外完全不会围棋的孩子。换句话说,突然今天世界上所有的
: 围棋棋谱都烧毁了,所有会围棋的人都死绝了,只留下一本围棋规则手册,后人有人根
: 据这本手册开始从零开始玩围棋,人类要经过多少代的总结和练习,能重新达到今天的
: 围棋水平?
: deepmind让贝塔狗从零开始学围棋,大概就是想模拟两个没有外界老师的孩子学围棋,
: 看它学习的增长速率和从零开始学围棋的人相比如何,总结出的经验和规律是否有差距?

O**l
发帖数: 12923
40
和人学很容易local optima
MCT 本身就有真没 足够simualtion次数下纯MCT强于加heuristic的MCT
CNN的autoencoder的能力还是很强 没有bias的情况下
找到一个比人好的local optima是很可能的事

【在 D******n 的大作中提到】
: 在你说的情况下,人类经过很多代的学习,可能会到达一个完全不同的认识。在有限理
: 性下,会不会收敛都不知道,更别说即使收敛,如果有多重均衡怎么办的问题。
: 我觉得你有点太迷信机器的学习能力了,机器只是计算能力强,存储能力强而已,但也
: 有自己的局限,要不然就不会有NP这一说了。真正能力强的,是老天。这次比赛,无非
: 是说了一旦机器学习了人类既有围棋知识,就能战胜人类,如此而已。不要因此而神化
: 机器。
:
: 距?

相关主题
写过程序的都知道alphago其实根本不用学人的棋谱
阿法狗下围棋离人类还差的远阿法狗怎么做到每天练习几十万盘棋?
AlphaGo is not the solution to AI第三局估计也没啥可看了
进入Go版参与讨论
E*******1
发帖数: 3464
41
我看你才不懂什么是machine learning,ML前提就是有数据支撑,当然要有prior的模
型支持,通过数据找拟合最好的模型和它的参数,说白了一切AI的根本就是个fitting
,你没有数据fit什么?当然,当整个模型参数基本确定之后,数据就不是非常重要了
,通过outsample的样本可以不断长进

【在 h*h 的大作中提到】
: 楼主不太懂机器学习吧
: 阿狗完全靠自学达到现在水平估计也就3个月

O**l
发帖数: 12923
42
MCT 自己对自己下 生产数据

fitting

【在 E*******1 的大作中提到】
: 我看你才不懂什么是machine learning,ML前提就是有数据支撑,当然要有prior的模
: 型支持,通过数据找拟合最好的模型和它的参数,说白了一切AI的根本就是个fitting
: ,你没有数据fit什么?当然,当整个模型参数基本确定之后,数据就不是非常重要了
: ,通过outsample的样本可以不断长进

a****o
发帖数: 6612
43
很有道理。不知道为什么版上有几位整不明白。
围棋本来就是人发明的。发明人(假定不是外星人的话)难道不是从零开始的。
只要告诉规则,完全可以用monte carlo的方法对出几百万对局来。然后training,然
后用training之后的alphago对上几百万局;然后再training;一层一层之后,看是否能
converge。
我个人觉得对局的质量会提高,整体会converge的。

距?

【在 D*******r 的大作中提到】
: 这个事情得这么理解,deepmind的目的是揭开人的智能之谜,而不是为了研发一款电脑
: 围棋软件。
: 假设有两个孩子,只告诉他们围棋的规则与游戏目标,然后让他们任意在盘上开始玩,
: 孩子们大概要多长时间会自己总结出一些规律和棋理来?然后这两个孩子可以把他们总
: 结出的规律和棋理告诉给另外完全不会围棋的孩子。换句话说,突然今天世界上所有的
: 围棋棋谱都烧毁了,所有会围棋的人都死绝了,只留下一本围棋规则手册,后人有人根
: 据这本手册开始从零开始玩围棋,人类要经过多少代的总结和练习,能重新达到今天的
: 围棋水平?
: deepmind让贝塔狗从零开始学围棋,大概就是想模拟两个没有外界老师的孩子学围棋,
: 看它学习的增长速率和从零开始学围棋的人相比如何,总结出的经验和规律是否有差距?

t******l
发帖数: 10908
44
隔行如隔山,吓得我刚才 wiki 了一下,好像还是用到随机数发生器吧。
http://en.wikipedia.org/wiki/Monte_Carlo_tree_search
不过另一个角度说,MCT 也隐含了人类对围棋型 game 的理解。
严格的说 MCT 和 MCT 的结果都不应该用,纯粹从围棋规则开始训练,
只能从 穷举 以及 unbiased 随机选择开始。因为这个才是人类
尝试调试的起点。

【在 O**l 的大作中提到】
: MCT 自己对自己下 生产数据
:
: fitting

D******n
发帖数: 2965
45
胡扯也就算了,还扯这么细,哎

【在 a****o 的大作中提到】
: 很有道理。不知道为什么版上有几位整不明白。
: 围棋本来就是人发明的。发明人(假定不是外星人的话)难道不是从零开始的。
: 只要告诉规则,完全可以用monte carlo的方法对出几百万对局来。然后training,然
: 后用training之后的alphago对上几百万局;然后再training;一层一层之后,看是否能
: converge。
: 我个人觉得对局的质量会提高,整体会converge的。
:
: 距?

t******l
发帖数: 10908
46
monte carlo tree 不是 naive 地随机地在树里面乱跑。。。否则叫
monte carlo method。。。当然都是黑话。
不过如果计算力够强,那从 monte carlo method 可能也能弄到几万对局的
起点。

【在 a****o 的大作中提到】
: 很有道理。不知道为什么版上有几位整不明白。
: 围棋本来就是人发明的。发明人(假定不是外星人的话)难道不是从零开始的。
: 只要告诉规则,完全可以用monte carlo的方法对出几百万对局来。然后training,然
: 后用training之后的alphago对上几百万局;然后再training;一层一层之后,看是否能
: converge。
: 我个人觉得对局的质量会提高,整体会converge的。
:
: 距?

O**l
发帖数: 12923
47
MCT的核心是UCB
UCB在结果0-1之间 converge的速度是montecarlo的百万倍
你可以搜mogo 2007年的那篇paper
什么都不做纯用mct 局部都能有kgs 1d的水平

【在 t******l 的大作中提到】
: 隔行如隔山,吓得我刚才 wiki 了一下,好像还是用到随机数发生器吧。
: http://en.wikipedia.org/wiki/Monte_Carlo_tree_search
: 不过另一个角度说,MCT 也隐含了人类对围棋型 game 的理解。
: 严格的说 MCT 和 MCT 的结果都不应该用,纯粹从围棋规则开始训练,
: 只能从 穷举 以及 unbiased 随机选择开始。因为这个才是人类
: 尝试调试的起点。

n******r
发帖数: 4455
48
楼主有点过度解读,这是哈萨比的原话,不用棋谱是为了测试算法在无初始条件下的表
现,认为这样做会化很长时间,也不会让程序更强
问:在起步之初,AlphaGo被教给了许多棋型模式。考虑到用户的输入信息多种多样,
这种技术将如何应用至智能手机?
哈萨比斯:是的,数据量很大,你可以利用数据去学习。但就AlphaGo的算法而言
,我们认为可以不再规定受控的学习起点,完全放手让其自学,从零起步。我们将在未
来几个月进行这样的尝试。这会花更长的时间,可能是几个月,因为不按棋谱随机下棋
意味着更多的尝试和试错。但我们认为,这种纯粹依靠自学的模式是可行的。
问:出现这样的可能性是否是由于算法已发展到目前的程度?
哈萨比斯:不是的。我们之前也可以这样做。这样做不会让程序更强大,这只是为
了尝试纯粹的自学,摆脱人为控制的部分。我们认为,这一算法可以在不受控的情况下
运转。我们去年让人工智能去玩Atari的游戏,人工智能从像素点的研究起步,这其中
没有掺杂任何人类知识。人工智能从屏幕上的随机像素开始。
D******n
发帖数: 2965
49
如果在普遍情况下(譬如围棋的环境下),让程序根据规则自我找到最优能实现的话,
就不是google买下deepmind, 而是deepmind买下google的问题了。

【在 n******r 的大作中提到】
: 楼主有点过度解读,这是哈萨比的原话,不用棋谱是为了测试算法在无初始条件下的表
: 现,认为这样做会化很长时间,也不会让程序更强
: 问:在起步之初,AlphaGo被教给了许多棋型模式。考虑到用户的输入信息多种多样,
: 这种技术将如何应用至智能手机?
: 哈萨比斯:是的,数据量很大,你可以利用数据去学习。但就AlphaGo的算法而言
: ,我们认为可以不再规定受控的学习起点,完全放手让其自学,从零起步。我们将在未
: 来几个月进行这样的尝试。这会花更长的时间,可能是几个月,因为不按棋谱随机下棋
: 意味着更多的尝试和试错。但我们认为,这种纯粹依靠自学的模式是可行的。
: 问:出现这样的可能性是否是由于算法已发展到目前的程度?
: 哈萨比斯:不是的。我们之前也可以这样做。这样做不会让程序更强大,这只是为

s*****V
发帖数: 21731
50
如果人类的方法是local optima,按照你的说法,用MCT发现致胜pattern然后用CNN
record,完全也可以TRAP到某个其他的LOCAL optima里面去

【在 O**l 的大作中提到】
: 和人学很容易local optima
: MCT 本身就有真没 足够simualtion次数下纯MCT强于加heuristic的MCT
: CNN的autoencoder的能力还是很强 没有bias的情况下
: 找到一个比人好的local optima是很可能的事

相关主题
哈比斯说没用高手期局训练啊阿法狗怎样算气的?
锵锵请的港大计算机系主任不懂啊金明完9段点评AlphaGo: 缺点明显
大家对Alphago的胜率理解有误从第四盘棋看狗狗的弱点
进入Go版参与讨论
t******l
发帖数: 10908
51
看来下下月打算把 UCB 当小说看看了。
不过 UCB 是人类发明的成果不是,显然不是阿尔法狗的创造。
说到底,最多只能证明 delete 围棋界也不影响 AI 的发展,没法证明
delete 掉数学界计算科学界,也能自发生成 AI 啊啊啊。。。// run

【在 O**l 的大作中提到】
: MCT的核心是UCB
: UCB在结果0-1之间 converge的速度是montecarlo的百万倍
: 你可以搜mogo 2007年的那篇paper
: 什么都不做纯用mct 局部都能有kgs 1d的水平

O**l
发帖数: 12923
52
不穷尽肯定都是local optima
但是纯MCT只受规则影响 没有任何heuristic
应该数据bias更小 理论上训练效果应该更好
这也是为什么deepmind想这样做的原因

【在 s*****V 的大作中提到】
: 如果人类的方法是local optima,按照你的说法,用MCT发现致胜pattern然后用CNN
: record,完全也可以TRAP到某个其他的LOCAL optima里面去

O**l
发帖数: 12923
53
你这个层次太高了吧
我只是说这个方法可能可行
不用拔高到这么高吧

【在 t******l 的大作中提到】
: 看来下下月打算把 UCB 当小说看看了。
: 不过 UCB 是人类发明的成果不是,显然不是阿尔法狗的创造。
: 说到底,最多只能证明 delete 围棋界也不影响 AI 的发展,没法证明
: delete 掉数学界计算科学界,也能自发生成 AI 啊啊啊。。。// run

t******l
发帖数: 10908
54
但我不在乎围棋可行不可行,反正就是个游戏,就好比证明黎曼假说。
更重要的还是人工智能的实用哲学意思不是?

【在 O**l 的大作中提到】
: 你这个层次太高了吧
: 我只是说这个方法可能可行
: 不用拔高到这么高吧

O**l
发帖数: 12923
55
阿法狗用的方法讲白了就是一种优化的穷举
和AI根本不搭边

【在 t******l 的大作中提到】
: 但我不在乎围棋可行不可行,反正就是个游戏,就好比证明黎曼假说。
: 更重要的还是人工智能的实用哲学意思不是?

n******t
发帖数: 4406
56
这是纯扯淡。
等于先拿个软柿子捏,然后扯自己其实硬柿子也行。什么玩意。。

【在 D*******r 的大作中提到】
: 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。
: 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规
: 则和目标,由阿法狗从零开始自我学习。
: 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。
: 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。

t******l
发帖数: 10908
57
有可能,MCT 本身也可能 trap 在某型 local optima 里面,就好比猴子
看不到如来之手。。。

【在 s*****V 的大作中提到】
: 如果人类的方法是local optima,按照你的说法,用MCT发现致胜pattern然后用CNN
: record,完全也可以TRAP到某个其他的LOCAL optima里面去

t******l
发帖数: 10908
58
真正的 AI 目前好像还是玄学吧。
实用上我觉得还不如这种优化的穷举,至少看能指望 it 能拍西瓜。

【在 O**l 的大作中提到】
: 阿法狗用的方法讲白了就是一种优化的穷举
: 和AI根本不搭边

n******r
发帖数: 4455
59
你说的这个几十年前就讨论过了,有人是觉得只有strong AI才是真AI
但是搞AI的还是得吃饭啊,不能说weak AI的成果就和AI不搭边了

【在 O**l 的大作中提到】
: 阿法狗用的方法讲白了就是一种优化的穷举
: 和AI根本不搭边

h*h
发帖数: 27852
60
国象可以72小时从0自学到国际大师

fitting

【在 E*******1 的大作中提到】
: 我看你才不懂什么是machine learning,ML前提就是有数据支撑,当然要有prior的模
: 型支持,通过数据找拟合最好的模型和它的参数,说白了一切AI的根本就是个fitting
: ,你没有数据fit什么?当然,当整个模型参数基本确定之后,数据就不是非常重要了
: ,通过outsample的样本可以不断长进

相关主题
看大家讨论中比较少提这个 reinforcement learning棋渣判断太牛了
Facebook’s AI tech mimics how humans learn神经网络的结构决定了他的极限
说说我眼中阿尔法的棋力阿法狗第二局最令人震惊的地方在于
进入Go版参与讨论
t******l
发帖数: 10908
61
属实

【在 n******r 的大作中提到】
: 你说的这个几十年前就讨论过了,有人是觉得只有strong AI才是真AI
: 但是搞AI的还是得吃饭啊,不能说weak AI的成果就和AI不搭边了

s***u
发帖数: 80
62
这个真说不好,以前是计算力不到,
计算力到了,44是不是比45、55好谁知道呢,
alphago看上去非常重视中腹

【在 g***n 的大作中提到】
: 五路比星位更值钱?hehe 不可能的
: 不然你去比狗下高一路,肯定一样很惨

n****g
发帖数: 14743
63
很好。

【在 D*******r 的大作中提到】
: 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。
: 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规
: 则和目标,由阿法狗从零开始自我学习。
: 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。
: 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。

a*****g
发帖数: 19398
64
不错,我去下载一个,看看如何学习的,拿来教小朋友

【在 D*******r 的大作中提到】
: 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。
: 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规
: 则和目标,由阿法狗从零开始自我学习。
: 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。
: 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。

E*******1
发帖数: 3464
65
首先肯定要数据,其次国际象棋的模型在过去20年之后已经成熟,比如你一个线性拟合
本来参数都有了,两下子调出来对于AI不是很正常嘛?这和我说的一点矛盾没有

【在 h*h 的大作中提到】
: 国象可以72小时从0自学到国际大师
:
: fitting

gw
发帖数: 2175
66
算好了第一步应该是天元

【在 s***u 的大作中提到】
: 这个真说不好,以前是计算力不到,
: 计算力到了,44是不是比45、55好谁知道呢,
: alphago看上去非常重视中腹

1 (共1页)
进入Go版参与讨论
相关主题
看大家讨论中比较少提这个 reinforcement learning阿法狗下围棋离人类还差的远
Facebook’s AI tech mimics how humans learnAlphaGo is not the solution to AI
说说我眼中阿尔法的棋力alphago其实根本不用学人的棋谱
棋渣判断太牛了阿法狗怎么做到每天练习几十万盘棋?
神经网络的结构决定了他的极限第三局估计也没啥可看了
阿法狗第二局最令人震惊的地方在于哈比斯说没用高手期局训练啊
原来阿尔法下的是5秒版的ZEN锵锵请的港大计算机系主任不懂啊
写过程序的都知道大家对Alphago的胜率理解有误
相关话题的讨论汇总
话题: mct话题: 人类话题: 围棋话题: 棋谱话题: ai