p***r 发帖数: 4702 | 1 管中窥豹,这两年是继98 ~ 02 年之后机器学习最大的一次革命。上次革命标志是统计
方法的全面崛起,在四年内将专家系统彻底扫进历史垃圾堆。
而神经网络的全面崛起,从几年前的怀疑,到今年的全面投降,传统统计方法纷纷被打
得不能自理,基本所有会议一半以上的新结果都是神经网络。
基本上所有方法都是曲折进步的,这几年神经网络井喷,主要原因是工具的完善,使得
门槛降低,大量研究人员涌入,使得前沿从原始迅速完善。因为原来方法非常简陋,一
旦优秀工具出现,前沿会迅速推进,迭代极快。但是很快也会碰到边界,就像统计方法
几年的hype过去后,就陷入困境。
但是就像弯曲房价,虽然会碰到淡季,泡沫破之后房价还是比泡沫出现前高,神经网络
取代传统统计方法已经是板上钉钉的事。如果你做的是监督学习,并且还在搞非神经网
络的方法,我建议你好好想想自己的未来。
神经网络的最大好处就是简单,对中国人来说,学过高数线代就够了,最多十几二十天
就能理解。工具方便,实验简单粗暴效果惊人。如今这个领域牛人多是华人,如微软邓
力极其带的一群华人。越南人,如Quoc,和一票欧洲人包括毛子。
我是建议马工业余搞搞神经网络,别被高大上的名词吓到,其实远远比之前的各种奇葩
统计方法简单得多。趁着东方提高自己,说不定就能摆脱普通马工,走上研发道路。这
种机遇不是每年都能遇到的。 |
g****r 发帖数: 1589 | |
e*******o 发帖数: 4654 | 3 大牛谈谈 reinforcement learning如何?
【在 p***r 的大作中提到】 : 管中窥豹,这两年是继98 ~ 02 年之后机器学习最大的一次革命。上次革命标志是统计 : 方法的全面崛起,在四年内将专家系统彻底扫进历史垃圾堆。 : 而神经网络的全面崛起,从几年前的怀疑,到今年的全面投降,传统统计方法纷纷被打 : 得不能自理,基本所有会议一半以上的新结果都是神经网络。 : 基本上所有方法都是曲折进步的,这几年神经网络井喷,主要原因是工具的完善,使得 : 门槛降低,大量研究人员涌入,使得前沿从原始迅速完善。因为原来方法非常简陋,一 : 旦优秀工具出现,前沿会迅速推进,迭代极快。但是很快也会碰到边界,就像统计方法 : 几年的hype过去后,就陷入困境。 : 但是就像弯曲房价,虽然会碰到淡季,泡沫破之后房价还是比泡沫出现前高,神经网络 : 取代传统统计方法已经是板上钉钉的事。如果你做的是监督学习,并且还在搞非神经网
|
l*****z 发帖数: 3022 | 4 这么简单的话是不是这方面的技能很快就不值钱了呢?
【在 p***r 的大作中提到】 : 管中窥豹,这两年是继98 ~ 02 年之后机器学习最大的一次革命。上次革命标志是统计 : 方法的全面崛起,在四年内将专家系统彻底扫进历史垃圾堆。 : 而神经网络的全面崛起,从几年前的怀疑,到今年的全面投降,传统统计方法纷纷被打 : 得不能自理,基本所有会议一半以上的新结果都是神经网络。 : 基本上所有方法都是曲折进步的,这几年神经网络井喷,主要原因是工具的完善,使得 : 门槛降低,大量研究人员涌入,使得前沿从原始迅速完善。因为原来方法非常简陋,一 : 旦优秀工具出现,前沿会迅速推进,迭代极快。但是很快也会碰到边界,就像统计方法 : 几年的hype过去后,就陷入困境。 : 但是就像弯曲房价,虽然会碰到淡季,泡沫破之后房价还是比泡沫出现前高,神经网络 : 取代传统统计方法已经是板上钉钉的事。如果你做的是监督学习,并且还在搞非神经网
|
l******a 发帖数: 205 | 5 认识正确,方法有待商榷。君不见现在生物、化学、机械、土木、医学,所有的PhD都
在用deep learning,毕业后都是炼丹的一把好手,抢工作抢得比CS中不搞ML的都猛。
光靠自学,简历上没有学历,能和这些人拼?
要我说,deep learning就好比几十年前的计算器。造计算器的人解放了人类的运算力
,大大帮助了所有学科,最后就普及了。你用计算器算金融问题,最后的成果算金融的
;你用计算器算化学问题,最后的成果算化学的。现在deep learning流氓的地方在于
,它刚出来,还比较酷,而且理论部分还在发展,所以一切用deep learning解决的问
题,不仅属于背景学科,也属于deep learning方向。也就是说,现在大家还都以”我
用计算器用得好“为荣。
如果不搞deep learning的理论部分,那基本上再过几年等理论部分也停滞了,deep
learning就成了一个更加高级的”计算器“,到时候现有的功能就会被封装得很好,做
成一个很傻瓜的工具给各行各业的人用,一切又恢复到deep learning兴盛之前的状态
:各行各业都有自己的目标和重心,唯独搞deep learning的人成了”小会计“。
【在 p***r 的大作中提到】 : 管中窥豹,这两年是继98 ~ 02 年之后机器学习最大的一次革命。上次革命标志是统计 : 方法的全面崛起,在四年内将专家系统彻底扫进历史垃圾堆。 : 而神经网络的全面崛起,从几年前的怀疑,到今年的全面投降,传统统计方法纷纷被打 : 得不能自理,基本所有会议一半以上的新结果都是神经网络。 : 基本上所有方法都是曲折进步的,这几年神经网络井喷,主要原因是工具的完善,使得 : 门槛降低,大量研究人员涌入,使得前沿从原始迅速完善。因为原来方法非常简陋,一 : 旦优秀工具出现,前沿会迅速推进,迭代极快。但是很快也会碰到边界,就像统计方法 : 几年的hype过去后,就陷入困境。 : 但是就像弯曲房价,虽然会碰到淡季,泡沫破之后房价还是比泡沫出现前高,神经网络 : 取代传统统计方法已经是板上钉钉的事。如果你做的是监督学习,并且还在搞非神经网
|
p***r 发帖数: 4702 | 6 Reinforcement learning 现在主要还是gaming 上用,许多地方还是用不到的。因为标
注数据足够的的情况下,无需用到,直接supervised 就够了。
所以我认为是一种好的特殊训练方法,并不是什么根本性的东西。根本性的东西是网络
结构,数据处理,参数平滑。
至于担心这个东西门槛低会不值钱,我觉得不会,因为现在属于突然有了好锤子,放眼
望去满眼都是钉子可以砸,赶早不赶晚,有机会稍微了解一下,感兴趣就做一两个小玩
意,比如手写文字识别,人脸识别啥的玩玩,到处都是tutorial。花不了多少时间,面
试多点谈资,能改代码的话github 上开个小项目。投入不多,万一有机会呢。
: 这么简单的话是不是这方面的技能很快就不值钱了呢?
【在 l*****z 的大作中提到】 : 这么简单的话是不是这方面的技能很快就不值钱了呢?
|
p***r 发帖数: 4702 | 7 我们当然是各行各业,用计算器解决各行各业的问题,对大部分人来说没必要了解那么
详细的算法,而是要成为自己现有领域第一个吃螃蟹的人。你第一个拿新锤子砸出个坑
,以后你可能就是坑主了。如果了解后觉得也没啥用,也就当看了两部小说呗。
这个建议大家觉得如何?
: 认识正确,方法有待商榷。君不见现在生物、化学、机械、土木、医学,所有的
PhD都
: 在用deep learning,毕业后都是炼丹的一把好手,抢工作抢得比CS中不搞ML的
都猛。
: 光靠自学,简历上没有学历,能和这些人拼?
: 要我说,deep learning就好比几十年前的计算器。造计算器的人解放了人类的
运算力
: ,大大帮助了所有学科,最后就普及了。你用计算器算金融问题,最后的成果算
金融的
: ;你用计算器算化学问题,最后的成果算化学的。现在deep learning流氓的地
方在于
: ,它刚出来,还比较酷,而且理论部分还在发展,所以一切用deep learning解
决的问
: 题,不仅属于背景学科,也属于deep learning方向。也就是说,现在大家还都
以”我
: 用计算器用得好“为荣。
: 如果不搞deep learning的理论部分,那基本上再过几年等理论部分也停滞了,
deep
【在 l******a 的大作中提到】 : 认识正确,方法有待商榷。君不见现在生物、化学、机械、土木、医学,所有的PhD都 : 在用deep learning,毕业后都是炼丹的一把好手,抢工作抢得比CS中不搞ML的都猛。 : 光靠自学,简历上没有学历,能和这些人拼? : 要我说,deep learning就好比几十年前的计算器。造计算器的人解放了人类的运算力 : ,大大帮助了所有学科,最后就普及了。你用计算器算金融问题,最后的成果算金融的 : ;你用计算器算化学问题,最后的成果算化学的。现在deep learning流氓的地方在于 : ,它刚出来,还比较酷,而且理论部分还在发展,所以一切用deep learning解决的问 : 题,不仅属于背景学科,也属于deep learning方向。也就是说,现在大家还都以”我 : 用计算器用得好“为荣。 : 如果不搞deep learning的理论部分,那基本上再过几年等理论部分也停滞了,deep
|
r****7 发帖数: 2282 | 8 机器学习没那么神奇,就是计算能力和数据突然多了,然后能多干一些事
主要受益的还是有很多数据的公司,但是对单个数据的处理能力和人比还是差远了。比
如Google photo一下标记你一堆照片很神奇,但是你自己判断一张照片肯定比机器看的
好。
适合大公司把一个事从100提到120,但是真要发财还是要靠开发出来一些炫酷的产品来。
【在 p***r 的大作中提到】 : 管中窥豹,这两年是继98 ~ 02 年之后机器学习最大的一次革命。上次革命标志是统计 : 方法的全面崛起,在四年内将专家系统彻底扫进历史垃圾堆。 : 而神经网络的全面崛起,从几年前的怀疑,到今年的全面投降,传统统计方法纷纷被打 : 得不能自理,基本所有会议一半以上的新结果都是神经网络。 : 基本上所有方法都是曲折进步的,这几年神经网络井喷,主要原因是工具的完善,使得 : 门槛降低,大量研究人员涌入,使得前沿从原始迅速完善。因为原来方法非常简陋,一 : 旦优秀工具出现,前沿会迅速推进,迭代极快。但是很快也会碰到边界,就像统计方法 : 几年的hype过去后,就陷入困境。 : 但是就像弯曲房价,虽然会碰到淡季,泡沫破之后房价还是比泡沫出现前高,神经网络 : 取代传统统计方法已经是板上钉钉的事。如果你做的是监督学习,并且还在搞非神经网
|
e*******o 发帖数: 4654 | 9 正确啊
不过 要说坑 还是我生物 医学多
生物到处是data 到处是问题
生信的不少就是倒腾ml的方法
【在 p***r 的大作中提到】 : 我们当然是各行各业,用计算器解决各行各业的问题,对大部分人来说没必要了解那么 : 详细的算法,而是要成为自己现有领域第一个吃螃蟹的人。你第一个拿新锤子砸出个坑 : ,以后你可能就是坑主了。如果了解后觉得也没啥用,也就当看了两部小说呗。 : 这个建议大家觉得如何? : : : 认识正确,方法有待商榷。君不见现在生物、化学、机械、土木、医学,所有的 : PhD都 : : 在用deep learning,毕业后都是炼丹的一把好手,抢工作抢得比CS中不搞ML的 : 都猛。 : : 光靠自学,简历上没有学历,能和这些人拼?
|
r****7 发帖数: 2282 | 10 生物data不够多,ML在生物医学领域还是停留在academic灌水阶段,在fb,google就是
真金白银的产品
【在 e*******o 的大作中提到】 : 正确啊 : 不过 要说坑 还是我生物 医学多 : 生物到处是data 到处是问题 : 生信的不少就是倒腾ml的方法
|
|
|
r****7 发帖数: 2282 | 11 大牛举个例子说IT哪个技术不简单,能一直值钱?
【在 l*****z 的大作中提到】 : 这么简单的话是不是这方面的技能很快就不值钱了呢?
|
p***r 发帖数: 4702 | 12 最佳状态是在值钱的时候进入,上升,等不值钱的时候已经成了领导,大把后来进入的
拿一丁点钱给你卖命。
: 大牛举个例子说IT哪个技术不简单,能一直值钱?
【在 r****7 的大作中提到】 : 大牛举个例子说IT哪个技术不简单,能一直值钱?
|
p**r 发帖数: 5853 | 13 对,但是判断是否值钱是个技术活,能否当领导更是一个站队问题。
就怕以为跳进去后发现是个坑,
或者好不容易跳了个队的,抱大腿的时候站错队。
【在 p***r 的大作中提到】 : 最佳状态是在值钱的时候进入,上升,等不值钱的时候已经成了领导,大把后来进入的 : 拿一丁点钱给你卖命。 : : : 大牛举个例子说IT哪个技术不简单,能一直值钱? :
|
l******a 发帖数: 205 | 14 深以为然。我们永远不知道一个东西什么时候开始走下坡路。
【在 p**r 的大作中提到】 : 对,但是判断是否值钱是个技术活,能否当领导更是一个站队问题。 : 就怕以为跳进去后发现是个坑, : 或者好不容易跳了个队的,抱大腿的时候站错队。
|
g*******u 发帖数: 3948 | 15 但是有眼光的 大体还是能看出来的
【在 l******a 的大作中提到】 : 深以为然。我们永远不知道一个东西什么时候开始走下坡路。
|
c********l 发帖数: 125 | 16 推荐下学习路线,github项目和教材?
【在 p***r 的大作中提到】 : 管中窥豹,这两年是继98 ~ 02 年之后机器学习最大的一次革命。上次革命标志是统计 : 方法的全面崛起,在四年内将专家系统彻底扫进历史垃圾堆。 : 而神经网络的全面崛起,从几年前的怀疑,到今年的全面投降,传统统计方法纷纷被打 : 得不能自理,基本所有会议一半以上的新结果都是神经网络。 : 基本上所有方法都是曲折进步的,这几年神经网络井喷,主要原因是工具的完善,使得 : 门槛降低,大量研究人员涌入,使得前沿从原始迅速完善。因为原来方法非常简陋,一 : 旦优秀工具出现,前沿会迅速推进,迭代极快。但是很快也会碰到边界,就像统计方法 : 几年的hype过去后,就陷入困境。 : 但是就像弯曲房价,虽然会碰到淡季,泡沫破之后房价还是比泡沫出现前高,神经网络 : 取代传统统计方法已经是板上钉钉的事。如果你做的是监督学习,并且还在搞非神经网
|
l*****z 发帖数: 3022 | 17 十几天就能完全搞懂的东西就是没有任何门槛,最后是人人都会,写简历上都觉得不好
意思。。。
【在 p***r 的大作中提到】 : 最佳状态是在值钱的时候进入,上升,等不值钱的时候已经成了领导,大把后来进入的 : 拿一丁点钱给你卖命。 : : : 大牛举个例子说IT哪个技术不简单,能一直值钱? :
|
e*******o 发帖数: 2271 | 18 好比Java大家都会,早来的赚大钱
【在 l*****z 的大作中提到】 : 十几天就能完全搞懂的东西就是没有任何门槛,最后是人人都会,写简历上都觉得不好 : 意思。。。
|
l****g 发帖数: 761 | 19 确实每个人都可以学, 但是有这个数据量的公司并没有那么多, 那么在有限的公司招
聘中, 连个top conference paper都没有的candidate真的有竞争力?
就好像以前我们组面试的时候 人人都说自己会 machine learning
问一些简单的推导就直接刷掉90% |
f********a 发帖数: 1109 | 20 什么简单退倒
【在 l****g 的大作中提到】 : 确实每个人都可以学, 但是有这个数据量的公司并没有那么多, 那么在有限的公司招 : 聘中, 连个top conference paper都没有的candidate真的有竞争力? : 就好像以前我们组面试的时候 人人都说自己会 machine learning : 问一些简单的推导就直接刷掉90%
|
|
|
z****9 发帖数: 632 | |
w*****s 发帖数: 433 | 22 不是专职做ml的,ml会用就行, 为毛要"推导"? |
n******e 发帖数: 163 | 23 过不了多久Deep Learning 就是件旧衣裳,至今连Hinton 和Lecun 都不知道DL为啥
work,Ng 想找到“One Single Algorithm",当知道DL真正的原理时,是不是"Single"
也不重要了。
【在 p***r 的大作中提到】 : 管中窥豹,这两年是继98 ~ 02 年之后机器学习最大的一次革命。上次革命标志是统计 : 方法的全面崛起,在四年内将专家系统彻底扫进历史垃圾堆。 : 而神经网络的全面崛起,从几年前的怀疑,到今年的全面投降,传统统计方法纷纷被打 : 得不能自理,基本所有会议一半以上的新结果都是神经网络。 : 基本上所有方法都是曲折进步的,这几年神经网络井喷,主要原因是工具的完善,使得 : 门槛降低,大量研究人员涌入,使得前沿从原始迅速完善。因为原来方法非常简陋,一 : 旦优秀工具出现,前沿会迅速推进,迭代极快。但是很快也会碰到边界,就像统计方法 : 几年的hype过去后,就陷入困境。 : 但是就像弯曲房价,虽然会碰到淡季,泡沫破之后房价还是比泡沫出现前高,神经网络 : 取代传统统计方法已经是板上钉钉的事。如果你做的是监督学习,并且还在搞非神经网
|
M***6 发帖数: 895 | 24 同意。硕士搞ml简直就是不务正业。去linkedin是看看有几个招ms new grad的就知道
了。openning太少了。基本都是招senior或者phd。自学入行太难了。
[在 lvxing (=.=) 的大作中提到:]
:确实每个人都可以学, 但是有这个数据量的公司并没有那么多, 那么在有限的公司
招聘中, 连个top conference paper都没有的candidate真的有竞争力?
:就好像以前我们组面试的时候 人人都说自己会 machine learning
:问一些简单的推导就直接刷掉90% |
p***r 发帖数: 4702 | 25 为什么work 就好比量子力学的诠释。各大学派还在争论究竟是哥本哈根诠释还是多世
界诠释的时候,做晶体管的已经赚了几十亿了。
现在毫无疑问DL 在众多领域解决许多以前无法解决的问题,趁机迅速上手开始赚钱才
是王道,为啥需要知道它怎么work 的?
: 过不了多久Deep Learning 就是件旧衣裳,至今连Hinton 和Lecun 都不知道DL
为啥
: work,Ng 想找到“One Single Algorithm",当知道DL真正的原理时,是不是"
Single"
: 也不重要了。
【在 n******e 的大作中提到】 : 过不了多久Deep Learning 就是件旧衣裳,至今连Hinton 和Lecun 都不知道DL为啥 : work,Ng 想找到“One Single Algorithm",当知道DL真正的原理时,是不是"Single" : 也不重要了。
|
n******g 发帖数: 2201 | 26 Atranspose A times XXtranspose
【在 f********a 的大作中提到】 : 什么简单退倒
|
n******g 发帖数: 2201 | 27 what problem has Deep learning solved?
DL
【在 p***r 的大作中提到】 : 为什么work 就好比量子力学的诠释。各大学派还在争论究竟是哥本哈根诠释还是多世 : 界诠释的时候,做晶体管的已经赚了几十亿了。 : 现在毫无疑问DL 在众多领域解决许多以前无法解决的问题,趁机迅速上手开始赚钱才 : 是王道,为啥需要知道它怎么work 的? : : : 过不了多久Deep Learning 就是件旧衣裳,至今连Hinton 和Lecun 都不知道DL : 为啥 : : work,Ng 想找到“One Single Algorithm",当知道DL真正的原理时,是不是" : Single" : : 也不重要了。
|
l*****z 发帖数: 3022 | 28 怯怯的问一下晶体管跟量子力学有关系吗?
【在 p***r 的大作中提到】 : 为什么work 就好比量子力学的诠释。各大学派还在争论究竟是哥本哈根诠释还是多世 : 界诠释的时候,做晶体管的已经赚了几十亿了。 : 现在毫无疑问DL 在众多领域解决许多以前无法解决的问题,趁机迅速上手开始赚钱才 : 是王道,为啥需要知道它怎么work 的? : : : 过不了多久Deep Learning 就是件旧衣裳,至今连Hinton 和Lecun 都不知道DL : 为啥 : : work,Ng 想找到“One Single Algorithm",当知道DL真正的原理时,是不是" : Single" : : 也不重要了。
|
n******e 发帖数: 163 | 29 趁机上手就算后来发现没上对也不要紧,趁机下手(风投)就不好说了,不知道为啥
work挺危险的,万一烧钱中途被搞翻了就惨了嘛。
DL
【在 p***r 的大作中提到】 : 为什么work 就好比量子力学的诠释。各大学派还在争论究竟是哥本哈根诠释还是多世 : 界诠释的时候,做晶体管的已经赚了几十亿了。 : 现在毫无疑问DL 在众多领域解决许多以前无法解决的问题,趁机迅速上手开始赚钱才 : 是王道,为啥需要知道它怎么work 的? : : : 过不了多久Deep Learning 就是件旧衣裳,至今连Hinton 和Lecun 都不知道DL : 为啥 : : work,Ng 想找到“One Single Algorithm",当知道DL真正的原理时,是不是" : Single" : : 也不重要了。
|
h*****7 发帖数: 6781 | 30 machine learning 需求小,竞争激烈
一般engineer缺口大,竞争稍微小点 |
|
|
g*****x 发帖数: 3283 | 31 呵呵,我们已经有产品了。
【在 r****7 的大作中提到】 : 生物data不够多,ML在生物医学领域还是停留在academic灌水阶段,在fb,google就是 : 真金白银的产品
|
s*****s 发帖数: 57 | 32 同意这个看法
一般只有数据量大的产品才用ML,一个产品就一个ML组,基本上都是一两个真正懂的老
司机带几个fresh PhD做做就足够了,还真的不需要太多人
【在 h*****7 的大作中提到】 : machine learning 需求小,竞争激烈 : 一般engineer缺口大,竞争稍微小点
|
L******9 发帖数: 866 | 33 真那么容易学吗?动心了
【在 l******a 的大作中提到】 : 认识正确,方法有待商榷。君不见现在生物、化学、机械、土木、医学,所有的PhD都 : 在用deep learning,毕业后都是炼丹的一把好手,抢工作抢得比CS中不搞ML的都猛。 : 光靠自学,简历上没有学历,能和这些人拼? : 要我说,deep learning就好比几十年前的计算器。造计算器的人解放了人类的运算力 : ,大大帮助了所有学科,最后就普及了。你用计算器算金融问题,最后的成果算金融的 : ;你用计算器算化学问题,最后的成果算化学的。现在deep learning流氓的地方在于 : ,它刚出来,还比较酷,而且理论部分还在发展,所以一切用deep learning解决的问 : 题,不仅属于背景学科,也属于deep learning方向。也就是说,现在大家还都以”我 : 用计算器用得好“为荣。 : 如果不搞deep learning的理论部分,那基本上再过几年等理论部分也停滞了,deep
|
M***6 发帖数: 895 | 34 自己翻两篇paper看看就知道了。。
【在 L******9 的大作中提到】 : 真那么容易学吗?动心了
|
n******e 发帖数: 163 | 35 量子理论是经过很多人很长时间千锤百炼的,DL是几个偏执狂东整西整搞出来的,还是
些codes之类的东西,经不起几下颠簸的,放狗搜一下“deep learning deep flaw" 吧
,刷新DL完全可能是overnight 的事
DL
【在 p***r 的大作中提到】 : 为什么work 就好比量子力学的诠释。各大学派还在争论究竟是哥本哈根诠释还是多世 : 界诠释的时候,做晶体管的已经赚了几十亿了。 : 现在毫无疑问DL 在众多领域解决许多以前无法解决的问题,趁机迅速上手开始赚钱才 : 是王道,为啥需要知道它怎么work 的? : : : 过不了多久Deep Learning 就是件旧衣裳,至今连Hinton 和Lecun 都不知道DL : 为啥 : : work,Ng 想找到“One Single Algorithm",当知道DL真正的原理时,是不是" : Single" : : 也不重要了。
|
c********e 发帖数: 2726 | 36 同求,谢谢!!!
【在 c********l 的大作中提到】 : 推荐下学习路线,github项目和教材?
|
D*******r 发帖数: 2323 | 37 机器翻译,围棋。
也不能说是solved,而是极大地推进了。
【在 n******g 的大作中提到】 : what problem has Deep learning solved? : : DL
|
x*****n 发帖数: 86 | 38 问个小白问题,神经网络对于unsupervised learning有很明显的效果吗? |
l*****z 发帖数: 3022 | 39 这两天刚刚初学了下DNN,胡扯一下,任何learning都要有cost function,所以应该也
会有提升的效果吧
【在 x*****n 的大作中提到】 : 问个小白问题,神经网络对于unsupervised learning有很明显的效果吗?
|
c****x 发帖数: 61 | 40 对于传统码农来说,机器学习最大的门槛并不是工具的使用,而是优化问题的定义和其
他一些周边的东西。比方说你怎么定义loss function,怎么控制 feature 和
training variance,怎么做offline simulation,怎么 debug A/B test 结果。机器
学习算法本来就是个黑盒子,外面有些参数给你调调。
绝大多数人根本就没有机会,也没有必要实现具体的机器学习算法。对他们来说,神经
网络,decision tree, SVM 都没有任何区别,就是个数据拟合的黑盒子罢了。
所以对这部分人来说机器学习的门槛从来都没变过,只不过现在又多了一个能试的黑盒
子而已 |