C*****5 发帖数: 8812 | 1 今天有空瞎扯几句,版上的大神们不要见笑。其实今天很多人所谓的ML入门,其实是DL
入门,或者叫神经网络入门。我觉得可以分三步。
第一,把Goodfellow等著的deep learning书Part I and Park II都看懂,包括第一章数
学基础都查漏补缺完成,基本的理论基础就具备了。看不懂的youtube,Coursera,
udacity找资源帮助理解。
第二,自己实现几个简单的神经网络,我个人建议是用numpy手撕一个MLP,一个
vanilla的CNN和一个vanilla的RNN,重点是了解matrix(或者叫tensor)在层之间怎么流
动,forward(比如convolution),backward(尤其是RNN的backpropagation
through time)怎么实现。这些都不难,但是需要一些耐心。虽然耗时间,但是对彻底
摸清神经网络的工作细节很有帮助。所有的三个网络都可以用mnist数据集。
第三,学习一两个主流的libraries。个人推荐先学pytorch,后学tensorflow。因为这
两个是DL libraries的两种风格,imperative programming vs symbolic programming
的代表。symbolic programming一开始会不习惯,不如先把pytorch学好再开始
tensorflow。这两个反正都得学会,先学哪个都一样。从pytorch开始learning curve
比较平缓。
学习libraries的顺序是先看tutorial,依葫芦画瓢做几个图像识别(比如 not hotdog
)和简单的语言模型,这就算CNN和RNN都算是“会了”。下一步可以做些复杂的图像应
用比如style transfer,object detection,对RNN有兴趣的可以用pytorch自己
写个LSTM什么的。
能做到以上三点个人觉得可以算DL入门了。再往下的更深入的研究就要看个人的兴趣。 |
w***g 发帖数: 5958 | 2 靠谱。不过工作后真的很难抽出时间学东西。一直没时间破NLP。
最好的办法还是大致看一下,然后争取在某一个细节方面成为行家。
DL
【在 C*****5 的大作中提到】 : 今天有空瞎扯几句,版上的大神们不要见笑。其实今天很多人所谓的ML入门,其实是DL : 入门,或者叫神经网络入门。我觉得可以分三步。 : 第一,把Goodfellow等著的deep learning书Part I and Park II都看懂,包括第一章数 : 学基础都查漏补缺完成,基本的理论基础就具备了。看不懂的youtube,Coursera, : udacity找资源帮助理解。 : 第二,自己实现几个简单的神经网络,我个人建议是用numpy手撕一个MLP,一个 : vanilla的CNN和一个vanilla的RNN,重点是了解matrix(或者叫tensor)在层之间怎么流 : 动,forward(比如convolution),backward(尤其是RNN的backpropagation : through time)怎么实现。这些都不难,但是需要一些耐心。虽然耗时间,但是对彻底 : 摸清神经网络的工作细节很有帮助。所有的三个网络都可以用mnist数据集。
|
C*****5 发帖数: 8812 | 3 被大牛认可也算没白码这么多字。
【在 w***g 的大作中提到】 : 靠谱。不过工作后真的很难抽出时间学东西。一直没时间破NLP。 : 最好的办法还是大致看一下,然后争取在某一个细节方面成为行家。 : : DL
|
p*****2 发帖数: 21240 | 4
DL
章数
多谢大牛。看来现在DL就相当于ML了。那DL的工作机会如何?
【在 C*****5 的大作中提到】 : 今天有空瞎扯几句,版上的大神们不要见笑。其实今天很多人所谓的ML入门,其实是DL : 入门,或者叫神经网络入门。我觉得可以分三步。 : 第一,把Goodfellow等著的deep learning书Part I and Park II都看懂,包括第一章数 : 学基础都查漏补缺完成,基本的理论基础就具备了。看不懂的youtube,Coursera, : udacity找资源帮助理解。 : 第二,自己实现几个简单的神经网络,我个人建议是用numpy手撕一个MLP,一个 : vanilla的CNN和一个vanilla的RNN,重点是了解matrix(或者叫tensor)在层之间怎么流 : 动,forward(比如convolution),backward(尤其是RNN的backpropagation : through time)怎么实现。这些都不难,但是需要一些耐心。虽然耗时间,但是对彻底 : 摸清神经网络的工作细节很有帮助。所有的三个网络都可以用mnist数据集。
|
f*******t 发帖数: 7549 | |
k******r 发帖数: 89 | |
q******g 发帖数: 73 | |
t**r 发帖数: 3428 | |
E******T 发帖数: 59 | |
t**r 发帖数: 3428 | 10 不懂ml直接上dl对新人来说难度有点大。
推荐先学好ml. |
|
|
d*******r 发帖数: 3299 | 11 我怎么听到的建议是,推荐直接上DL呢
【在 t**r 的大作中提到】 : 不懂ml直接上dl对新人来说难度有点大。 : 推荐先学好ml.
|
p*****2 发帖数: 21240 | 12
我感觉先学一下ML比较好。基本概念就有了。
【在 d*******r 的大作中提到】 : 我怎么听到的建议是,推荐直接上DL呢
|
C*****5 发帖数: 8812 | 13 直接学DL也未尝不可,但是ML这课早晚是要补上的
【在 p*****2 的大作中提到】 : : 我感觉先学一下ML比较好。基本概念就有了。
|
h**********e 发帖数: 4328 | 14 主要是看学的目的是要干啥
也要根据自己现有的姿势水平调整
一个简单的自我定位:
为啥要用xentropy?看能回答到哪种程度
【在 C*****5 的大作中提到】 : 直接学DL也未尝不可,但是ML这课早晚是要补上的
|
s********k 发帖数: 6180 | 15 要看找什么工作了,如果是图像视频直接raw data处理DL也许可以直接学,否则像啥
search,ranking之类还是得掌握比如GBDT之类的,只学DL要是别人一深入问问立马就
发现很多不足
【在 t**r 的大作中提到】 : 不懂ml直接上dl对新人来说难度有点大。 : 推荐先学好ml.
|
d****r 发帖数: 300 | 16 多谢,一直觉得DL入门作为一个高中生的project 挺好的,能识别个图样,一下子把兴
趣给吊起来了。 |
H******Y 发帖数: 71 | 17 DL的最大好处是需要的背景知识很少,不那么数学 |
n***p 发帖数: 347 | |
w******k 发帖数: 299 | |
p**********j 发帖数: 30 | 20 一直对DL的应用表示怀疑。一头扎进去,花了一堆时间,最后找不到合适的应用,或者
发现除了try一下烂大街的字符识别,其他也没啥可搞的,要真搞,又发现完全要投入
更多的精力,整个人可能都需要再读个phd了。。。 |
|
|
H******Y 发帖数: 71 | 21 借贵宝地,问这里的大牛巨师,如果要改进NN的算法,用哪个框架更好?我想在
pytorch和theano中二选一。
Theano虽然不时兴了,但貌似特别适合搞研究做算法 |
g****y 发帖数: 2810 | 22 学数学,而不是学软件
DL
章数
【在 C*****5 的大作中提到】 : 今天有空瞎扯几句,版上的大神们不要见笑。其实今天很多人所谓的ML入门,其实是DL : 入门,或者叫神经网络入门。我觉得可以分三步。 : 第一,把Goodfellow等著的deep learning书Part I and Park II都看懂,包括第一章数 : 学基础都查漏补缺完成,基本的理论基础就具备了。看不懂的youtube,Coursera, : udacity找资源帮助理解。 : 第二,自己实现几个简单的神经网络,我个人建议是用numpy手撕一个MLP,一个 : vanilla的CNN和一个vanilla的RNN,重点是了解matrix(或者叫tensor)在层之间怎么流 : 动,forward(比如convolution),backward(尤其是RNN的backpropagation : through time)怎么实现。这些都不难,但是需要一些耐心。虽然耗时间,但是对彻底 : 摸清神经网络的工作细节很有帮助。所有的三个网络都可以用mnist数据集。
|
g****t 发帖数: 31659 | 23 说的不错。我补充2点。
首先要弄清楚自己是要学软件,还是学算法。
第二要弄清楚学ML还是DL。不是一回事。
最后,不管哪个路径。
如果没有基础的,先花一周刷一下矩阵乘法的算法
和代码,我认为都是非常划算的.
DL
章数
【在 C*****5 的大作中提到】 : 今天有空瞎扯几句,版上的大神们不要见笑。其实今天很多人所谓的ML入门,其实是DL : 入门,或者叫神经网络入门。我觉得可以分三步。 : 第一,把Goodfellow等著的deep learning书Part I and Park II都看懂,包括第一章数 : 学基础都查漏补缺完成,基本的理论基础就具备了。看不懂的youtube,Coursera, : udacity找资源帮助理解。 : 第二,自己实现几个简单的神经网络,我个人建议是用numpy手撕一个MLP,一个 : vanilla的CNN和一个vanilla的RNN,重点是了解matrix(或者叫tensor)在层之间怎么流 : 动,forward(比如convolution),backward(尤其是RNN的backpropagation : through time)怎么实现。这些都不难,但是需要一些耐心。虽然耗时间,但是对彻底 : 摸清神经网络的工作细节很有帮助。所有的三个网络都可以用mnist数据集。
|
k****i 发帖数: 101 | 24 ML/DL咱整听三娃爸的,尽管有时会急吼吼的,觉得找到了惩治人类的终极武器。
DL可以类比生物,数理要求宽松,有些高中生都建成了不少有效模型。经验很重要,跟
着感觉走,说不定就扑对了。上N卡tf等框架狠搞猛搞,不会作诗也会吟,是李杜还是
丽华就看造化了。 |
e*****g 发帖数: 334 | 25 WDong是四娃爸,三娃爸是谁?
【在 k****i 的大作中提到】 : ML/DL咱整听三娃爸的,尽管有时会急吼吼的,觉得找到了惩治人类的终极武器。 : DL可以类比生物,数理要求宽松,有些高中生都建成了不少有效模型。经验很重要,跟 : 着感觉走,说不定就扑对了。上N卡tf等框架狠搞猛搞,不会作诗也会吟,是李杜还是 : 丽华就看造化了。
|
k****i 发帖数: 101 | 26 才月余又晋升了,这年头奇迹很难不发生。Cong! |
a*******g 发帖数: 6 | |
w******w 发帖数: 126 | |
i**********g 发帖数: 758 | 29 话说,学dl是为了自己兴趣还是为了找一个用dl的工作,若是后者,面试的时候怎么证
明你自己学的不错,会很多东西呢,的参加比赛或者自己有东西demo吧
: 靠谱。不过工作后真的很难抽出时间学东西。一直没时间破NLP。
: 最好的办法还是大致看一下,然后争取在某一个细节方面成为行家。
: DL
【在 w***g 的大作中提到】 : 靠谱。不过工作后真的很难抽出时间学东西。一直没时间破NLP。 : 最好的办法还是大致看一下,然后争取在某一个细节方面成为行家。 : : DL
|
w***g 发帖数: 5958 | 30 现在市面上对DL最大的需求是圈钱。也就是说很多startup需要在profile里有一个
DL专家。
如果只是转行找工作,学DL还不如刷题。
【在 i**********g 的大作中提到】 : 话说,学dl是为了自己兴趣还是为了找一个用dl的工作,若是后者,面试的时候怎么证 : 明你自己学的不错,会很多东西呢,的参加比赛或者自己有东西demo吧 : : : 靠谱。不过工作后真的很难抽出时间学东西。一直没时间破NLP。 : : 最好的办法还是大致看一下,然后争取在某一个细节方面成为行家。 : : DL :
|
|
|
w**z 发帖数: 8232 | 31 丝袜爸果然靠谱。
:现在市面上对DL最大的需求是圈钱。也就是说很多startup需要在profile里有一个
:DL专家。 |
i**********g 发帖数: 758 | 32 题肯定要刷,但是自己靠兴趣学来的,和真正的应用还差不少吧,当然希望是学点东西
然后将来的工作上能用一些
【在 w***g 的大作中提到】 : 现在市面上对DL最大的需求是圈钱。也就是说很多startup需要在profile里有一个 : DL专家。 : 如果只是转行找工作,学DL还不如刷题。
|
P****a 发帖数: 1348 | |
C*****5 发帖数: 8812 | 34 村长也混葵花版呀
【在 P****a 的大作中提到】 : 很阳光的分享。赞
|
P****a 发帖数: 1348 | 35 过来看你们讨论ai,我也曾会写hello world 的
【在 C*****5 的大作中提到】 : 村长也混葵花版呀
|
m*****a 发帖数: 306 | |
L*****c 发帖数: 62 | 37 只是用的话需要把那些数学基础都搞懂吗?数学都差不多忘光了,看这些东西好吃力,
之前大概看了下ML,SVM之类的东西到现在都没搞明白
DL
章数
【在 C*****5 的大作中提到】 : 今天有空瞎扯几句,版上的大神们不要见笑。其实今天很多人所谓的ML入门,其实是DL : 入门,或者叫神经网络入门。我觉得可以分三步。 : 第一,把Goodfellow等著的deep learning书Part I and Park II都看懂,包括第一章数 : 学基础都查漏补缺完成,基本的理论基础就具备了。看不懂的youtube,Coursera, : udacity找资源帮助理解。 : 第二,自己实现几个简单的神经网络,我个人建议是用numpy手撕一个MLP,一个 : vanilla的CNN和一个vanilla的RNN,重点是了解matrix(或者叫tensor)在层之间怎么流 : 动,forward(比如convolution),backward(尤其是RNN的backpropagation : through time)怎么实现。这些都不难,但是需要一些耐心。虽然耗时间,但是对彻底 : 摸清神经网络的工作细节很有帮助。所有的三个网络都可以用mnist数据集。
|
s*****e 发帖数: 115 | 38 这个绝对是正解,做了大半年vision相关方面的事情,还是发现刷题好找工作多了.做
DL和vision的工作,感觉好多都要相关方向phd。如果不要phd,做的东西感觉还是打杂
辅助居多。还不如刷题写web用spark?
【在 w***g 的大作中提到】 : 现在市面上对DL最大的需求是圈钱。也就是说很多startup需要在profile里有一个 : DL专家。 : 如果只是转行找工作,学DL还不如刷题。
|
p*****2 发帖数: 21240 | 39
补一下吧。我正在补。
【在 L*****c 的大作中提到】 : 只是用的话需要把那些数学基础都搞懂吗?数学都差不多忘光了,看这些东西好吃力, : 之前大概看了下ML,SVM之类的东西到现在都没搞明白 : : DL : 章数
|
s*****e 发帖数: 115 | 40 大牛为什么也搞这个?for fun?
【在 p*****2 的大作中提到】 : : 补一下吧。我正在补。
|
|
|
p*****2 发帖数: 21240 | 41
对呀。大夏天的太无聊了。
【在 s*****e 的大作中提到】 : 大牛为什么也搞这个?for fun?
|
w***g 发帖数: 5958 | 42 需求绝对是有的。但是湾区的大公司已经把market搞坏了,
真正需要DL的传统行业的公司很多根本付不起刷题能刷出来
的那种工资。
能往湾区去的,还是刷题吧。
【在 s*****e 的大作中提到】 : 这个绝对是正解,做了大半年vision相关方面的事情,还是发现刷题好找工作多了.做 : DL和vision的工作,感觉好多都要相关方向phd。如果不要phd,做的东西感觉还是打杂 : 辅助居多。还不如刷题写web用spark?
|
e*******o 发帖数: 4654 | 43 不是大公司把market 搞坏了,是政府不断印钱,房价历史新高。
【在 w***g 的大作中提到】 : 需求绝对是有的。但是湾区的大公司已经把market搞坏了, : 真正需要DL的传统行业的公司很多根本付不起刷题能刷出来 : 的那种工资。 : 能往湾区去的,还是刷题吧。
|
L*****c 发帖数: 62 | 44 二爷v5
请问学DL之前,还需要再过一下ML的基础吗?
话说之前面试还碰到你在groupon的同事,哈哈,让我对二爷更佩服了
【在 p*****2 的大作中提到】 : : 对呀。大夏天的太无聊了。
|
p*****2 发帖数: 21240 | 45
啊?我还没怎么学DL呢。准备补补基础在说。ML学了一下NG的那个。
【在 L*****c 的大作中提到】 : 二爷v5 : 请问学DL之前,还需要再过一下ML的基础吗? : 话说之前面试还碰到你在groupon的同事,哈哈,让我对二爷更佩服了
|
s***k 发帖数: 256 | |
s***k 发帖数: 256 | |
z*****a 发帖数: 471 | 48 讚!
收藏!!
DL
章数
【在 C*****5 的大作中提到】 : 今天有空瞎扯几句,版上的大神们不要见笑。其实今天很多人所谓的ML入门,其实是DL : 入门,或者叫神经网络入门。我觉得可以分三步。 : 第一,把Goodfellow等著的deep learning书Part I and Park II都看懂,包括第一章数 : 学基础都查漏补缺完成,基本的理论基础就具备了。看不懂的youtube,Coursera, : udacity找资源帮助理解。 : 第二,自己实现几个简单的神经网络,我个人建议是用numpy手撕一个MLP,一个 : vanilla的CNN和一个vanilla的RNN,重点是了解matrix(或者叫tensor)在层之间怎么流 : 动,forward(比如convolution),backward(尤其是RNN的backpropagation : through time)怎么实现。这些都不难,但是需要一些耐心。虽然耗时间,但是对彻底 : 摸清神经网络的工作细节很有帮助。所有的三个网络都可以用mnist数据集。
|