由买买提看人间百态

topics

全部话题 - 话题: lstm
1 2 下页 末页 (共2页)
s********k
发帖数: 6180
1
来自主题: Programming版 - LSTM 是不是坨屎?
不用LSTM,老式的RNN什么都记忆,很容易一团糟,LSTM之后RNN才开始真的实战效果好把

cell
w***g
发帖数: 5958
2
来自主题: Programming版 - LSTM 是不是坨屎?
我觉得这个就是模拟人的行为.
input, forget, output都是行为, 所以都由state + observation决定.
下一个state由 input * observation + (1-forget) * 上一个state决定.
还是说得过去的.
input和forget是要决定当前state的, 所以不能去掉.
但是output看似可以由当前state决定. 但因为input = 0时其实input没有
进入当前state. 如果没有input直连output有些情况会不能模拟.
举个例子:
你骂我一句, 或者扇我一巴掌, 我都会无脑骂回去(输出).
但是你如果只是骂我一句没到input阈值, 我不会记仇(change state).
你如果删我一巴掌, 我就会记仇. 记了仇我不但骂回去, 还回
以后找机会黑你. 如果没有input直连output, 就做不到你骂我
一句我也立刻骂回去.
你说的也有理. 如果cell内部足够庞大足够flexible, 这种连接
应该自己就能train出来, 最多差一个clock cycle. 不需要人指定
得这么细致. 差得那个... 阅读全帖
C*****5
发帖数: 8812
3
来自主题: Programming版 - LSTM 是不是坨屎?
大牛解释的好。我个人体会有的问题LSTM效果就是比GRU好,什么原因也很难三言两语
说清楚。
b**e
发帖数: 3199
4
来自主题: Biology版 - 记忆的存储方式究竟是什么?
看来我们要向搞人工神经网络的学习了。难道我们的大脑真的像这些模型里说的有个
Forget gate?
wiki:
长短期记忆人工神经网络(Long-Short Term Memory, LSTM)是一种时间递归神经网络
(RNN)。LSTM是一種含有LSTM區塊(blocks)或其他的一種類神經網路,文獻或其他資料
中LSTM區塊可能被描述成智慧型網路單元,因為它可以記憶不定時間長度的數值,區塊
中有一個gate能夠決定input是否重要到能被記住及能不能被輸出output。
右圖底下是四個S函數單元,最左邊函數依情況可能成為區塊的input,右邊三個會經過
gate決定input是否能傳入區塊,左邊第二個為input gate,如果這裡產出近似於零,
將把這裡的值擋住,不會進到下一層。左邊第三個是forget gate,當這產生值近似於
零,將把區塊裡記住的值忘掉。第四個也就是最右邊的input為output gate,他可以決
定在區塊記憶中的input是否能輸出 。
LSTM有很多个版本,其中一个重要的版本是GRU(Gated Recurrent Unit),根据谷歌
的测试表明... 阅读全帖
q*******n
发帖数: 360
5
来自主题: Military版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
6
来自主题: Joke版 - 求教:matlab
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
---------------------------------------------------------
方式A: 一次性地完成这1500组数据,即启动matlab一次,不用关闭,就可以一组接着
一组地一次性地完成这1500组数据的lstm运算
for n = 1:1500
load ('tdata.txt')
dataTrai... 阅读全帖
q*******n
发帖数: 360
7
来自主题: CS版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
s********k
发帖数: 6180
8
"跟早期LSTM一样,但是LSTM已经解决了?"大牛说说LSTM怎么解决的?还是说早期的RNN
,然后被LSTM解决?
q*******n
发帖数: 360
9
来自主题: Programming版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
10
来自主题: ChemEng版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
11
来自主题: Computation版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
12
来自主题: Mathematics版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
13
来自主题: Physics版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
14
来自主题: Statistics版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
15
来自主题: DataSciences版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖

发帖数: 1
16
不能说没有。
但是CNN的问题远远没有解决。首先句子长度有限,跟早期LSTM一样,但是LSTM已经解
决了。
虽然我觉得FAIR这班人为了搞大新闻有点不择手段(除了LeCun靠谱),但是CNN我认为
还是未来的方向。LSTM的问题是训练慢,CNN并行起来超级快。并行化是趋势。虽然这
篇吹过头了,但是很可能是一个巨大突破的开始。
g****t
发帖数: 31659
17
来自主题: Programming版 - 马工能转数据分析师吗?
LSTM手写体识别比alexnet早。但是没有美国公司背后宣传。
https://www.nytimes.com/2016/11/27/technology/artificial-intelligence-
pioneer-jurgen-schmidhuber-overlooked.html
www.nytimes.com/2016/11/27/technology/artificial-intelligence-pioneer-jurgen
-schmidhuber-overlooked.html
MY times软文2016才出来。RNN/LSTM goog translate突破。
辛顿也好,任何别人也好。写不了RNN/LSTM也就是反馈神经网络的review。
Z**n
发帖数: 95
18
LeCun's presentation mentioned LSTM was invented by Hochreiter.
It looks like Jeurgen was only the 2nd author in that 1997 paper.
[Sepp Hochreiter ] has made numerous contributions in the fields of machine
learning and bioinformatics. He developed the long short-term memory (LSTM)
for which the first results were reported in his diploma thesis in 1991.[1]
The main LSTM paper appeared in 1997[2] and is considered as a discovery
that is a milestone in the timeline of machine learning.
m***r
发帖数: 359
19
来自主题: DataSciences版 - 机器学习日报2015年2月楼
机器学习日报 2015-02-22
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-02-22/short.html
1) 【Graham Neubig总结的常用自然语言处理工具列表】 by @王威廉
关键词:自然语言处理, Graham Neubig
奈良先端科学技術大学助理教授Graham Neubig总结的常用自然语言处理工具列表及下
载链接: [1] 可以与之前介绍的NLP选择流程图结合参考使用:http://weibo.com/1657470871/C5eTcuu57
[1] http://www.phontron.com/nlptools.php
2) 【人工智能初创公司2014年获投资额同比激增3倍】 by @ChinaVenture投中集团
关键词:深度学习, 行业动态
【人工智能初创公司2014年获投资额同比激增3倍】自 2014 年初,DeepMi... 阅读全帖
d*****u
发帖数: 17243
20
以前语音识别都是用HMM或者衍生出的CRF之类的。
现在对于时间序列LSTM用得比较多。
LSTM的好处是可以有较长的记忆来利用长距离相关性,对输入特征要求也灵活。

发帖数: 1
21
去年,一位小说家进行了一次横穿美国的公路旅行。这次旅行是为了效仿Jack Kerouac
——在旅途中寻找一些重要的东西,并写下了自己的经历。
Jack Kerouac在1948-1950年横穿美国,最后到达墨西哥城,并创作了《在路上》。
然而,这位作家与寻常作家非常不同——它只是一个麦克风,一个GPS,一个摄像头和
一台笔记本电脑。
许多认为人工智能和机器学习不会让人类失业的人很乐观的表示,人类的创造力是难以
模仿的。一个非常经典的观点是:就像机器将我们从重复性的手工任务中解放出来一样
,机器学习将使我们从重复性的智力任务中解放出来。
这就能让我们在工作的同时,有更多自由的时间去追求自己的爱好,与亲人共度美好时
光。
但回过头来想想,创造力,是人类基本的能力吗?还是说,机器学习也可以做到?
如果它们能做到比我们更了解自己,那么AI写出来的小说将会是你读过最好的小说吗?
AI创作的小说可能不会是一本“沙滩读物”
当然,这是未来主义者的观点。就像Ross Goodwin的凯迪拉克在那次公路旅行中临时装
配的装置所证明的那样,现实离我们还有一段距离。
Ross Goodwin在谈及他机器创... 阅读全帖
d*********o
发帖数: 6388
22
http://china.caixin.com/2020-03-08/101525448.html?originReferrer=weibo_caixinwang
【财新网】(实习记者 张阳 记者 马丹萌)截至3月6日24时,武汉累计报告新冠肺炎
确诊病例67666例。封城一月余,武汉的隔离措施对全国的疫情防控作用如何?何时可
以解除武汉和湖北的隔离措施?近日,国家卫健委高级别专家组组长、中国工程院院士
钟南山团队通过模型预测了武汉、湖北乃至全国的隔离措施对疫情发展的影响。
2月28日,钟南山院士团队在Journal of Thoracic Disease《胸部疾病杂志》发表
了题为《基于SEIR优化模型和AI对在公共卫生干预下的中国新冠肺炎疫情发展趋势预测
》的文章。据公开信息,《胸部疾病杂志》是广州呼吸健康研究院(原广州呼吸疾病研
究所)和呼吸疾病国家重点实验室的官方出版物,总编辑为钟南山,执行总编辑为广州
医学院第一附属医院院长何建行,二人也是此次发表论文的通信作者。
该文章此前或遭国外期刊退稿。2月27日,钟南山在广州市政府疫情防控专场新闻
通气会上表示,在疫情开始时,国外曾有... 阅读全帖
z*******h
发帖数: 346
23
来自主题: Stock版 - 说一下AI的前景吧
我也觉得skynet没戏,人类是安全的。这一波CNN是把图像分类正确率提高了不少,可
是感觉人们还是瞎猫碰死耗子一样乱试,还是没有理论指导。这一点和20年前没有区别
。至于用LSTM来假装人说话,我看不出一点智能,LSTM根本就不知道它说的是啥。用这
玩意自动写八股文是可能的,自动写程序根本不可能。
m***y
发帖数: 14763
24
来自主题: Joke版 - 求教:matlab
没有用过Matlab的LSTM,只用过Python的Keras.
但原理应该是一样的,所有神经网络都是有状态的,没有内部状态,就谈不上训练了。
Keras带的stateless LSTM只是说它会自动在每次batch后重置状态,但你总可以调用
model.reset_states()强制重置。
Matlab的可能略有不同,但肯定也允许你reset states。

发帖数: 1
25
看前文,并没有比LSTM更好,狗之前有文章,前面我提到了,更大的LSTM才是state of
art,但是FAIR要装看不见那也是没办法。
m****o
发帖数: 182
26
来自主题: Programming版 - 有没有做sentiment analysis的,求思路
先用bidirectional lstm + glove 测一下baseline吧,之后可以考虑做dependency
parsing + tree lstm。
m****o
发帖数: 182
27
来自主题: Programming版 - 有没有做sentiment analysis的,求思路
先用bidirectional lstm + glove 测一下baseline吧,之后可以考虑做dependency
parsing + tree lstm。
g****t
发帖数: 31659
28
来自主题: Programming版 - volta一出,业余玩家都要玩完啦
LSTM的标准形式
c(t)=f*c(t-1)+... .....[1]
例如c有三个元素,x,y
f也有三个元素的,f1,f2
星号是element wise乘法.
不是矩阵.
这些元素之间的线性组合不能反映出来。
例如sin(t)的实数方程是:
x'=y
y’=-x
不fit in [1]
LSTM这样设计是为了对角元素小于1,对稳定性有一定帮助。
但是表示能力可能成问题。
这问题我用别的办法解决了。
但如果能用复数会好很多。比较方便.
r**********g
发帖数: 22734
29
来自主题: History版 - 计算模拟历史
用ngram过时了,搞个lstm
d*****u
发帖数: 17243
30
现在人工智能全变成了deep learning
特别是图像和自然语言处理,就是拿CNN或者LSTM去跑
各种architect和各种预处理而已
当然不是说不好,但很多paper真的是高中生都能写出来,只要教会他怎么用keras之类
的。
d*****u
发帖数: 17243
31
RNN在训练的时候,每一步只跟当前的label比较,得出误差。
但是RNN每一步都会把当前信息反馈回网络去,所以后面的输出是coditioned on前面的
输出。
特别是LSTM,它有gate控制记忆和遗忘,可能记住较长的序列。
把RNN和CRF弄到一起,就是最后用transitional概率再优化一次。
d*****u
发帖数: 17243
32
不是说用NN
而是LSTM+CRF layer
而且那个CRFlayer用的公式都一样,实际上是可以有其他方法的。
应用领域也基本差不多。都是属于小距离entity tagging
d*****u
发帖数: 17243
33
句子的意思也可以用向量表示,现在一般用RNN特别是LSTM来逐个处理词向量,最后得
到句子的向量。
当然这些目前有局限性。
人的语言机能里还是大致有个词的概念,虽然词没有确切定义。你要从字符或者音素出
发也是可以的。有的模型不用词而是搞character embedding

发帖数: 1
34
来自主题: Military版 - 中国AI初创公司被美国巨头收购
赛灵思收购AI芯片独角兽深鉴科技,传出价3亿美元
分享到:
19
124
2018-07-18 21:50:05 字号:A- A A+ 来源:观察者网综合
关键字: 芯片深鉴科技FPGA赛灵思收购人工智能AI
【观察者网 综合报道】一家成立仅两年的国内AI芯片初创独角兽公司深鉴科技(
DeePhi Tech)18日被美国芯片巨头赛灵思(Xilinx)收购。虽然具体交易金额尚未可
知,但业界人士评估,收购金额可能在3亿美金左右。
深鉴科技官网及CEO姚颂随后确认了这一消息。收购后的深鉴科技将继续在其北京办公
室运营。
[点击查看大图]
[点击查看大图]
赛灵思软件业务执行副总裁萨里尔·拉吉(Salil Raje)表示:“我们很欢迎深鉴科技
的加入,期待着他们的加入能进一步增强赛灵思全球领先的工程技术研发力量,加速赛
灵思打造灵活应变智能世界的公司愿景。人才和创新是实现赛灵思公司发展的核心。未
来,赛灵思将继续加大对深鉴科技的投入,不断推进公司从云到端应用领域部署机器学
习加速的共同目标。”
[点击查看大图]
电子工程专辑网站(eetimes.com)援引分析师的话称,分析师表示,此举可为... 阅读全帖
a******9
发帖数: 20431
35
建议你们外行还是不要提这些了 你一个加州水利局的 跟AI八杆子打不到一块
现在各大公司用CNN RNN LSTM之类解决实际问题的不要太多

:因为基于二进制的算法,最终也就是个逻辑门的排列组合,能处理好的只有逻辑关系
,下下棋是可以的,打多人德扑都难,我这么前沿的论点,还被拍得狗血淋头。
:一夜之间,风向就变了。
d*****u
发帖数: 17243
36
了解一下RNN比如LSTM
很多时候输入维度不高,但是时间序列长。
K*****2
发帖数: 9308
37
用什么搞金融?rnn,lstm?

发帖数: 1
38
在犹豫到底是用cnn、rnn还是lstm
姜菌们 给把把关?
C**A
发帖数: 535
39
lstm,不过你真能拿到核爆数据训练model的话,用啥network还不是你一句话。
c****x
发帖数: 6601
40
我看见nn,就枪毙

:在犹豫到底是用cnn、rnn还是lstm
a******9
发帖数: 20431
41
来自主题: Military版 - Machine Learning AI就是骗吧?
钱老别闹了
rnn cnn lstm用来做预测,分类,识别 各行各业都开始用了 解决了很多实际问题

:调参灌水 解决了什么实际问题?

发帖数: 1
42
来自主题: Military版 - 算法工程师的危机
算法工程师的危机
9月20号讯飞AI同传语音造假的新闻刷爆科技圈,科大讯飞股价应声下跌3.89%(不是65
.3%,标题党文章害死人)。 吃瓜群众纷纷感慨,有多少人工,就有多少智能。
AI概念在2015年起就红得发紫,不论是送外卖,搞团购,卖车,或是推荐莆田医院的,
是个公司都会标榜自己是搞人工智能的。在21世纪的第二个十年,计算机专业相关的学
生不说自己是搞AI算法的,同学聚会都抬不起头,相亲机会都变少了。随便从一摞简历
里抽出一份,一定会有AI,调参,CNN,LSTM这些关键词。未来最赚钱的职业,一定不
是天桥贴膜,而是天桥调参,50块钱一次,一调就灵:
NIPS会议,人满为患,改改网络结构,弄个激活函数就想水一篇paper; 到处都是AI算
法的培训广告,三个月,让你年薪45万!在西二旗或望京的地铁车厢里打个喷嚏,就能
让10个算法工程师第二天因为感冒请假。
谁也不知道这波热潮还能持续多久,但笔者作为一线算法工程师,已经能明显感受到危
机的味道: 以大红大紫的图像为例,图像方向简历堆满了HR的办公台,连小学生都在
搞单片机和计算机视觉。在笔者所在的公司,人工智能部门正在从早前研究... 阅读全帖
d*****u
发帖数: 17243
43
那是傳統機器學習,svm之類的
深度學習一般指CNN和LSTM這些
a*****e
发帖数: 2503
44
那些捣鼓CNN, LSTM的用个屁的微积分。绝大多数就在keras里面调调参,来几个
maxpool之类的东西就完了。你让他们做点feature engineering都不会,都交给DL自己
处理了。
纯搞CNN图像识别的统计也用不着多少。
发这个贴子的人用调参师来形容很对,和搞化学实验的条件实验,餐馆大厨做饭调味一
个道理

DL
s*****l
发帖数: 7106
45
搞透几个经典的
resnet
fsater rcnn
rnn
lstm
rl
然后大概看看最近的进展
面试足矣

发帖数: 1
46
如果要判断语意上的相似度 那就用LSTM
如果是词上的相似度 就用我说的办法
d**s
发帖数: 920
47
LSTM 可以和Word2Vec 一起用吧 ?
d*****u
发帖数: 17243
48
word2vec只是把词map到向量而已,是句子的input。
至于句子的处理有很多方法。现在最常用的是用Transformer。
前两年最常用的是LSTM。
更简单的方法就是把词向量取平均值之类的。
x****q
发帖数: 101
49
来自主题: JobHunting版 - deep learning的工业前景咋样啊
个人觉得DL最大的好处是他能够自己学feature
不要去设计或提取feature
CNN就是发展的很不错的了,虽然理论还有距离
其他的RNN,LSTM之类的用处都很大,
很多公司都已经用了,比如google,FB。。。
r**********g
发帖数: 22734
50
来自主题: JobHunting版 - DNN就是hype
不解为啥这个不行。你要搞问答机器人?有数据肯定没问题,怎么会不能做。你先说具
体商业应用吧,你这个简单描述看起来lstm可以轻松搞定。
1 2 下页 末页 (共2页)