L****8 发帖数: 3938 | 1 有啥比tensorflow theano 牛逼的地方? |
h*i 发帖数: 3446 | 2 It's Amazon's official choice of ML technology.
【在 L****8 的大作中提到】 : 有啥比tensorflow theano 牛逼的地方?
|
L****8 发帖数: 3938 | 3 so ?
【在 h*i 的大作中提到】 : It's Amazon's official choice of ML technology.
|
s********k 发帖数: 6180 | 4 据说快,资源消耗少,不过因为文档不全,除了那帮华人大牛从头开始搞得,我自己看
了下觉得上手可能难一点,不然TF,和pytorch
【在 L****8 的大作中提到】 : 有啥比tensorflow theano 牛逼的地方?
|
w***g 发帖数: 5958 | 5 好像用的人少。底下都是cudnn,用tf应该没错。现在鸡毛框架层出不穷好烦。
update:
打算开始学pytorch了。这两天开始train imagenet,发现确实跟小数据不一样。
死慢死慢死慢死慢的。据说pytorch速度不错。
caffe应该是死了。theano应该也快了。
【在 L****8 的大作中提到】 : 有啥比tensorflow theano 牛逼的地方?
|
C*****5 发帖数: 8812 | 6 大牛,您终于上了pytorch。我是越用越喜欢。
【在 w***g 的大作中提到】 : 好像用的人少。底下都是cudnn,用tf应该没错。现在鸡毛框架层出不穷好烦。 : update: : 打算开始学pytorch了。这两天开始train imagenet,发现确实跟小数据不一样。 : 死慢死慢死慢死慢的。据说pytorch速度不错。 : caffe应该是死了。theano应该也快了。
|
w***g 发帖数: 5958 | 7 pytorch目前不适合deploy,而且userbase不大。
做东西卖钱可能还是得tensorflow。
有空我其实宁可看电视剧。实在是生存压力大不学不行。
这种情况下就凸显我picpac的优势了。如果当时用tfrecord,
接pytorch就不方便了。
这两天我用TF基本实现了colorful colorization。
正在着手做neural enhance。有没事干的同学欢迎一起研究。
有些东西自己一个个试实在太慢。
【在 C*****5 的大作中提到】 : 大牛,您终于上了pytorch。我是越用越喜欢。
|
C*****5 发帖数: 8812 | 8 大牛,请问怎么一起研究?我也很想跟着大牛一起学习。
【在 w***g 的大作中提到】 : pytorch目前不适合deploy,而且userbase不大。 : 做东西卖钱可能还是得tensorflow。 : 有空我其实宁可看电视剧。实在是生存压力大不学不行。 : 这种情况下就凸显我picpac的优势了。如果当时用tfrecord, : 接pytorch就不方便了。 : 这两天我用TF基本实现了colorful colorization。 : 正在着手做neural enhance。有没事干的同学欢迎一起研究。 : 有些东西自己一个个试实在太慢。
|
w***g 发帖数: 5958 | 9 就是把你闲着的GPU贡献出来帮我跑程序。
我们用不同的参数/architecture跑,看看结果有啥区别。
顺便学习。机器如果闲着,其实easily几个星期时间就闲过去了。
【在 C*****5 的大作中提到】 : 大牛,请问怎么一起研究?我也很想跟着大牛一起学习。
|
N*****m 发帖数: 42603 | 10 coffe死了?coffe2都出来了,还有戏吗?
【在 w***g 的大作中提到】 : 好像用的人少。底下都是cudnn,用tf应该没错。现在鸡毛框架层出不穷好烦。 : update: : 打算开始学pytorch了。这两天开始train imagenet,发现确实跟小数据不一样。 : 死慢死慢死慢死慢的。据说pytorch速度不错。 : caffe应该是死了。theano应该也快了。
|
|
|
N*****m 发帖数: 42603 | 11 btw, pytorch是fb在搞,coffe的作者在脸书上班,估计是没戏了
【在 N*****m 的大作中提到】 : coffe死了?coffe2都出来了,还有戏吗?
|
w***g 发帖数: 5958 | 12 没想到caffe2又死灰复燃了,还搞出来个.ai的网站!
在大公司干就是好。要有哪个冤大头支持我花时间好好做做picpac就好了。
安圭拉这地方以后光靠卖.ai域名好了,都不用工作了。我估计马上也得给他们捐钱了。
【在 N*****m 的大作中提到】 : coffe死了?coffe2都出来了,还有戏吗?
|
k*****u 发帖数: 1688 | 13 copy的mxnet作者的blog:
对于一个优秀的深度学习系统,或者更广来说优秀的科学计算系统,最重要的是编程接
口的设计。他们都采用将一个领域特定语言(domain specific language)嵌入到一个主
语言中。例如numpy将矩阵运算嵌入到python中。这类嵌入一般分为两种,其中一种嵌
入的较浅,其中每个语句都按原来的意思执行,且通常采用命令式编程(imperative
programming),其中numpy和Torch就是属于这种。而另一种则用一种深的嵌入方式,提
供一整套针对具体应用的迷你语言。这一种通常使用声明式语言(declarative
programing),既用户只需要声明要做什么,而具体执行则由系统完成。这类系统包括
Caffe,theano和刚公布的TensorFlow。
目前现有的系统大部分都采用上两种编程模式的一种。与它们不同的是,MXNet尝试将
两种模式无缝的结合起来。在命令式编程上MXNet提供张量运算,而声明式编程中MXNet
支持符号表达式。用户可以自由的混合它们来快速实现自己的想法。例如我们可以用声
明式编程来描述神经网络,并利用系统提供的自动求导来训练模型。另一方便,模型的
迭代训练和更新模型法则中可能涉及大量的控制逻辑,因此我们可以用命令式编程来实
现。同时我们用它来进行方便地调式和与主语言交互数据。
【在 L****8 的大作中提到】 : 有啥比tensorflow theano 牛逼的地方?
|
w***g 发帖数: 5958 | 14 用户其实根本不懂。连我这种专业用户都是既不懂也不care,除非真要用了才会去学。
mxnet的优势在于多语言支持。如果不想用python,mxnet是唯一的选择。
我是真心佩服mxnet这批人的。如果好好market一下,破了python一家独大的局面,
也是造福后代的事情。虽然我知道这好像不可能。
本来还有个lua,现在来个pytorch,lua也用不上了。
【在 k*****u 的大作中提到】 : copy的mxnet作者的blog: : 对于一个优秀的深度学习系统,或者更广来说优秀的科学计算系统,最重要的是编程接 : 口的设计。他们都采用将一个领域特定语言(domain specific language)嵌入到一个主 : 语言中。例如numpy将矩阵运算嵌入到python中。这类嵌入一般分为两种,其中一种嵌 : 入的较浅,其中每个语句都按原来的意思执行,且通常采用命令式编程(imperative : programming),其中numpy和Torch就是属于这种。而另一种则用一种深的嵌入方式,提 : 供一整套针对具体应用的迷你语言。这一种通常使用声明式语言(declarative : programing),既用户只需要声明要做什么,而具体执行则由系统完成。这类系统包括 : Caffe,theano和刚公布的TensorFlow。 : 目前现有的系统大部分都采用上两种编程模式的一种。与它们不同的是,MXNet尝试将
|
N*****m 发帖数: 42603 | 15 赶脚mxnet的用户主流也是用py
【在 w***g 的大作中提到】 : 用户其实根本不懂。连我这种专业用户都是既不懂也不care,除非真要用了才会去学。 : mxnet的优势在于多语言支持。如果不想用python,mxnet是唯一的选择。 : 我是真心佩服mxnet这批人的。如果好好market一下,破了python一家独大的局面, : 也是造福后代的事情。虽然我知道这好像不可能。 : 本来还有个lua,现在来个pytorch,lua也用不上了。
|
s*****l 发帖数: 7106 | 16 Caffe2已经fb背书
【在 w***g 的大作中提到】 : 好像用的人少。底下都是cudnn,用tf应该没错。现在鸡毛框架层出不穷好烦。 : update: : 打算开始学pytorch了。这两天开始train imagenet,发现确实跟小数据不一样。 : 死慢死慢死慢死慢的。据说pytorch速度不错。 : caffe应该是死了。theano应该也快了。
|
N*****m 发帖数: 42603 | 17 小贾就在脸书么。脸书同时搞两个啊。
【在 s*****l 的大作中提到】 : Caffe2已经fb背书
|
s*****l 发帖数: 7106 | 18 昨天在gtc看见jia了
talk一如既往的火爆
一如既往的chinglish 哈哈
【在 N*****m 的大作中提到】 : 小贾就在脸书么。脸书同时搞两个啊。
|
s*****l 发帖数: 7106 | 19 感觉caffe2就是给embeded定制的
【在 N*****m 的大作中提到】 : 小贾就在脸书么。脸书同时搞两个啊。
|
N*****m 发帖数: 42603 | 20 牛逼啊,跟老黄在第一排
http://www.gputechconf.com/
【在 s*****l 的大作中提到】 : 昨天在gtc看见jia了 : talk一如既往的火爆 : 一如既往的chinglish 哈哈
|