由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - 被docker气死了
相关主题
亚麻决定支持mxnet大家有没有觉得Scala不如Haskell美?
NLP是使用什么技术或框架实现的?没人讨论狗家最新开源的tensorflow?
已经全上内存了,还要40多秒啊Tensorflow course (FREE Deep Learning)
ML 需不需要搞懂那些数学caffe等CNN里面convolution和relu是分开的两层?
[合集] 看了一段时间haskell,感觉被骗了虚心请教 如何成为Python 大牛
赵策我问你个本质的问题Spark 和 Tensorflow 线性回归问题
前途是光明的,道路是曲折的C++怎样从文件读入分数?
面试big data的软件开发工作需要知道哪些算法和理论?码工怎么规划职业前景?
w***g
2017-01-03 22:06:25
1
用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
a9
2017-01-03 23:03:47
2
我用了一阵子docker,感觉跟脱裤子放屁有一拼

【在 w***g 的大作中提到】
: 用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
N*****m
2017-01-04 11:37:24
3
那是image写得不好

【在 w***g 的大作中提到】
: 用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
w***g
2017-01-04 11:41:20
4
是。不过都docker了,里面还建非root帐号, 那就真是脱裤子放屁了。

【在 N*****m 的大作中提到】
: 那是image写得不好
N*****m
2017-01-04 11:44:43
5
一般不用,但是有这种往主机上写的应用还是应该建一个

【在 w***g 的大作中提到】
: 是。不过都docker了,里面还建非root帐号, 那就真是脱裤子放屁了。
w***g
2017-01-04 11:46:37
6
docker这东西绝对是security hazard。基本上能run docker就相当于有root权限了。

【在 N*****m 的大作中提到】
: 一般不用,但是有这种往主机上写的应用还是应该建一个
N*****m
2017-01-04 11:59:58
7
是的,所以rkt越来越流行

【在 w***g 的大作中提到】
: docker这东西绝对是security hazard。基本上能run docker就相当于有root权限了。
d*******r
2017-01-04 13:03:32
8
那 coreos rocket VS docker 有戏?

【在 N*****m 的大作中提到】
: 是的,所以rkt越来越流行
c******n
2017-01-04 13:13:51
9
这玩意儿可以上production了不
那个open image format稳定了没 还是暂时先用docker image?

【在 N*****m 的大作中提到】
: 是的,所以rkt越来越流行
l*********s
2017-01-04 13:19:37
10
歪个楼,wdong比较下贝叶斯学习和深度学习?
c*****e
2017-01-04 13:53:43
11
一个是传统的 ml, 一个是 nn, 有啥好比较的?

【在 l*********s 的大作中提到】
: 歪个楼,wdong比较下贝叶斯学习和深度学习?
w***g
2017-01-04 13:55:27
12
就我的理解,深度学习一般不太追求对问题的建模。
贝叶斯学习则比较注重对问题建模。贝叶斯方法和
函数式编程在有一点上非常像,就是极度追求
理论的完美性,当和现实世界的不完美性产生
冲突时,会把不完美的那部分排除在理论之外。
比如Haskel用IO monad包装整个现实世界,从而
实现形式上的纯函数式。贝叶斯方法则严重依赖
prior probability。至于prior probability
怎么选则不予讨论。而且prior distribution
的形式完全是由数学上的和谐性决定的,说不出
什么物理依据。比如multinomial分布的prior
是dirichilet分布,完全是由数学形式上的
可行性决定的,没啥道理可讲。因为有这些理论
上优美性的条条框框制约,所以这两个东西在
实战上总是输人一截成不了主流。这次神经网络
兴起之前最流行的graphical model就是贝叶斯
方法,图像分类的实战上一直干不过SVM。
本来这两个是独立的概念没法比,但因为都在
图像分类上有应用,所以勉为其难从效果上
比一下。希望专家路过指正。

【在 l*********s 的大作中提到】
: 歪个楼,wdong比较下贝叶斯学习和深度学习?
l*********s
2017-01-04 14:31:12
13
表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?

【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出

l*********s
2017-01-04 14:35:02
14
对我们来说,两个都要学吗?还是nn可以取代ml,学一个就行了?

【在 c*****e 的大作中提到】
: 一个是传统的 ml, 一个是 nn, 有啥好比较的?
b*******r
2017-01-04 14:40:48
15
哈哈,我觉得wdong和littlebirds说的都很对。现在大环境应该是无闹入nn吧
N*****m
2017-01-04 14:48:23
16
狗也在推,k8s现在可支持rkt
docker那帮人不想让别人抢饭碗,所以其他人都另起炉灶

【在 d*******r 的大作中提到】
: 那 coreos rocket VS docker 有戏?
l*********s
2017-01-04 14:49:24
17
好吧 :-), 这流行变化的真快

【在 b*******r 的大作中提到】
: 哈哈,我觉得wdong和littlebirds说的都很对。现在大环境应该是无闹入nn吧
l*******m
2017-01-04 14:52:59
18
现在用DL做贝叶斯十分流行,只是老中概率教育不好,基本上是欧洲人做。
基本上就是两个DL networks左右互搏,避免了MCMC或是VI

.

【在 l*********s 的大作中提到】
: 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
: 选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
: 数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
: 有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?

w***g
2017-01-04 15:04:59
19
你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
花在deep learning之前(图片数据库)和deep learning之后
(post processing, 搭服务, 做demo)上面。至于tensorflow/
caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
也破了。对于我来说,deep learning框架就是个black box plug-in。
等人家好的model release出来,管他是tensorflow, mxnet还是torch
我直接一套就行。

.

【在 l*********s 的大作中提到】
: 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
: 选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
: 数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
: 有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?

l*********s
2017-01-04 15:08:27
20
明白了,谢谢!

【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .

l*********s
2017-01-04 15:09:32
21
统计这行基本是中国人为主,烙印很少,和IT完全相反。

【在 l*******m 的大作中提到】
: 现在用DL做贝叶斯十分流行,只是老中概率教育不好,基本上是欧洲人做。
: 基本上就是两个DL networks左右互搏,避免了MCMC或是VI
:
: .

l*******m
2017-01-04 15:11:13
22
统计和概率是两回事

【在 l*********s 的大作中提到】
: 统计这行基本是中国人为主,烙印很少,和IT完全相反。
g****t
2017-01-04 15:45:24
23
这些分布就是因为现存的知识足够,所以用的人多吧。
跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
加一些条件。不好用,那就无路走。
例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
切比雪夫不等式,大数定律...都不一定适用。
所以正态分布为基础的经济学理论都不靠谱。
市场可能会有tail events。
他肯定是正确的。
但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
可能从原理上来讲是更正确的道路。

【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出

s********k
2017-01-05 14:29:52
24
LDA不就是研究long tail的工具?

【在 g****t 的大作中提到】
: 这些分布就是因为现存的知识足够,所以用的人多吧。
: 跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
: 加一些条件。不好用,那就无路走。
: 例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
: 切比雪夫不等式,大数定律...都不一定适用。
: 所以正态分布为基础的经济学理论都不靠谱。
: 市场可能会有tail events。
: 他肯定是正确的。
: 但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
: 发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,

T*******e
2017-01-08 12:39:35
25
你们平时用Docker干什么?

【在 w***g 的大作中提到】
: 用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
w***g
2017-01-08 14:12:29
26
我用docker部署服务,还有编译环境

【在 T*******e 的大作中提到】
: 你们平时用Docker干什么?
c*********e
2017-01-08 14:31:05
27
wdong请分析一下amazon go是啥原理?

【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .

w***g
2017-01-08 16:27:46
28
这个我没啥了解,分析不了。

【在 c*********e 的大作中提到】
: wdong请分析一下amazon go是啥原理?