由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Statistics版 - 请高手给解释一下Bayesian Dynamic Linear Model?
相关主题
[求助] 使用MCMC方法和卡尔曼滤波求后验概率遇到一些问题求助 (转载)想学data mining和machine learning 请问哪些课比较重要?
问个关于hierarchical bayesian model的问题请问bayesian在工业界用处大不大
time series problem最大似然估计和最大后验估计究竟是什么东东?
longitudinal的data,missing data 一般都怎么处理?winbugs求助
求复杂的likelihood的MLE除了EM还有什么方法想学学bayesian model,哪位可以推荐一本书吗?
如何比较两组posterior distribution是否有显著差异求助:hierarchical linear model 的问题
Frequentist and Bayesian请教R和 usenet的问题
抛砖引玉:敢问路在何方?问个regression问题
相关话题的讨论汇总
话题: theta话题: dynamic话题: bayesian话题: linear话题: model
进入Statistics版参与讨论
1 (共1页)
q**j
发帖数: 10612
1
多谢了。问题是这样的。比如:
y_t = F * theta_t + v_t
theta_t = G * theta_(t-1) + w_t
这里v_t,w_t都是normal with 0 mean and variance V and W. F,G知道的。
假设 theta_0 是normal(m0, C0)分布,m0, C0 known。用kalman filter那一套就可以
估计 V and W。而且hessian of log likelihood function就是这个mle estimator的
covariance matrix。这不是很容易就拿到了 f(参数 V, W|数据 y_t)了?我们可以sa
mple V, W,然后去forecast以后的theta或者y_t。这样不是很简单明白么?
可是好像大部分书上不这样搞。一般都是要把theta加进来sample。请问这个是为什么?
多谢了。
F******n
发帖数: 160
2
不是高手,只是对kalman filter熟悉,略微了解一些Bayesian DLM的基本概念,所以
也许可以讨论一下。我的讨论见下面。

对于正态的噪声,标准“卡尔曼滤波”和标准、简单的“贝叶斯线性动力模型”应该就
是一回事吧。而且对整个系统有封闭的解析结果。
:而且hessian of log likelihood function就是这个mle estimator的
sa
么?
不太确定我理解了你这个问题,就我所理解和知道的说说。
标准“卡尔曼滤波”针对的主要问题不是预测,而是实时滤波和估计。比如说,对于一
个线性动力系统,你观察到一系列数据,想估算某些动力状态量,最简单的像定位跟踪
系统,你知道动力模型,观测到目标在每一个时刻的位置坐标,想算出速度,加速度,
角速度等等。当然你不能用简单的两个时刻的位置一减除以时间间隔来做。这些速度,
加速度,角速度就是上面模型里的theta_t(不可直接观测的“隐含”动力态)。所以
“卡尔曼滤波”(或者正态噪声的“贝叶斯线性动力模型”)问题就是这样一个构造:
1. 估计问题:当观测到一个新数据y_t(位置),借助y_t = F * theta_t + v_t, 用
模型估计当前时刻隐含的状态量theta_t(速度,等等)
2. 预测问题:通过theta_t = G * theta_(t-1) + w_t, 用模型估计下一时刻的隐含
状态量theta_(t+1)(速度,等等)。
所以在这一类实际问题中,theta_t有具体的物理意义和需要。当然,如果你只是关心
多步预测问题,比如说k步,f{y_(t+k) | y_t, ... y_0}, 也是可以容易构造的。

【在 q**j 的大作中提到】
: 多谢了。问题是这样的。比如:
: y_t = F * theta_t + v_t
: theta_t = G * theta_(t-1) + w_t
: 这里v_t,w_t都是normal with 0 mean and variance V and W. F,G知道的。
: 假设 theta_0 是normal(m0, C0)分布,m0, C0 known。用kalman filter那一套就可以
: 估计 V and W。而且hessian of log likelihood function就是这个mle estimator的
: covariance matrix。这不是很容易就拿到了 f(参数 V, W|数据 y_t)了?我们可以sa
: mple V, W,然后去forecast以后的theta或者y_t。这样不是很简单明白么?
: 可是好像大部分书上不这样搞。一般都是要把theta加进来sample。请问这个是为什么?
: 多谢了。

F******n
发帖数: 160
3
另外忘了说了, 对于非正态(或者非线性)的模型,就没有简单的解析结果了,分布
的估计只能用数值的,比如蒙德卡罗。


sa
么?

【在 q**j 的大作中提到】
: 多谢了。问题是这样的。比如:
: y_t = F * theta_t + v_t
: theta_t = G * theta_(t-1) + w_t
: 这里v_t,w_t都是normal with 0 mean and variance V and W. F,G知道的。
: 假设 theta_0 是normal(m0, C0)分布,m0, C0 known。用kalman filter那一套就可以
: 估计 V and W。而且hessian of log likelihood function就是这个mle estimator的
: covariance matrix。这不是很容易就拿到了 f(参数 V, W|数据 y_t)了?我们可以sa
: mple V, W,然后去forecast以后的theta或者y_t。这样不是很简单明白么?
: 可是好像大部分书上不这样搞。一般都是要把theta加进来sample。请问这个是为什么?
: 多谢了。

y*****y
发帖数: 98
4
The dynamic is described by the latent process theta[1:T]. In other words,
theta is of interest. Usually the transition matrix G is unknown, whose
inference certainly involves theta.
c****t
发帖数: 19049
5
flexible呗
w********o
发帖数: 1621
6
我觉得2楼是正解。
楼主是做什么的,很好奇,为什么要用到这样的model?Kalman filter,我还以为只有
我这样EE出身的人才会用。这个版上的潜伏的高手真的很多啊。
F******n
发帖数: 160
7
你是EE做什么方向的?EE用到很多统计。
卡尔曼滤波,对于搞统计的,大多都一般化地叫做dynamic linear models (DLM)了。
搞统计的有这样一本书:
Mike West, Jeff Harrison (Springer Series in Statistics ) “Bayesian
Forecasting and Dynamic Models”
(电子书可以下载。如果需要,可以站内给我发信,我也有这本电子书)
第四章就是讲DLM,核心推导就是卡尔曼滤波。不过我很喜欢搞统计的DLM的方式,很一
般化,模型框架和概念的来龙去脉,以及和各种模型思想的关联说的很清晰。EE里就只
讲卡尔曼滤波,顶多就讲些非线性的扩展,有点“一叶障目”的感觉,看不到整体的思
想结构。

【在 w********o 的大作中提到】
: 我觉得2楼是正解。
: 楼主是做什么的,很好奇,为什么要用到这样的model?Kalman filter,我还以为只有
: 我这样EE出身的人才会用。这个版上的潜伏的高手真的很多啊。

q**j
发帖数: 10612
8
多谢你们讨论。可是还是没有人回答我的问题。简单说我的问题是:
在F,G已知,不在乎 state,只关心forecast的情况下,我可以用MLE的理论得到f(参数
|data)。这样就可以轻松forecast。基本上可以绕开MCMC。请问为什么大多数人还是
喜欢MCMC呢?

【在 F******n 的大作中提到】
: 你是EE做什么方向的?EE用到很多统计。
: 卡尔曼滤波,对于搞统计的,大多都一般化地叫做dynamic linear models (DLM)了。
: 搞统计的有这样一本书:
: Mike West, Jeff Harrison (Springer Series in Statistics ) “Bayesian
: Forecasting and Dynamic Models”
: (电子书可以下载。如果需要,可以站内给我发信,我也有这本电子书)
: 第四章就是讲DLM,核心推导就是卡尔曼滤波。不过我很喜欢搞统计的DLM的方式,很一
: 般化,模型框架和概念的来龙去脉,以及和各种模型思想的关联说的很清晰。EE里就只
: 讲卡尔曼滤波,顶多就讲些非线性的扩展,有点“一叶障目”的感觉,看不到整体的思
: 想结构。

F******n
发帖数: 160
9

没有技术细节的前提下,你简单的说,用最大释然估计得到f(v_t, w_t | data)。很难
判断你想要的答案到底是什么?
1. 你假定都是正太分布了吗?
2. 你假定正太噪声V_t, W_t和时间无关了吗?从你的最开始问题陈述:
y_t = F * theta_t + v_t
theta_t = G * theta_(t-1) + w_t
v,w都有时间下标,好像又不是这么假定的吧?
如果你两个都假定了,问题当然很trivial。
我想没人喜欢MCMC,只是因为必要。不过你这个“为啥用MCMC”和你原帖的问题,“把
theta加进来sample。请问这个是为什么?”,好像是两个独立的问题。也可能我没看
懂你的问题。

【在 q**j 的大作中提到】
: 多谢你们讨论。可是还是没有人回答我的问题。简单说我的问题是:
: 在F,G已知,不在乎 state,只关心forecast的情况下,我可以用MLE的理论得到f(参数
: |data)。这样就可以轻松forecast。基本上可以绕开MCMC。请问为什么大多数人还是
: 喜欢MCMC呢?

q**j
发帖数: 10612
10
两个假定都有。但是尽管在这么多假定的情况下大部分人还是用mcmc,这个就比较奇怪
了。

【在 F******n 的大作中提到】
:
: 没有技术细节的前提下,你简单的说,用最大释然估计得到f(v_t, w_t | data)。很难
: 判断你想要的答案到底是什么?
: 1. 你假定都是正太分布了吗?
: 2. 你假定正太噪声V_t, W_t和时间无关了吗?从你的最开始问题陈述:
: y_t = F * theta_t + v_t
: theta_t = G * theta_(t-1) + w_t
: v,w都有时间下标,好像又不是这么假定的吧?
: 如果你两个都假定了,问题当然很trivial。
: 我想没人喜欢MCMC,只是因为必要。不过你这个“为啥用MCMC”和你原帖的问题,“把

F******n
发帖数: 160
11
第一个假定是很多人用,但只要是正太,线性模型,正常情况没人用MCMC(莫非为了教学,模拟演示?)。你在那本书或者资料,文献里看到这么用?我很好奇。
第二个假定应该很少有人用。比如最简单的,我上面说的,标准的卡尔曼滤波就没有这个假定。

【在 q**j 的大作中提到】
: 两个假定都有。但是尽管在这么多假定的情况下大部分人还是用mcmc,这个就比较奇怪
: 了。

F******n
发帖数: 160
12
那些对West和Harrison的书感兴趣的,可以从这里下载:
http://www.4shared.com/document/QvVivFiY/Bayesian_Forecasting_a

【在 F******n 的大作中提到】
: 你是EE做什么方向的?EE用到很多统计。
: 卡尔曼滤波,对于搞统计的,大多都一般化地叫做dynamic linear models (DLM)了。
: 搞统计的有这样一本书:
: Mike West, Jeff Harrison (Springer Series in Statistics ) “Bayesian
: Forecasting and Dynamic Models”
: (电子书可以下载。如果需要,可以站内给我发信,我也有这本电子书)
: 第四章就是讲DLM,核心推导就是卡尔曼滤波。不过我很喜欢搞统计的DLM的方式,很一
: 般化,模型框架和概念的来龙去脉,以及和各种模型思想的关联说的很清晰。EE里就只
: 讲卡尔曼滤波,顶多就讲些非线性的扩展,有点“一叶障目”的感觉,看不到整体的思
: 想结构。

F******n
发帖数: 160
13
我真的不知道你想要问什么答案了。。。
这样吧,你把我上面给的West和Harrison的书里第四章看看吧,尤其你感兴趣的那个“
FORECAST DISTRIBUTIONS”(第4节)。全部结果解析可解的,哪有什么MCMC?
你的那个MLE的“简单”解法也贴出来吧,否则光说,谁也没法猜出是怎么回事。

【在 q**j 的大作中提到】
: 两个假定都有。但是尽管在这么多假定的情况下大部分人还是用mcmc,这个就比较奇怪
: 了。

1 (共1页)
进入Statistics版参与讨论
相关主题
问个regression问题求复杂的likelihood的MLE除了EM还有什么方法
想请教一下frequency statistics和bayesian statistics的区别和应用。如何比较两组posterior distribution是否有显著差异
贝叶斯因子分析的问题Frequentist and Bayesian
用EM求的MLE,但是observed likelihood 怎么算呢抛砖引玉:敢问路在何方?
[求助] 使用MCMC方法和卡尔曼滤波求后验概率遇到一些问题求助 (转载)想学data mining和machine learning 请问哪些课比较重要?
问个关于hierarchical bayesian model的问题请问bayesian在工业界用处大不大
time series problem最大似然估计和最大后验估计究竟是什么东东?
longitudinal的data,missing data 一般都怎么处理?winbugs求助
相关话题的讨论汇总
话题: theta话题: dynamic话题: bayesian话题: linear话题: model