b*********h 发帖数: 46 | 1 最近遇到的,应该是个很标准的estimation的问题,想来内行人很容易回答
一个线性模型, y=Ax+e, x是未知随机输入,A是已知的非随机模型,y是
观测到的输出,e是观测的随机误差。任务是根据y估计x。
给出的解是最小化(Ax-y)'*inv(Cy)*(Ax-y)'+x'*inv(Cx)*x, Cy和Cx是y和
x的covariance matrix,我的问题是,这种解法的数学解释是什么。
我不懂统计的术语,但是知道概率,分布,随机变量和随机过
程什么的。举个例子,你说“regression”我就听不懂。希望明白人给个解释,
如果有简单明了的tutorial,可以一看就懂是最好了。多谢了。 | T*******I 发帖数: 5138 | 2 You are stating your statistical problem by using mathematical terms. You
must be familiar with the terms, logics and thinking mode of Statistics. In front of Statistics, the mathematical logic is naive.
【在 b*********h 的大作中提到】 : 最近遇到的,应该是个很标准的estimation的问题,想来内行人很容易回答 : 一个线性模型, y=Ax+e, x是未知随机输入,A是已知的非随机模型,y是 : 观测到的输出,e是观测的随机误差。任务是根据y估计x。 : 给出的解是最小化(Ax-y)'*inv(Cy)*(Ax-y)'+x'*inv(Cx)*x, Cy和Cx是y和 : x的covariance matrix,我的问题是,这种解法的数学解释是什么。 : 我不懂统计的术语,但是知道概率,分布,随机变量和随机过 : 程什么的。举个例子,你说“regression”我就听不懂。希望明白人给个解释, : 如果有简单明了的tutorial,可以一看就懂是最好了。多谢了。
| e*n 发帖数: 1511 | 3 http://en.wikipedia.org/wiki/Generalized_least_squares
不明白为什么还要加第二项
【在 b*********h 的大作中提到】 : 最近遇到的,应该是个很标准的estimation的问题,想来内行人很容易回答 : 一个线性模型, y=Ax+e, x是未知随机输入,A是已知的非随机模型,y是 : 观测到的输出,e是观测的随机误差。任务是根据y估计x。 : 给出的解是最小化(Ax-y)'*inv(Cy)*(Ax-y)'+x'*inv(Cx)*x, Cy和Cx是y和 : x的covariance matrix,我的问题是,这种解法的数学解释是什么。 : 我不懂统计的术语,但是知道概率,分布,随机变量和随机过 : 程什么的。举个例子,你说“regression”我就听不懂。希望明白人给个解释, : 如果有简单明了的tutorial,可以一看就懂是最好了。多谢了。
| b*********h 发帖数: 46 | 4 知道了,假定x,y都是joint gaussian,各自的pdf
~exp(-1/2(x-x0)'*inv(Cx)*(x-x0))
和exp(-1/2e'*inv(Ce)*e), 假定x,y相互独立,joint pdf
~exp(1/2(x-x0)'*inv(Cx)*(x-x0)-1/2e'*inv(Ce)*e),
取log并最大化,就是最小化(Ax-y)'*inv(Ce)*(Ax-y)'
+x'*inv(Cx)*x, 原文错了,不是Cy是Ce,误差的covariance
数学太差了,居然搞了好几个小时。。。 |
|