j******y 发帖数: 2578 | 1 Now you have a fair coin but more complex rules:
if your previous throw was a head then you get +1 for H, -1 for T on the
next
throw.
If your previous throw was a tail then you get +2 for H and -2 for T on the
next throw.
Is the score a Markov Chain? Thanks! |
l******n 发帖数: 9344 | 2 不是,定义就过不了
the
【在 j******y 的大作中提到】 : Now you have a fair coin but more complex rules: : if your previous throw was a head then you get +1 for H, -1 for T on the : next : throw. : If your previous throw was a tail then you get +2 for H and -2 for T on the : next throw. : Is the score a Markov Chain? Thanks!
|
j******y 发帖数: 2578 | 3 能再多详细解释一下吗?谢谢!
【在 l******n 的大作中提到】 : 不是,定义就过不了 : : the
|
c**********e 发帖数: 2007 | 4 It can be. Just define (Score, Prev) as your current state. |
C******n 发帖数: 9204 | 5 ls正解。需要用到lagged info。
不能孤立地说是否markov,需要定义info set> |
j******y 发帖数: 2578 | 6 如果state space就是呢?
还有这题目中我的理解是"previous"就是X_{n-1},"next"就是X_{n},
不知道对不对?
【在 c**********e 的大作中提到】 : It can be. Just define (Score, Prev) as your current state.
|
j******y 发帖数: 2578 | 7 谢谢回复,回复有包子。
不过请再帮忙解释一下,如果info set就是呢?谢谢!
【在 C******n 的大作中提到】 : ls正解。需要用到lagged info。 : 不能孤立地说是否markov,需要定义info set>
|
C******n 发帖数: 9204 | 8 觉得不是。
intuitively,如果说你只知道现在score的话,能判断下一次toss产生的score吗?
【在 j******y 的大作中提到】 : 谢谢回复,回复有包子。 : 不过请再帮忙解释一下,如果info set就是呢?谢谢!
|
j******y 发帖数: 2578 | 9 嗯,我明白你的意思了,要判断下一次的score是要用到本次toss的结果和现在的score
的?
【在 C******n 的大作中提到】 : 觉得不是。 : intuitively,如果说你只知道现在score的话,能判断下一次toss产生的score吗?
|
t**y 发帖数: 310 | 10 这个对普通的coin toss也成立呀
score
【在 j******y 的大作中提到】 : 嗯,我明白你的意思了,要判断下一次的score是要用到本次toss的结果和现在的score : 的?
|
|
|
c**********e 发帖数: 2007 | 11 对于普通的coin toss, 知道S_n,现在的score足够了。因为下次的score要么是S_n+1,
要么是S_n-1。所以,S_n是马尔可夫的。
但是对于楼主定义的coin toss,知道S_n,现在的score是不够的。你还要现在的toss
X_n才
知道下一步的状态。所以,S_n不是马尔可夫的,而(S_n,X_n)是。
【在 t**y 的大作中提到】 : 这个对普通的coin toss也成立呀 : : score
|
c**********e 发帖数: 2007 | 12 Maybe I can use notation (score, curr)=(S_n, X_n) to avoid confusion.
【在 j******y 的大作中提到】 : 如果state space就是呢? : 还有这题目中我的理解是"previous"就是X_{n-1},"next"就是X_{n}, : 不知道对不对?
|
w**********y 发帖数: 1691 | 13 State_t = {X_{t-1}, X_t}
{H, H}
{H, T}
{T, H}
{T, T}
transition matrix:
0.5 0.5 0.0 0.0
0.0 0.0 0.5 0.5
0.5 0.5 0.0 0.0
0.0 0.0 0.5 0.5 |
w**********y 发帖数: 1691 | 14 One definition of Markov chain is:
P(S_t = s|S_{t-1},..S_0) = P(S_t = s|S_{t-1})
So score itself is Markov Chain. |
C******n 发帖数: 9204 | 15 这个定义应该并不本质。
你假设了S这个变量的filtration=info set。但实际上info set在这里包含其他变量。
http://en.wikipedia.org/wiki/Markov_property
【在 w**********y 的大作中提到】 : One definition of Markov chain is: : P(S_t = s|S_{t-1},..S_0) = P(S_t = s|S_{t-1}) : So score itself is Markov Chain.
|
w**********y 发帖数: 1691 | 16 Define your filtration F_t as a product sigma-field by sigma(S_t) cross
sigma(X_t)
From Fubini theorem, S_t is still measurable on the F_t.
【在 C******n 的大作中提到】 : 这个定义应该并不本质。 : 你假设了S这个变量的filtration=info set。但实际上info set在这里包含其他变量。 : http://en.wikipedia.org/wiki/Markov_property
|
n******t 发帖数: 4406 | 17
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
This does not hold.
【在 w**********y 的大作中提到】 : One definition of Markov chain is: : P(S_t = s|S_{t-1},..S_0) = P(S_t = s|S_{t-1}) : So score itself is Markov Chain.
|
c**********e 发帖数: 2007 | 18 I agree with Netghost. The following is not true.
In fact, the following is true:
P(S_t = s|S_{t-1},..S_0) = P(S_t = s|S_{t-1}, S_{t-2})
But this is not enough for S_t to be Markov. |
w**********y 发帖数: 1691 | 19 P(1|1) = 0.5; P(-1|1) = 0.5; same for given 2
P(2|-1) = 0.5; P(-2|-1) = 0.5; same for given -2 |
n******t 发帖数: 4406 | 20 he said the score.. which means the sum.
【在 w**********y 的大作中提到】 : P(1|1) = 0.5; P(-1|1) = 0.5; same for given 2 : P(2|-1) = 0.5; P(-2|-1) = 0.5; same for given -2
|
i*****e 发帖数: 68 | 21 Agree with this one. Let the state space be {1,-1,2,-2}. Then the transition
matrix is
0.5 0.5 0.0 0.0
0.0 0.0 0.5 0.5
0.5 0.5 0.0 0.0
0.0 0.0 0.5 0.5
Let's revise the question a little bit:-)
if your previous throw was a head then you get +1 for H, 0 for T on the next
throw.
If your previous throw was a tail then you get 0 for H and -1 for T on the
next throw.
Is the score a Markov Chain?
【在 w**********y 的大作中提到】 : P(1|1) = 0.5; P(-1|1) = 0.5; same for given 2 : P(2|-1) = 0.5; P(-2|-1) = 0.5; same for given -2
|