由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Quant版 - 请教一个Markov Chain
相关主题
【Probability】a problem[合集] 一道概率题,被问倒了。
[Markov Chain] 世界矿工的一道笔试题non-markov martingale
Interview Questions from two "famous" hedge funds一道概率题,大家看看
[合集] a probability question面了,估计没戏
请教2道概率题coin toss 题
Interview question on random walk[合集] 请问有人作financial risk management 方面的工作吗?
goldman sachs这道问题怎么解?以前的解释都没有给答案阿[合集] 问个Markov Chain的问题 (real interview question)
问一个simple random walk的问题a questin about Markov Chain
相关话题的讨论汇总
话题: markov话题: chain话题: throw话题: score话题: previous
进入Quant版参与讨论
1 (共1页)
j******y
发帖数: 2578
1
Now you have a fair coin but more complex rules:
if your previous throw was a head then you get +1 for H, -1 for T on the
next
throw.
If your previous throw was a tail then you get +2 for H and -2 for T on the
next throw.
Is the score a Markov Chain? Thanks!
l******n
发帖数: 9344
2
不是,定义就过不了

the

【在 j******y 的大作中提到】
: Now you have a fair coin but more complex rules:
: if your previous throw was a head then you get +1 for H, -1 for T on the
: next
: throw.
: If your previous throw was a tail then you get +2 for H and -2 for T on the
: next throw.
: Is the score a Markov Chain? Thanks!

j******y
发帖数: 2578
3
能再多详细解释一下吗?谢谢!

【在 l******n 的大作中提到】
: 不是,定义就过不了
:
: the

c**********e
发帖数: 2007
4
It can be. Just define (Score, Prev) as your current state.
C******n
发帖数: 9204
5
ls正解。需要用到lagged info。
不能孤立地说是否markov,需要定义info set>
j******y
发帖数: 2578
6
如果state space就是呢?
还有这题目中我的理解是"previous"就是X_{n-1},"next"就是X_{n},
不知道对不对?

【在 c**********e 的大作中提到】
: It can be. Just define (Score, Prev) as your current state.
j******y
发帖数: 2578
7
谢谢回复,回复有包子。
不过请再帮忙解释一下,如果info set就是呢?谢谢!

【在 C******n 的大作中提到】
: ls正解。需要用到lagged info。
: 不能孤立地说是否markov,需要定义info set>

C******n
发帖数: 9204
8
觉得不是。
intuitively,如果说你只知道现在score的话,能判断下一次toss产生的score吗?

【在 j******y 的大作中提到】
: 谢谢回复,回复有包子。
: 不过请再帮忙解释一下,如果info set就是呢?谢谢!

j******y
发帖数: 2578
9
嗯,我明白你的意思了,要判断下一次的score是要用到本次toss的结果和现在的score
的?

【在 C******n 的大作中提到】
: 觉得不是。
: intuitively,如果说你只知道现在score的话,能判断下一次toss产生的score吗?

t**y
发帖数: 310
10
这个对普通的coin toss也成立呀

score

【在 j******y 的大作中提到】
: 嗯,我明白你的意思了,要判断下一次的score是要用到本次toss的结果和现在的score
: 的?

相关主题
Interview question on random walk[合集] 一道概率题,被问倒了。
goldman sachs这道问题怎么解?以前的解释都没有给答案阿non-markov martingale
问一个simple random walk的问题一道概率题,大家看看
进入Quant版参与讨论
c**********e
发帖数: 2007
11
对于普通的coin toss, 知道S_n,现在的score足够了。因为下次的score要么是S_n+1,
要么是S_n-1。所以,S_n是马尔可夫的。
但是对于楼主定义的coin toss,知道S_n,现在的score是不够的。你还要现在的toss
X_n才
知道下一步的状态。所以,S_n不是马尔可夫的,而(S_n,X_n)是。

【在 t**y 的大作中提到】
: 这个对普通的coin toss也成立呀
:
: score

c**********e
发帖数: 2007
12
Maybe I can use notation (score, curr)=(S_n, X_n) to avoid confusion.

【在 j******y 的大作中提到】
: 如果state space就是呢?
: 还有这题目中我的理解是"previous"就是X_{n-1},"next"就是X_{n},
: 不知道对不对?

w**********y
发帖数: 1691
13
State_t = {X_{t-1}, X_t}
{H, H}
{H, T}
{T, H}
{T, T}
transition matrix:
0.5 0.5 0.0 0.0
0.0 0.0 0.5 0.5
0.5 0.5 0.0 0.0
0.0 0.0 0.5 0.5
w**********y
发帖数: 1691
14
One definition of Markov chain is:
P(S_t = s|S_{t-1},..S_0) = P(S_t = s|S_{t-1})
So score itself is Markov Chain.
C******n
发帖数: 9204
15
这个定义应该并不本质。
你假设了S这个变量的filtration=info set。但实际上info set在这里包含其他变量。
http://en.wikipedia.org/wiki/Markov_property

【在 w**********y 的大作中提到】
: One definition of Markov chain is:
: P(S_t = s|S_{t-1},..S_0) = P(S_t = s|S_{t-1})
: So score itself is Markov Chain.

w**********y
发帖数: 1691
16
Define your filtration F_t as a product sigma-field by sigma(S_t) cross
sigma(X_t)
From Fubini theorem, S_t is still measurable on the F_t.

【在 C******n 的大作中提到】
: 这个定义应该并不本质。
: 你假设了S这个变量的filtration=info set。但实际上info set在这里包含其他变量。
: http://en.wikipedia.org/wiki/Markov_property

n******t
发帖数: 4406
17

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
This does not hold.

【在 w**********y 的大作中提到】
: One definition of Markov chain is:
: P(S_t = s|S_{t-1},..S_0) = P(S_t = s|S_{t-1})
: So score itself is Markov Chain.

c**********e
发帖数: 2007
18
I agree with Netghost. The following is not true.
In fact, the following is true:
P(S_t = s|S_{t-1},..S_0) = P(S_t = s|S_{t-1}, S_{t-2})
But this is not enough for S_t to be Markov.
w**********y
发帖数: 1691
19
P(1|1) = 0.5; P(-1|1) = 0.5; same for given 2
P(2|-1) = 0.5; P(-2|-1) = 0.5; same for given -2
n******t
发帖数: 4406
20
he said the score.. which means the sum.

【在 w**********y 的大作中提到】
: P(1|1) = 0.5; P(-1|1) = 0.5; same for given 2
: P(2|-1) = 0.5; P(-2|-1) = 0.5; same for given -2

i*****e
发帖数: 68
21
Agree with this one. Let the state space be {1,-1,2,-2}. Then the transition
matrix is
0.5 0.5 0.0 0.0
0.0 0.0 0.5 0.5
0.5 0.5 0.0 0.0
0.0 0.0 0.5 0.5
Let's revise the question a little bit:-)
if your previous throw was a head then you get +1 for H, 0 for T on the next
throw.
If your previous throw was a tail then you get 0 for H and -1 for T on the
next throw.
Is the score a Markov Chain?

【在 w**********y 的大作中提到】
: P(1|1) = 0.5; P(-1|1) = 0.5; same for given 2
: P(2|-1) = 0.5; P(-2|-1) = 0.5; same for given -2

1 (共1页)
进入Quant版参与讨论
相关主题
a questin about Markov Chain请教2道概率题
问个markov chain的问题Interview question on random walk
Markov chaingoldman sachs这道问题怎么解?以前的解释都没有给答案阿
请教一下关于Markov Chain和Brownian Movement的知识或书籍问一个simple random walk的问题
【Probability】a problem[合集] 一道概率题,被问倒了。
[Markov Chain] 世界矿工的一道笔试题non-markov martingale
Interview Questions from two "famous" hedge funds一道概率题,大家看看
[合集] a probability question面了,估计没戏
相关话题的讨论汇总
话题: markov话题: chain话题: throw话题: score话题: previous