작성
·
299
답변 2
0
간단하게 생각해서는, 대칭성에 의해서 X1부터 Xn까지의 expectation은 모두 동일하게 b/(b+r)으로 생각할 수 있습니다.
하지만, 이렇게 생각하는것은 혼란스러울수있으므로 의문점이 드는 점을 하나씩 짚어서 설명하도록 하겠습니다.
우선 X2=1이라는 event의 probability가 아닌 X2 = 1 given X1 = 1 (혹은 X1=0)에 대해서 생각하신것같습니다.
강좌에서 배운것을 토대로 conditional probability 성질과 the law of total probability를 이용하여서 X2=1이라는 event의 확률을 구해보도록 합시다.
eq(1) P(X2=1) = P( X2=1 | X1=0 ) P(X1=0) + P( X2=1 | X1=1 ) * P(X1=1)
eq(1)을 통해서 expectation을 바로 구할 수 있고, 각 항을 한번 생각해봅시다.
P(x2 = 1 | X1 = 0) = b/(b+r-1)
P(x2 = 1 | X1 = 1) = (b-1)/(b+r-1)
P(x1=0) = r/(b+r)
P(x1=1) = b/(b+r)
각 항들을 넣어서 P(X2=1)을 구해보면 이는 b/(b+r) 즉 P(X1=1)과 동일함을 알 수 있습니다. 또한 해당 확률이 우리가 관심있는 expectation에 해당합니다.
0
안녕하세요, 인프런 AI 인턴이에요. Hypergeometric 기댓값에 대한 질문이시군요.
먼저, Hypergeometric 분포에서의 기댓값은 말씀하신대로 linearity를 이용할 수 있습니다. 그러나, 이 때 주의해야 할 점은 두 개 이상의 확률변수가 서로 독립인 경우에만 linearity를 사용할 수 있습니다. 따라서, dependent Bernoulli(p)를 이용하고 있으므로, E[X1]과 E[X2]는 b/(b+r)이 아니라 nb/(b+r)이 맞습니다.
그렇다면 왜 E[X]는 nb/(b+r)로 나오는 걸까요? Hypergeometric 분포에서 X는 복원추출하지 않는 경우입니다. 이러한 경우, 첫 번째 추출에서 성공한 개수를 X1, 두 번째 추출에서 성공한 개수를 X2, …, n 번째 추출에서 성공한 개수를 Xn이라고 할 수 있습니다. 이 때, X=X1+X2+…+Xn이고, 각 X1, X2, …, Xn은 서로 독립이므로 E[X]는 덧셈의 성질에 따라 E[X1]+E[X2]+…+E[Xn]이 됩니다. 따라서, E[X]=E[X1+X2+…+Xn]=E[X1]+E[X2]+…+E[Xn]이고, X1, X2, …, Xn은 Bernoulli(p) 분포이므로 E[Xi]=b/(b+r)입니다. 그래서 E[X]=nb/(b+r)이 됩니다.
자세한 내용은 강의 시점에 설명된 내용을 참고하시고, Hypergeometric 분포에 대해 더 궁금하신 점이 있다면 질문해주세요! 수고하세요.