카테고리 없음

수학적 개념 이해 - 확률의 기초

문베디드 2020. 12. 1. 09:45

* 확률

 - 확률실험(Random experiment): 다음속성을 지닌 관찰, 인위실험

  -- 실험의 결과를 미리 알 수 없다.

  -- 실험에서 일어날 모든 결과가 알려져 있다.

  -- 이론적으로는 실험 반복 가능

 

 - 표본공간(Sample space): 모든 결과들의 모임

 - 근원사건(Sample outcome): 표본공간의 원소

 - 사건(Event): 표본공간의 부분집합, 근원사건의 집합

  -- 배반사건(Mutually Exclusive Events):서로 교집합이 공집합인 사건

 

 - 확률실험1: 주사위 실험

 - Random experiment

 - Sample space 표기: S 혹은 $\Omega$ : $\Omega$ = {1,2,3,4,5,6}

 - Sample outcom: 1,2,3,4,5,6

 - Event: 짝수가 나오는 사건 A = {2,4,6}

 

 - 확률실험2: 두 동전을 던지는 시행. H, T의 쌍으로 결과를 표시

 - Sample space: S = {(H,H),(H,T),(T,H),(T,T)}

 - Sample outcome: (H,H),(H,T),(T,H),(T,T)

 - Event: 앞면이 한번이라도 나오는 사건 A={(H,H),(H,T),(T,H)}

 

 - 확률

  -- 어떠한 사건이 일어날 가능성의 정도

    P({2,4,6}) = P(A)

  -- 근원사건이 일어날 가능성이 동일할때의 계산

    $P(A) = \frac{|A|}{|S|} = \frac{3}{6} \ \frac{1}{2}$

  -- 확률의 공리 

   --- $0 \le P(A) \le 1$

   --- P(S) = 1

   --- 어떠한 사건들( $A_i, i=1,...,n$)이 서로 배반사건일 때, 이 사건들의 합사건의 확률은
        각각의 사건이 일어날 확률의 합과 같다.

    $P(\underset{i=1,...,n}{\cup}A_i) = \sum_{i=1}^n P(A_i)$   (\cup :합사건을 의미)

 

 - 조건부 확률(굉장히 중요)

  -- A는 전체 사각형 넓이지만 B가 주어진 A의 조건부 확률은 겹치는 경우

  -- 사건 B에 대한 정보가 주어졌을 때 사건 A의 교정된 확률

  -- B가 주어졌을 때 사건 A의 조건부 확률: $P(A|B) = \frac{P(A \cap B)}{P(B)}$

 

 - 독립

  -- A와 B는 서로에게 영향을 미치지 않음

  -- 사건 A와 B가 서로에게 아무런 영향을 미치지 않을 때.

  -- $P(A|B) = P(A), P(B|A) = P(B) $

    (B가 주어졌을때 A의 확률은 P(A), A가 주어졌을때 B의 확률은 P(B)이다.)

       $P(A \cap B) = P(A)P(B)$

    (A와 B의 교사건의 확률은 A와B 확률의 곱과 같다.)

 

 - 확률변수

  -- 각각의 근원사건(sample outcom)에 실수값을 대응시키는 함수

  -- 예) 두쌍의 동전을 던지는 확률 실험에서,
          X: 동전 앞면의 개수

  -- $X((H,H)) = 2$

 

 - 확률분포

  -- 확률변수에서 확률값으로의 함수. 주로 $f(x)$로 표기 (X: 동전 앞면의 개수)

  -- $f(2) = P(X=2) = P({(H,H)}) = \frac{1}{4}$

  -- $f(1) = P(X=1) = P({(H,T), (T,H)}) = \frac{2}{4} = \frac{1}{2}$

  -- $f(0) = P(X=0) = P({(T,T)}) = \frac{1}{4}$

 

 - 확률변수의 기대값

  -- 확률변수의 중심 경향값, 흔히 평균이라 칭함

    $E(X) = \mu = \sum_{i=1}^{n}x_i f(x_i)$

    주사위값을 예를 들면 $x_i$ 값에 주사위 눈 값, $f(x_i)$는 주사위 눈이 나올 확률 $x_i = 1$이면 $f(x_i)=\frac{1}{6}$

 - 확률변수의 분산

    $Var(X) = E(X-\mu)^2 = \sum_{i=1}^{n}(x_i-\mu)^2 \centerdot f(x_i)$

 

 - 공분산

  -- $Cov(X,Y) = E(X-\mu_X)(Y-\mu_Y) = \sum_{i=1}{n}(x_i-\mu_X)(y_i-\mu_Y)f(x_i,y_i)$

        ($f(x_i, y_i)$는 x와 y가 동시에 일어날 확률)

    중심점 기준 X가 +/- Y가 +/- 어디로 움직이는지에 따라 두 변수가 같은/다른 방향으로 움직이는지 판단

    공분산이 100이라고 할때 방향성은 알지만, 이게 큰건지 작은건지 알 수 없음

    이럴떄 상관계수를 사용함

  -- 두개의 확률변수 X, Y가 상호 어떤 관계를 가지며 변화하는가를 나타낸 측도

  -- X, Y가 독립이면 $Cov(X, Y) = 0$

 

 - 상관계수

  -- $\rho = \frac{Cov(X, Y)}{\sqrt{Var(X)Var(Y)}}, -1\leq \rho \leq 1$

    -1이나 1 에 가까우면 방향성을 나타내면서 상관이 큼을 뜻하고, 0에 가까우면 상관이 별로 없는 것을 뜻함

  -- 공분산은 X, Y 단위의 크기에 영향을 받음

  -- 상관계수는 공분산을 단위화한 값