마르코프 연쇄(체인) 분석(Markov Chain Analysis)
확률론에서 마르코프 연쇄(Марков連鎖, Markov chain)는 이산 시간 확률 과정으로 시간에 따른 계의 상태의 변화를 나타낸다.
매 시간마다 상태계는 상태를 바꾸거나 같은 상태를 유지하며, 상태의 변화를 전이라 한다. 마르코프 성질은 과거와 현재 상태가 주어졌을 때의 미래 상태의 조건부 확률분포가 과거 상태와는 독립적으로 현재 상태에 의해서만 결정된다는 것을 뜻한다. |
⦁ 반복되는 상황에 대해 특정시스템의 변화나 발전과정을 연구하는데 유용한 분석기법으로 어떤 시스템의 미래 형태를 예측하기 위하여 그 시스템의 현재 상태를 분석하는 절차
- 예를 들어 특정회사의 시장점유율, 재고관리, 노무관리, 외상매출금관리 등은 시간에 따라 그 상태가 확률적으로 변화하는데 이러한 과정을 확률과정(stochastic process)이라고 하며 이러한 확률과정과 그 결과에 대해 파악하는 기법임.
즉 미래는 현재의 상태에 의해서만 결정되며 전 달이나 그 이전의 상황과는 무관한 특징을 마코브 특징이라고 하고 이러한 특성을 가지는 확률과정을 마코브 프로세스라 함.
- 마코브 프로세스는 시간의 흐름에 따라 한 상태에서 다른 상태로 확률적 흐름이 나타나는 과정 또는 시스템의 분석에 이용됨. 특히 마코브 과정에서 시간의 변화를 연속적으로 고려하지 않고 이산시간(discrete time), 이산상태(disceret state)의 확률과정만을 고려한 경우를 마코브 연쇄(Markov chain)라고 함.
⦁ 마르코프 결정 과정은 동적 계획법과 강화 학습 등의 방법으로 분석하는 넓은 범위의 최적화 문제에 유용한 도구로 활용되며 로봇 공학, 제어 자동화, 경제학, 제조업 등의 영역에서 폭넓게 사용되고 있음.
- 마르코프 결정과정(Markov Decision Process)은 의사결정 과정을 모델링하는 수학적인 틀을 제공하며 이 때 의사결정의 결과는 의사결정자의 결정에도 좌우되지만 어느 정도 임의적으로 주어진다.
· 확률과정의 진화 – 시간의 흐름에 따라 시스템의 상태변화 추정이 가능
· 경영 시스템의 미래형태 예측시 활용
∎ 마코브 프로세스의 특징
⦁ 시스템은 여러기간 동안 존재
⦁ 시스템은 유한한 상태를 가짐
⦁ 각 상태는 상호 배타적임.
⦁ 전이확률은 시간이 경과해도 일정함.
⦁ 특정기간의 상태는 전기의 상태와 확률에 의존함.
⦁ 마코브 분석은 현재의 시초상황에서 시작함.
(예제)
어느 도시가구의 제품 사용 현황 조사 결과, 전체가구의 80%가 제품 A를 사용하나 다음 표와 같은 확률에 의해 월별 제품 A의 사용이 변화함.
이번달 / 다음달
|
사용함
|
사용 안함
|
사용함
사용 안함
|
0.9
0.05
|
0.1
0.95
|
1) 상태전이도(state transition diagram)
s1 = A 제품 사용, s2 = A 제품 사용 안함
2) 전이확률 행렬(transition probability matrix) 또는 전이행렬(transition matrix)
3) 확률나무에 의한 2, 3달 후 점유율 예측
☞ 이번 달에 A 제품을 사용하던 가구가 두달 후에도 A 제품을 계속 사용할 확률 : 0.81 + 0.005 = 0.815,
A 제품을 사용하지 않게 될 확률 : 0.09 + 0.095 = 0.185
A 제품을사용하던 가구가 세달 후에도 A 제품을 계속 사용할 확률 : 0.729 + 0.0045 + 0.0045 + 0.00475 = 0.723,
A 제품을 사용하지 않게 될 확률 : 0.081 + 0.0855 + 0.0005 + 0.09025 = 0.257
시간이 경과될수록 A 제품을 사용할 확률이 0.815에서 0.723으로 감소함을 알 수 있음.
잡스9급 PDF 교재
✽ 책 구매 없이 PDF 제공 가능
✽ adipoman@gmail.com 문의
✽ 유튜브 강의