마르코프 확률 과정From Wikipedia, the free encyclopedia 확률론에서 마르코프 확률 과정(Марков確率過程, 영어: Markov stochastic process)는 현재에 대한 조건부로 과거와 미래가 서로 독립인 확률 과정이다. 즉, 마르코프 확률 과정은 ‘기억하지 않는’ 확률 과정이다. 마르코프 확률 과정에서 미래를 유추하려 한다면, 오직 현재의 값만이 쓸모가 있으며, 과거의 값들은 아무 추가 정보를 제공하지 못한다.
확률론에서 마르코프 확률 과정(Марков確率過程, 영어: Markov stochastic process)는 현재에 대한 조건부로 과거와 미래가 서로 독립인 확률 과정이다. 즉, 마르코프 확률 과정은 ‘기억하지 않는’ 확률 과정이다. 마르코프 확률 과정에서 미래를 유추하려 한다면, 오직 현재의 값만이 쓸모가 있으며, 과거의 값들은 아무 추가 정보를 제공하지 못한다.