| 释义 |
Markovian [mɑ:'kəuviən] adj.【统计学】 马尔可夫链的,马尔可夫过程的,无后效过程的 以上来源于:《21世纪大英汉词典》 英英释义adj.relating to or generated by a Markov process英汉大英汉大★◀▶马尔可夫过程Markovian Markov process 无后效过程Markovian Markov process Markoviana.(形容詞 adjective)【數】馬爾可夫過程[鏈]的document.write(' |