複数辞典一括検索+

n. 【統計】 マルコフ連鎖《時間も確率分布も離散的な場合のマルコフ過程 (Markov process)》.🔗🔉

n. 【統計】 マルコフ連鎖《時間も確率分布も離散的な場合のマルコフ過程 (Markov process)》.

《1942》: ⇒Markov🔗🔉

《1942》: ⇒Markov Mar・ko・vi・an /mkvin | mk-/

adj. マルコフ (Markov) 式の.🔗🔉

adj. マルコフ (Markov) 式の.

《1950》 ← MARKOV+-IAN🔗🔉

《1950》 ← MARKOV+-IAN Mrkov mdel

n. 【統計】 =Markov chain.🔗🔉

n. 【統計】 =Markov chain. Mrkov prcess

n. 【統計】 マルコフ過程《現在の状態が分かった時, 未来の挙動が過去の挙動と統計的に独立であるような確率過程; cf. Markov chain》.🔗🔉

n. 【統計】 マルコフ過程《現在の状態が分かった時, 未来の挙動が過去の挙動と統計的に独立であるような確率過程; cf. Markov chain》.

《1939》: ⇒Markov🔗🔉

《1939》: ⇒Markov Marks Spen・cer /mksn(d)spns, -s- | mksn(d)spns(r, -s-/

n. マークス アンド スペンサー《衣料品・家庭用品・食品などを売る英国のチェーン百貨店; Marks, Marks & Sparks ともいう; 略 M & S》.🔗🔉

n. マークス アンド スペンサー《衣料品・家庭用品・食品などを売る英国のチェーン百貨店; Marks, Marks & Sparks ともいう; 略 M & S》. mrk snse crd

研究社新英和大辞典 ページ 204062