Concept information
Terme préférentiel
chaîne de Markov
Définition
- En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de "mémoire"). Les processus de Markov portent le nom de leur inventeur, Andreï Markov. (Wikipedia, L'Encylopédie Libre, https://fr.wikipedia.org/wiki/Cha%C3%AEne_de_Markov)
Concept générique
Traductions
-
anglais
-
Markovian chain
URI
http://data.loterre.fr/ark:/67375/MDL-FHGMV6FX-D
{{label}}
{{#each values }} {{! loop through ConceptPropertyValue objects }}
{{#if prefLabel }}
{{/if}}
{{/each}}
{{#if notation }}{{ notation }} {{/if}}{{ prefLabel }}
{{#ifDifferentLabelLang lang }} ({{ lang }}){{/ifDifferentLabelLang}}
{{#if vocabName }}
{{ vocabName }}
{{/if}}