Concept information
Terme préférentiel
processus de Markov
Définition
- En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov. Dans un tel processus, la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information concernant le passé. Les processus de Markov portent le nom de leur inventeur, Andreï Markov. (Wikipedia, L'Encylopédie Libre, https://fr.wikipedia.org/wiki/Processus_de_Markov)
Concept générique
Concepts spécifiques
Traductions
-
anglais
-
Markovian process
URI
http://data.loterre.fr/ark:/67375/MDL-J0H8K2PF-P
{{label}}
{{#each values }} {{! loop through ConceptPropertyValue objects }}
{{#if prefLabel }}
{{/if}}
{{/each}}
{{#if notation }}{{ notation }} {{/if}}{{ prefLabel }}
{{#ifDifferentLabelLang lang }} ({{ lang }}){{/ifDifferentLabelLang}}
{{#if vocabName }}
{{ vocabName }}
{{/if}}