Passer au contenu principal

Medical Subject Headings (thesaurus)

Choisissez le vocabulaire dans lequel chercher

Concept information

Terme préférentiel

Markov Chains  

Type

  • mesh:Descriptor

Définition

  • A stochastic process such that the conditional probability distribution for a state at any future instant, given the present state, is unaffected by any additional knowledge of the past history of the system.

Synonyme(s)

  • Markov Chain
  • Markov Process

Traductions

  • français

  • Chaines de Markoff
  • Chaînes de Markoff
  • Chaînes de Markov
  • Chaines markoviennes
  • Processus de Markoff
  • Processus de Markov
  • Processus markovien
  • Processus markoviens

URI

http://data.loterre.fr/ark:/67375/JVR-CPTQQS1R-1

Télécharger ce concept :

RDF/XML TURTLE JSON-LD Date de création 01/01/1999, dernière modification le 08/07/2008