Concept information
Terme préférentiel
matrice stochastique
Définition
-
En mathématiques, une matrice stochastique (aussi appelée matrice de Markov) est une matrice carrée (finie ou infinie) dont chaque élément est un réel positif et dont la somme des éléments de chaque ligne vaut 1. Cela correspond, en théorie des probabilités, à la matrice de transition d'une chaîne de Markov.
(Wikipedia, L'Encylopédie Libre, https://fr.wikipedia.org/wiki/Matrice_stochastique)
Concept générique
Synonyme(s)
- matrice de Markov
Traductions
-
anglais
-
Markov matrix
-
probability matrix
-
substitution matrix
URI
http://data.loterre.fr/ark:/67375/PSR-QLX55BKX-N
{{label}}
{{#each values }} {{! loop through ConceptPropertyValue objects }}
{{#if prefLabel }}
{{/if}}
{{/each}}
{{#if notation }}{{ notation }} {{/if}}{{ prefLabel }}
{{#ifDifferentLabelLang lang }} ({{ lang }}){{/ifDifferentLabelLang}}
{{#if vocabName }}
{{ vocabName }}
{{/if}}