web-dev-qa-db-fra.com

Une chaîne de Markov est-elle identique à une machine à états finis?

Une machine à états finis n'est-elle qu'une implémentation d'une chaîne de Markov? Quelles sont les différences entre les deux?

70
Carson

Les chaînes de Markov peuvent être représentées par des machines à états finis. L'idée est qu'une chaîne de Markov décrit un processus dans lequel la transition vers un état au temps t + 1 ne dépend que de l'état au temps t. La principale chose à garder à l'esprit est que les transitions dans une chaîne de Markov sont probabilistes plutôt que déterministes, ce qui signifie que vous ne pouvez pas toujours dire avec une certitude parfaite ce qui se passera à l'instant t + 1.

Les articles Wikipedia sur Machines à états finis ont une sous-section sur Processus de chaîne de Markov finis , je vous recommande de lire cela pour plus d'informations. De plus, l'article Wikipedia sur Chaînes de Markov contient une courte phrase décrivant l'utilisation de machines à états finis pour représenter une chaîne de Markov. Cela dit:

Une machine à états finis peut être utilisée comme représentation d'une chaîne de Markov. En supposant une séquence de signaux d'entrée indépendants et distribués de manière identique (par exemple, des symboles d'un alphabet binaire choisi par tirage au sort), si la machine est dans l'état y à l'instant n, alors la probabilité qu'elle passe à l'état x à l'instant n + 1 dépend uniquement de l'état actuel.

56
James Thompson

Alors qu'une chaîne de Markov est une machine à états finis, elle se distingue par ses transitions stochastiques, c'est-à-dire aléatoires, et décrites par des probabilités.

26
Oliver Charlesworth

Les deux sont similaires, mais les autres explications ici sont légèrement fausses. Seules les chaînes FINITE Markov peuvent être représentées par un FSM. Les chaînes de Markov permettent un espace d'états infini. Comme il a été souligné, les transitions d'une chaîne de Markov sont décrites par des probabilités, mais il est également important de mentionner que les probabilités de transition ne peuvent dépendre que de l'état actuel. Sans cette restriction, il serait appelé "processus stochastique à temps discret".

19
Tim Seguine

Veuillez lire ces articles:

Liens entre les automates probabilistes et les modèles de Markov cachés (par Pierre Dupont) http://www.info.ucl.ac.be/~pdupont/pdupont/pdf/HMM_PA_pres_n4.pdf

[The Handbook of Brain Theory and Neural Networks] Hidden Markov Models and other Finite State Automata for Sequence Processing http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.85.3344&rep=rep1&type = pdf

6

Je pense que cela devrait répondre à votre question:

https://en.wikipedia.org/wiki/Probabilistic_automaton

Et vous êtes sur la bonne idée - ils sont presque les mêmes, sous-ensembles, sur-ensembles et modifications selon l'adjectif qui décrit la chaîne ou l'automate. Les automates prennent généralement également une entrée, mais je suis sûr qu'il y a eu des articles utilisant des "chaînes de Markov" avec des entrées.

Pensez distribution gaussienne vs distribution normale - mêmes idées dans différents domaines. Les automates appartiennent à l'informatique, Markov appartient aux probabilités et aux statistiques.

2
Michael Tamillow

Je pense que la plupart des réponses ne sont pas appropriées. Un processus de Markov est généré par une machine à états finis (probabiliste), mais tous les processus générés par une machine à états finis probablistes ne sont pas un processus de Markov. Par exemple. Les processus de Markov cachés sont fondamentalement les mêmes que les processus générés par les machines à états finis probabilistes, mais tous les processus de Markov cachés ne sont pas des processus de Markov.

0
Radons

Si vous laissez de côté les détails de travail internes, la machine à états finis est comme une valeur simple, tandis que la chaîne de Markov est comme une variable aléatoire (ajoutez la probabilité au-dessus de la valeur simple). La réponse à la question d'origine est donc non, ce n'est pas la même chose. Au sens probabiliste, la chaîne de Markov est une extension de la machine à états finis.

0
liang