Modele de markov cachés

Dans ce tutoriel, nous allons commencer par examiner les modèles Markov (alias chaînes de Markov) et puis… on les cachera! Cela simule un phénomène très commun… Il existe un système dynamique sous-jacent fonctionnant selon une dynamique simple et incertaine, mais nous ne pouvons pas le voir. Tout ce que nous pouvons voir sont des signaux bruyants provenant du système sous-jacent. De ces observations bruyantes, nous voulons faire des choses comme prédire l`état du système sous-jacent le plus probable, ou l`histoire du temps des États, ou la probabilité de la prochaine observation. Cela a des applications dans le diagnostic de pannes, la localisation des robots, la biologie computationnelle, la compréhension vocale et bien d`autres domaines. Dans le tutoriel, nous décrirons comment jouer avec plaisir avec la plupart des mathématiques inoffensifs entourant HMMs et comment utiliser un cœur de réchauffement, et simple à mettre en œuvre, l`approche appelée programmation dynamique (DP) pour faire efficacement la plupart des calculs HMM vous pourriez jamais envie de faire. Ces opérations comprennent l`estimation de l`État, l`estimation du chemin le plus probable des États sous-jacents, et une finale grand (et EM-remplie), l`apprentissage des HMMs à partir de données. Le diagramme ci-dessous montre l`architecture générale d`un HMM instancié. Chaque forme ovale représente une variable aléatoire qui peut adopter n`importe quel nombre de valeurs. La variable aléatoire x (t) est l`état masqué au moment t (avec le modèle du diagramme ci-dessus, x (t) p {x1, x2, x3}).

La variable aléatoire y (t) est l`observation au temps t (avec y (t) p {Y1, Y2, Y4}). Les flèches du diagramme (souvent appelées diagramme de treillis) désignent des dépendances conditionnelles. Une autre extension récente est le modèle de Markov triplet [41], dans lequel un processus sous-jacent auxiliaire est ajouté pour modéliser certaines spécificités des données. De nombreuses variantes de ce modèle ont été proposées. Il convient également de mentionner le lien intéressant qui a été établi entre la théorie de la preuve et les modèles de Markov triplet [11] et qui permet de fusionner les données dans le contexte markovien [12] et de modéliser des données non stationnaires. 13 [14] il est à noter que d`autres stratégies de fusion de données multiflux ont également été proposées dans la littérature récente, par exemple [42] les OBSERVATIONS sont des données connues et se réfèrent à «Walk», «Shop» et «Clean» dans le diagramme ci-dessus. Dans le sens de machine learning, l`observation est nos données d`entraînement, et le nombre d`États cachés est notre hyper paramètre pour notre modèle. L`évaluation du modèle sera examinée ultérieurement. Une autre variante est le modèle de Markov caché factoriel, qui permet à une seule observation d`être conditionné sur les variables cachées correspondantes d`un ensemble de K {displaystyle K} chaînes de Markov indépendantes, plutôt que d`une seule chaîne de Markov. Il est équivalent à un seul HMM, avec N K {displaystyle N ^ {K}} États (en supposant qu`il y a N {displaystyle N} États pour chaque chaîne), et donc, l`apprentissage dans un tel modèle est difficile: pour une séquence de longueur T {displaystyle T}, un simple l`algorithme a une complexité O (N 2 K T) {displaystyle O (N ^ {2K} , T)}. Pour trouver une solution exacte, un algorithme d`arborescence de jonction peut être utilisé, mais il se traduit par une complexité O (N K + 1 K T) {displaystyle O (N ^ {K + 1} , K , T)}.

Dans la pratique, des techniques approximatives, telles que des approches variationnelles, pourraient être utilisées. [40] plusieurs problèmes d`inférence sont associés aux modèles cachés de Markov, comme indiqué ci-dessous. Dans sa forme discrète, un processus de Markov caché peut être visualisé comme une généralisation du problème URN avec le remplacement (où chaque élément de l`urne est retourné à l`urne d`origine avant l`étape suivante). [15] considérez cet exemple: dans une pièce qui n`est pas visible à un observateur il y a un génie. La chambre contient des urnes x1, x2, x3,… chacun contient un mélange connu de boules, chaque boule étiquetée Y1, Y2,…. Le génie choisit une urne dans cette pièce et dessine au hasard une balle de cette urne.