2010-04-21 15 views
1

Voici un article, il s'agit d'estimer la perspective de l'image binaire contenant du texte et certains objets bruit ou non texte.HMM pour l'estimation de perspective dans l'image de document, ne peut pas comprendre l'algorithme

PDF document

L'algorithme utilise le modèle de Markov caché: en fait deux conditions T - texte B - backgrouond (à savoir le bruit)

Il est difficile de comprendre l'algorithme lui-même. La question est J'ai lu sur les modèles de Markov cachés et je sais qu'il utilise des probabilités qui doivent être connues. Mais dans cet algorithme je ne peux pas comprendre, s'ils utilisent HMM, comment obtiennent-ils ces probabilités (probabilité de changer l'état de S1 à un autre état par exemple S2)?

Je n'ai rien trouvé à propos de l'entraînement là aussi dans ce papier. Donc, si quelqu'un le comprend, dites-le moi s'il vous plaît. Est-il également possible d'utiliser HMM sans connaître les probabilités de changement d'état?

EDIT: Peut être qu'ils utilisent une estimation, sans connaître les paramètres de HMM (probabilités)

Répondre

2

Peut-être un peu trop académique, plus liée aux mathématiques appliquées que la programmation?

Quoi qu'il en soit: HMM sont traditionnellement formés (à savoir apprendre la valeur des paramètres du modèle, dans ce cas, les probabilités) en utilisant une base de données déjà classées données. Voir le Baum Welch algorithm. Cette division de deux phases: apprentissage (ou formation) d'abord (avec des données classées), classer (ou travail réel) après (avec des données non classées) est typique de nombreux algorithmes, et il est appelé classification supervisée. D'autre part, parfois nous n'avons pas de données (classifiées) "connues", nous devons donc recourir à classification non supervisée, dans laquelle nous essayons d'apprendre le modèle et de classifier en même temps. Ceci est beaucoup plus limité, et implique généralement de faire de nombreuses symplications et de réduire les paramètres du modèle (de sorte que nous n'avons pas beaucoup de choses à apprendre). À première vue, cela semble être le chemin emprunté dans cet article: ils ne considèrent pas un HMM complètement général, mais un très restreint, et essayent de trouver un bon ajustement pour le modèle. Mais, encore une fois, je n'ai pas lu sérieusement.