J'utilise le framework de bibliothèque AForge et son réseau de neurones. Au moment où je forme mon réseau, je crée beaucoup d'images (une image par lettre et par police) à une grande taille (30 pt), découpe la lettre actuelle, redimensionne celle-ci à une taille plus petite (10x10 px), puis enregistrez-le sur mon disque dur. Je peux alors aller lire toutes ces images, créant mes doubles [] tableaux avec des données. En ce moment, je le fais en pixels.OCR avec réseau de neurones: extraction de données
Donc, une fois que j'ai réussi à former mon réseau, je teste le réseau et le laisse fonctionner sur une image échantillon avec l'alphabet de différentes tailles (majuscules et minuscules).
Mais le résultat n'est pas vraiment prometteur. J'ai formé le réseau pour que RunEpoch ait une erreur d'environ 1,5 (donc presque pas d'erreur), mais il reste encore des lettres qui ne sont pas correctement identifiées dans mon image de test. Maintenant, ma question est: est-ce dû au fait que j'ai une méthode d'apprentissage défectueuse (basée sur les pixels par rapport à l'utilisation suggérée des récepteurs dans cet article: http://www.codeproject.com/KB/cs/neural_network_ocr.aspx - existe-t-il d'autres méthodes pour extraire les données? ou cela peut-il arriver parce que mon algorithme de segmentation pour extraire les lettres de l'image à regarder est mauvais?
Est-ce que quelqu'un a des idées sur la façon de l'améliorer?