Un outil informatique de gestion de Modèles de Markov Cachés : expérimentations en Reconnaissance Automatique de la Parole

  1. Glossaire
  2. Introduction
  3. Chapitre I : Reconnaissance automatique de la parole
    1. I . 1 . Principaux outils et méthodes utilisés en R.A.P 
      1. I . 1 . 1 . La paramétrisation du signal
        1. A) A partir du modèle de perception
        2. B) Les méthodes non paramétriques
        3. C) Les méthodes paramétriques
        4. D) Les Coefficients Cepstraux
      2. I . 1 . 2 . Méthodes
        1. A) Méthodes à base de connaissances
        2. B) Méthodes auto-organisatrices
          1. A) LA COMPARAISON DYNAMIQUE
          2. B) LES MODèLES DE MARKOV CACHéS
            1. A) Modèle théorique
            2. B) Utilisation des MMC en RAP
            3. C) Phase de reconnaissance
            4. D) Apprentissage d'un MMC
          3. C) LES RéSEAUX DE NEURONES
            1. A) Fonctionnement d'un neurone
            2. B) Fonctionnement d'un réseau de neurones à plusieurs niveaux
            3. C) Apprentissage d'un réseau de neurones
            4. D) Phase de reconnaissance
      3. I . 2 . 3 . Conclusion
    2. I . 2 . Reconnaissance pour de grands vocabulaires 
    3. I . 3 . Les modèles de langage 
    4. I . 4 . Description de quelques systèmes de RAP 
      1. I . 4 . 1 . Modules de décodage acoustico-phonétique (DAP)
      2. I . 4 . 2 . Reconnaissance de mots isolés
      3. I . 4 . 3 . Reconnaissance de mots connectés
      4. I . 4 . 4 . Reconnaissance de parole continue
    5. I . 5 . Extension des Modèles de Markov Cachés 
      1. I . 5 . 1 . Traitement segmental
      2. I . 5 . 2 . Modélisation de la durée
      3. I . 5 . 3 . Modèles hybrides 
      4. I . 5 . 4 . Modèles de fusion 
    6. I . 6 . Cadre de l'étude 
  4. Chapitre II : L'outil informatique
    1. II . 1 . Introduction
    2. II . 2 . Les réseaux élémentaires
    3. II . 3 . Gestion de réseaux
      1. II . 3 . 1 . Gestion de réseaux "locaux"
      2. II . 3 . 2 . Gestion de réseaux "externes"
    4. II . 4 . Interprétation de règles phonologiques
        1. A) Les Clusters
        2. B) Les Coarticulations
    5. II . 5 . Particularités des réseaux générés
      1. II . 5 . 1 . Multi-niveaux
      2. II . 5 . 2 . Construction d'un niveau en arbre
      3. II . 5 . 3 . Construction d'ensembles d'états
      4. II . 5 . 4 . Initialisation des lois de probabilités
      5. II . 5 . 5 . Optimisation du réseau
    6. II . 6 . Multi-Gaussiennes
    7. II . 7 . Multi-Modèles
    8. II . 8 . Les algorithmes
      1. II . 8 . 1 . L'algorithme de Viterbi
      2. II . 8 . 2 L'apprentissage
      3. II . 8 . 3 . La reconnaissance
        1. A) Reconnaissance classique
        2. B) Reconnaissance ensembliste
    9. II . 9 . Conclusion sur le compilateur
  5. Chapitre III : Applications
    1. Chapitre III - Section A : Filtrage lexical
      1. III_A . 1 . Présentation générale du système
      2. III_A . 2 . Description du pré-traitement acoustique 
        1. III_A . 2 . 1 . La segmentation
          1. A) DESCRIPTION DE LA MéTHODE DE DIVERGENCE
          2. B) LE TEST DE DIVERGENCE
          3. C) LA MéTHODE FORWARD-BACKWARD
        2. III_A . 2 . 2 . Extraction des paramètres
      3. III_A . 3 . Filtrage lexical
        1. III_A . 3 . 1 . Description du lexique
          1. A ) LE LEXIQUE BDLEX
          2. B ) DéFINITION DES CLASSES MAJEURES
        2. III_A . 3 . 2 . Sélection d'un sous-dictionnaire
      4. III_A . 4 . Description de la phase de reconnaissance fine 
        1. III_A . 4 . 1 . Description des pseudo-diphones
        2. III_A . 4 . 2 . Reconnaissance d'un mot
      5. III_A . 5 . Expérimentations
        1. III_A . 5 . 1 Application
        2. III_A . 5 . 2 Conditions d'expérimentations
        3. III_A . 5 . 3 Résultats
          1. A) EXPéRIMENTATIONS SUR LES CLASSES MAJEURES
            1. 1 ) Expérimentation sur 50 mots
            2. 2 ) Expérimentation sur 500 mots
          2. B) EXPéRIMENTATIONS SUR LES PSEUDO-DIPHONES
      6. III_A . 6 . Conclusion sur le filtrage lexical
    2. Chapitre III - Section B : Modèle Maître - Esclave
      1. III_B . 1 . Introduction
      2. III_B . 2 . Principe du modèle théorique
      3. III_B . 3 . Modèle équivalent
        1. * Hypothèses simplificatrices
        2. * Mise en oeuvre
      4. III_B . 4 . Expérimentations
        1. * Pré-traitement des données
        2. * Données
        3. * Résultats
          1. A] RéSULTATS EN MILIEU NON BRUITé
            1. a) Résultats sur le corpus des chiffres
            2. b) Résultats sur le corpus des lettres
            3. c) Résultats d'une reconnaissance sans connaissance du nombre de lettres
          2. B] RéSULTATS EN MILIEU BRUITé à 15 DB
            1. a) Reconnaissance en milieu bruité avec le modèle Global
            2. b) Reconnaissance en milieu bruité avec le modèle Maître-Esclave
      5. III_B . 5 . Conclusion sur le modèle Maître-Esclave
    3. Chapitre III - Section C : Evaluation d'un module de décodage acoustico-phonétique
      1. III_C . 1 . Décodage acoustico-phonétique et alignement automatique.
        1. * Le système de D.A.P. :
        2. * L'alignement phonétique:
      2. III_C . 2 . Apprentissage des modèles acoustiques et construction de la phrase markovienne
      3. III_C . 3 . Résultats :
    4. Chapitre III - Section D : Post - Traitement en reconnaissance automatique de parole
      1. III_D . 1 . Principe
      2. III_D . 2 . Extraction des MMC segmentaux :
      3. III_D . 3 . Expérimentations :
        1. * Données :
        2. * Expérimentations :
  6. Chapitre IV : Conclusion et Perspectives
    1. IV . 1 . Conclusion
    2. IV . 2 . Perspectives
      1. IV . 2 . 1 . Modèles parallèles :
      2. IV . 2 . 2 . Algorithmes pour réseaux multi-niveaux compilés :
      3. IV . 2 . 3. Algorithmes pour réseaux multi-niveaux non compilés :
      4. IV . 2 . 4 . Cohérence de l'ensemble des outils.
  7. Références
  8. Annexe : exemple de modélisation