[Apresentação de Defesa] Análise comparativa entre os métodos HMM e GMM-UBM na busca pelo...
-
Upload
ramon-mayor-martins -
Category
Engineering
-
view
72 -
download
1
description
Transcript of [Apresentação de Defesa] Análise comparativa entre os métodos HMM e GMM-UBM na busca pelo...
Análise comparativa entre os métodos
HMM e GMM-UBM na busca pelo α-
ótimo dos locutores crianças para
utilização da técnica VTLN
Aluno: Ramon Mayor Martins
Prof. Orientador: Dr. Carlos Alberto Ynoguti
Mestrado em Telecomunicações
09 de Outubro de 20141
Agenda
I. Contextualização
II. Normalização do Locutor: VTLN
III. Processo de Busca do α-ótimo utilizando HMM e GMM-UBM
IV. Reconhecimento do Sistema Normalizado
V. Resultados Experimentais
VI. Conclusões
VII. Trabalhos Futuros
VIII. Artigos Publicados
2
Agenda
I. Contextualização
II. Normalização do Locutor: VTLN
III. Processo de Busca do α-ótimo utilizando HMM e GMM-UBM
IV. Reconhecimento do Sistema Normalizado
V. Resultados Experimentais
VI. Conclusões
VII. Trabalhos Futuros
VIII. Artigos Publicados
3
I. Contextualização
Nos últimos anos progressos significativos no desenvolvimento de Sistemas de
Reconhecimento de Fala (SRF).
A maior parte das pesquisas devotada a sistemas para locutores adultos.
Fraco desempenho dos SRF para usuários crianças.
Recentemente, grande atenção foi dada aos SRF para crianças em diversas
aplicações, por exemplo:
4
I. Contextualização
SRF crianças
Brinquedos Sites Educacionais Tecnologias Assistivas
Aplicativos para Celulares Tecnologias Contemporâneas
5
Entretenimento
I. Contextualização
Desafio: Aumentar o desempenho dos SRF para crianças aos mesmos níveis que para
os adultos.
Dificuldades: Variabilidades na fala entre locutores crianças e adultos.
Variabilidade: Comprimento do trato vocal (VTL).
6
19 cm14,5 cm
12 cm
Agenda
I. Contextualização
II. Normalização do Locutor: VTLN
III. Processo de Busca do α-ótimo utilizando HMM e GMM-UBM
IV. Reconhecimento do Sistema Normalizado
V. Resultados Experimentais
VI. Conclusões
VII. Trabalhos Futuros
VIII. Artigos Publicados
7
Função: Mitigar as variabilidades do comprimento do trato vocal.
Técnica: Normalização de Comprimento do Trato Vocal (VTLN).
Investigações: SRF treinado com locutores adultos e utilizado para reconhecer fala
infantil, VTLN é capaz de melhorar o desempenho do reconhecimento.
8
Funcionamento: Todos os locutores analisados são normalizados em relação a um
locutor médio (ou seja, para o SRF os locutores parecerão ter a mesma voz).
Processo: Transformação dos parâmetros acústicos da fala através de escalonamento
do banco de filtros.
II. Normalização de Locutor: VTLN (Vocal Tract Length Normalization)
Escalonamento do banco de filtros:
Obtido a partir do escalonamento das frequências centrais do banco de filtros realizado
por um fator de escalonamento (α).
O novo banco de filtros é obtido através da equação:
9
II. Normalização de Locutor: VTLN (Vocal Tract Length Normalization)
Escalonamento do banco de filtros:
10
As frequências no banco de filtro serão comprimidas se () ou serão
expandidas se () .
II. Normalização de Locutor: VTLN (Vocal Tract Length Normalization)
Fator de escalonamento ótimo (ótimo)
O ótimo será aquele que maximiza a probabilidade de um conjunto de características
acústicas de um determinado locutor em relação a um modelo acústico de referência.
11
II. Normalização de Locutor: VTLN (Vocal Tract Length Normalization)
O fator ótimo é obtido pela busca entre uma faixa de fatores de escalonamento.
α é representado pela razão entre o VTL do locutor sendo analisado e o VTL utilizado
como referência.
Faixa: SRF treinado com locutores adultos e testado com crianças: = 0.70 (da razão
12/17) até = 1.12 (da razão 19/17).
Busca com passo de 0,02.
22 fatores.
Utilizados os métodos estatísticos HMM e GMM-UBM.
12
II. Normalização de Locutor: VTLN (Vocal Tract Length Normalization)
Agenda
I. Contextualização
II. Normalização do Locutor: VTLN
III. Processo de Busca do α-ótimo utilizando HMM e GMM-UBM
IV. Reconhecimento do Sistema Normalizado
V. Resultados Experimentais
VI. Conclusões
VII. Trabalhos Futuros
VIII. Artigos Publicados
13
HMM – Hidden Markov Model (Modelo Oculto de Markov).
Máquina de estados finitos conectados.
A cada transição A = (𝑎𝑖𝑗) ocorre a emissão de um símbolo, com uma probabilidade B =
(𝑏𝑖(𝑂𝑡) ) formando uma sequência de símbolos observáveis.
Modela variabilidades temporais e espectrais.
Notação para caracterizar o modelo HMM. (Sendo π – o estado inicial).
Método Estatístico : HMM
14
Estrutura de um HMM left-right de 5 estados.
III. Processo de busca utilizando HMM e GMM-UBM
GMM – Gaussian Mixture Models (Modelo de Mistura Gaussiana).
Modela qualquer tipo de distribuição de dados, alterando seus parâmetros de mistura.
Ex: vetores acústicos extraídos de um sinal de voz de um locutor.
o GMM modela somente as variabilidades espectrais.
Utiliza-se a notação para caracterizar o modelo GMM.
15Exemplo de 4 gaussianas na mistura (GMM)
Método Estatístico : GMM-UBM
III. Processo de busca utilizando HMM e GMM-UBM
III. Processo de busca utilizando HMM
16
III. Processo de busca utilizando GMM-UBM
1717
1-Distribuição dos valores dos Fatores de Escalonamento Ótimo
Conjunto de teste crianças:
18
Avaliação dos Processos
III. Processo de busca utilizando HMM e GMM-UBM
2- Análise da curva de máxima verossimilhança por fator de escalonamento.
Locutor criança “bg” do conjunto de teste:
Utilizando o método de busca
HMM
Utilizando o método de busca
GMM-UBM
19
Avaliação dos Processos
III. Processo de busca utilizando HMM e GMM-UBM
2- Análise da curva de máxima verossimilhança por fator de escalonamento.
Locutor criança “bg” do conjunto de teste:
Utilizando o método de busca
HMM
Utilizando o método de busca
GMM-UBM
20
Avaliação dos Processos
III. Processo de busca utilizando HMM e GMM-UBM
2- Análise da curva de máxima verossimilhança por fator de escalonamento.
Locutor criança “bg” do conjunto de teste:
Utilizando o método de busca
HMM
Utilizando o método de busca
GMM-UBM
21
Avaliação dos Processos
III. Processo de busca utilizando HMM e GMM-UBM
Agenda
I. Contextualização
II. Normalização do Locutor: VTLN
III. Processo de Busca do α-ótimo utilizando HMM e GMM-UBM
IV. Reconhecimento do Sistema Normalizado
V. Resultados Experimentais
VI. Conclusões
VII. Trabalhos Futuros
VIII. Artigos Publicados
22
IV. Reconhecimento do Sistema
23
Pre-ênfase
|FFT|²Banco de
FiltroLog DCT
HCopy
MFCC Treino
MFCCSinal de
Voz
MFCC Teste
Reconhecedor - HMM λ
Treinamento
Teste
WER%
Extração de Parâmetros Acústicos
Janela
IV. Reconhecimento do Sistema
24
Pre-ênfase
|FFT|²Banco de
FiltroLog DCT
HCopy
MFCC Treino
MFCCSinal de
Voz
MFCC Teste
Reconhecedor - HMM λ
Treinamento
Teste
WER%
Extração de Parâmetros Acústicos
Extração de Parâmetros: Pré-Enfase: (1-0,97𝑧−1)
Janela: Hamming. Com duração de 25ms e um atraso de 10 ms para o início da próxima janela.
Coeficientes: 39 MFCC (para cada locução proferida por cada locutor)
Banco de filtros: 24 filtros triangulares passa-faixa
Janela
IV. Reconhecimento do Sistema
25
Pre-ênfase
|FFT|²Banco de
FiltroLog DCT
HCopy
MFCC Treino
MFCCSinal de
Voz
MFCC Teste
Reconhecedor - HMM λ
Treinamento
Teste
WER%
Extração de Parâmetros Acústicos
Base de Dados: TIDIGITS – Texas Instruments Inglês-americano Dígitos conectados 325 locutores (111 homens, 114
mulheres, 50 meninos e 50 meninas).
77 locuções
Janela
IV. Reconhecimento do Sistema
26
Pre-ênfase
|FFT|²Banco de
FiltroLog DCT
HCopy
MFCC Treino
MFCCSinal de
Voz
MFCC Teste
Reconhecedor - HMM λ
Treinamento
Teste
WER%
Extração de Parâmetros Acústicos
Topologia do modelo HMM: 5 estados, do tipo “left-right”
utilizando trifones.
Janela
IV. Reconhecimento do Sistema
27
Pre-ênfase
|FFT|²Banco de
FiltroLog DCT
HCopy
MFCC Treino
MFCCSinal de
Voz
MFCC Teste
Reconhecedor - HMM λ
Treinamento
Teste
WER%
Extração de Parâmetros Acústicos
Treinamento: 55 locutores femininos e 57
locutores masculinos (112 locutores no total).
Algoritmo Baum-Welch para reestimações.(HERest)
Gaussianas na Mistura: 1, 2, 4, 8, 16, 32, 64, 128.
Janela
IV. Reconhecimento do Sistema
28
Pre-ênfase
|FFT|²Banco de
FiltroLog DCT
HCopy
MFCC Treino
MFCCSinal de
Voz
MFCC Teste
Reconhecedor - HMM λ
Treinamento
Teste
WER%
Extração de Parâmetros Acústicos
Teste: 25 locutores meninos e 25
locutores meninas (50 no total)normalizados com os fatoresótimos encontrados pelosmétodos HMM e GMM-UBM paracada locutor
Algoritmo de Viterbi (HVite)
Obtenção da taxa de erro de palavra (WER%)
Janela
Agenda
I. Contextualização
II. Normalização do Locutor: VTLN
III. Processo de Busca do α-ótimo utilizando HMM e GMM-UBM
IV. Reconhecimento do Sistema Normalizado
V. Resultados Experimentais
VI. Conclusões
VII. Trabalhos Futuros
VIII. Artigos Publicados
29
V. Resultados Experimentais
Cenário: Reconhecimento de Fala treinado por locutores adultos e utilizado com
crianças.
Objetivo: Medir a melhoria que a técnica VTLN pode fornecer ao sistema.
Experimentos: Foram realizados três conjuntos de experimentos:
Treinamento com locutores adultos e teste com crianças normalizadas (A-C)
Treinamento com locutores masculinos e teste com crianças normalizadas (M-C)
Treinamento com locutores femininos e teste com crianças normalizadas (F-C)
30
V. Resultados Experimentais
Mistura ótima (Ponto de mínimo):
64 Gaussianas na mistura.
Possível Razão - Por ser maior a
variabilidade entre adultos.
Taxa de Erro de Palavra (WER%):
HMM - no ponto de mínimo WER
de 1,88% uma redução de 3,07%
em relação à baseline.
GMM-UBM - no ponto de mínimo
WER de 1,92%, uma redução de
3,03% em relação a baseline.
Sistema treinado com locutores Adultos e testado com Crianças:
31
Gaussianas na Mistura
Sistema treinado com Locutores Masculinos e testado com Crianças:
Mistura ótima (Ponto de mínimo):
4 Gaussianas na mistura.
Possível Razão – A variabilidade
é menor entre locutores
masculinos.
Taxa de Erro de Palavra (WER%):
HMM - no ponto de mínimo WER
28,39% uma redução de 6,83%
em relação à baseline.
GMM-UBM - no ponto de mínimo
WER de 29,75%, uma redução
de 5,47% em relação a baseline.
Mesmo com o VTLN, a WER
continuou alta.
32
V. Resultados Experimentais
Gaussianas na Mistura
Sistema treinado com Locutores Femininos e testado com Crianças:
Mistura ótima (Ponto de mínimo):
32 Gaussianas na mistura.
Possível Razão – Há
variabilidades entre os locutores
femininos, por exemplo, alguns
locutores femininos podem ter
voz mais grave e outros mais
agudos.
Taxa de Erro de Palavra (WER%):
HMM - no ponto de mínimo WER
1,47% uma redução de 2,4% em
relação à baseline.
GMM-UBM - no ponto de mínimo
WER de 1,58%, uma redução de
2,29% em relação a baseline.
33
V. Resultados Experimentais
Gaussianas na Mistura
Agenda
I. Contextualização
II. Normalização do Locutor: VTLN
III. Processo de Busca do α-ótimo utilizando HMM e GMM-UBM
IV. Reconhecimento do Sistema Normalizado
V. Resultados Experimentais
VI. Conclusões
VII. Trabalhos Futuros
VIII. Artigos Publicados
34
Comparação entre os métodos HMM e GMM-UBM
Desempenho:
Nos experimentos, conforme observado nos Resultados, o desempenho entre os
sistemas foi similar.
35
VI. Conclusões
Desempenho:
Nos experimentos, conforme observado nos Resultados, o desempenho entre os
sistemas foi similar.
Complexidade de Implementação:
HMM:
• Requer uma topologia baseada em estados;
• Os estados necessitam de uma probabilidade de transição e permanência, atualizados
durante o treinamento;
• Quanto maior a locução, mais complexo será o modelamento do sistema;
• Necessidade de transcrição fonética.
GMM-UBM
• Utiliza somente um estado, que corresponde a palavra inteira;
• Não utiliza transcrições fonéticas.
• Mais simples!
36
Comparação entre os métodos HMM e GMM-UBM
VI. Conclusões
37
Custo Computacional:
Tempo de Processamento
• Busca pelo α-ótimo:
HMM – 2 minutos por locutorGMM – 1 minuto e meio por locutor
• Processamento dos modelos pré-treinados:
Comparação entre os métodos HMM e GMM-UBM
VI. Conclusões
38
Custo Computacional:
Utilização dos Recursos de Memória*
*utilizado o SensorsScreenlet v0.1 Linux Ubuntu 9.04
Comparação entre os métodos HMM e GMM-UBM
VI. Conclusões
Foi apresentada uma forma alternativa, mais simples, de menor custo
computacional e de memória, com desempenho similar, para o cálculo dos α-
ótimos, para a utilização da técnica VTLN.
A taxa de acertos subiu para 70,25% no caso de um sistema treinado com
locutores adultos e testado com locutores crianças.
HMM GMM-UBM
Desempenho (WER%)
Complexidade de Implementação
Custo Computacional(Tempo de
Processamento)
Custo Computacional(Utilização dos Recursos
de Memória)
39
VI. Conclusões
Agenda
I. Contextualização
II. Normalização do Locutor: VTLN
III. Processo de Busca do α-ótimo utilizando HMM e GMM-UBM
IV. Reconhecimento do Sistema Normalizado
V. Resultados Experimentais
VI. Conclusões
VII. Trabalhos Futuros
VIII. Artigos Publicados
40
Como sugestão de futuras investigações sugerem-se:
No processo de extração de características acústicas, utilização de janelas
mais curtas, pois, segundo [1], deve-se proporcionar uma melhor adaptação à
fala de crianças que têm tom mais alto, (por exemplo 15 ms).
Realizar uma análise comparativa dos métodos HMM e GMM-UBM para
modelos acústicos dependentes de idades, pois, segundo [2], há uma forte
relação entre o fator ótimo de escalonamento e a idade dos locutores
crianças.
41
[1] TEIXEIRA, A. D. C. Deteção e Correção de Disfluências em Crianças. Dissertação de Mestrado Faculdade de Ciência e
Tecnologia. Coimbra. Portugal.
[2] GEROSA, M., GIULIANI, D., NARAYANAN, S. and POTAMIANOS, A., "A Review of ASR Technologies for Children’s",
WOCCI'09 - Proceedings of the 2nd Workshop on Child, Computer and Interaction, pp. 3-6, Nov. 2009.
VII. Trabalhos Futuros
Agenda
I. Contextualização
II. Normalização do Locutor: VTLN
III. Processo de Busca do α-ótimo utilizando HMM e GMM-UBM
IV. Reconhecimento do Sistema Normalizado
V. Resultados Experimentais
VI. Conclusões
VII. Trabalhos Futuros
VIII. Artigos Publicados
42
YNOGUTI, C. A. e MARTINS, R. M. , “GMM as an alternative to HMM in the
search for the optimal warping factor for VTLN”, ITS 2014 - International
Telecommunications Symposium, São Paulo – SP.
YNOGUTI, C. A. e MARTINS, R. M. , “Normalização do locutor em
Sistemas de Reconhecimento de Fala para usuários crianças”, IHC 2014 -
XIII Simpósio Brasileiro Sobre Fatores Humanos em Sistemas
Computacionais, Paraná – PR.
VIII. Artigos Publicados
43
Obrigado !!!
www.odinasr.blogspot.com
Mestrado em Telecomunicações
09 de Outubro de 2014
44