Академический Документы
Профессиональный Документы
Культура Документы
DO CEAR
PR-REITORIA DE ENSINO
COORDENADORIA DE TELEMTICA DO CAMPUS MARACANA
BACHARELADO EM CINCIA DA COMPUTAO
MARACANA
2014
Aprendizagem de
Mquina
Orientador:
Jnior
Fortaleza
2014
A Deus, que nos criou e foi criativo nesta tarefa. Seu flego de vida em mim me
foi sustento e me deu coragem para questionar realidades e propor sempre um novo
mundo de possibilidades.
Agradecimentos
Primeiramente, agradeo a Deus pela fora e coragem durante toda esta longa
caminhada.
Agradeo a minha namorada, Renata Lira, por toda a pacincia, compreenso
e ajuda durante o desenvolvimento deste trabalho e todo o amor, carinho,
companheirismo e ateno que me ajudaram durante a faculdade.
Agradeo aos meus amigos Kau Menezes, Fausto Sampaio, Arlesson Lima,
Leonildo Ferreira, Joyce Saraiva e Neyllany Andrade, por todos os momentos
compartilhados.
Agradeo ao professor Amauri Holanda, pela orientao, apoio e pacincia durante
o desenvolvimento deste trabalho.
Finalmente, agradeo a todos os professores do curso de Cincia da Computao
do Instituto Federal do Cear, pela boa formao profissional.
Resumo
Os aparelhos modernos, tais como smartphones e tablets, so mais que simples
dispositivos de comunicao com uma conexo Internet. Eles fornecem uma gama
de recursos como microfones, cmeras, acelermetros e medidores de luminosidade.
Muitos desses recursos utilizam informaes captadas por sensores acoplados que
podem ser utilizados pelos mais diferentes tipos de aplicaes. Reconhecimento de
atividade uma tecnologia importante, pois pode ser aplicada a diversos problemas
reais, tais como cuidados a sade de idosos. O xito da investigao tem centrado
no reconhecimento de atividades humanas simples. Identificar atividades complexas
continua sendo uma rea desafiadora e ativa de pesquisa. Neste trabalho analisamos
o uso de um mtodo recentemente proposto, a Mquina de Aprendizagem Mnima
(Minimal Learning Machine, MLM), alm de trs outros conhecidos na literatura,
MLM, RBF e ELM, para deteco de atividades humanas. Os hiperparmetros de
cada mtodo foram selecionados atravs da validao cruzada. Os dados para os
experimentos foram adquiridos do giroscpio e acelermetro, sensores presentes em
smartphones. O MLM teve a melhor taxa de acerto entre os mtodos testados.
Abstract
Modern appliances, such as smartphones and tablets, are more than simple
communication devices with an Internet connection. They provide a range of resources
such as microphones, cameras, accelerometers, and light meters. Many of these
features use information gathered by a combined sensor that can be used by many
different types of applications. Activity recognition is an important technology because
it can be applied to many real problems such as health care for the elderly. The
success of the research has focused on the recognition of simple human activities.
Identify complex activities remains a challenging and active area of research. In
this work will be analyzed using a proposed recently method, the Minimal Machine
Learning (MLM), in addition to three others known in the literature, MLM, RBF and ELM
for detecting human activities. The hyperparameters of each method were selected
through cross-validation.
gyroscope and accelerometer sensors found in smartphones. The MLM has had the
best success rate among the tested methods.
Sumrio
Lista de Figuras
Lista de Tabelas
Lista de Smbolos
Lista de Abreviaes
1 Introduo
15
1.1 Motivao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.2.1 Geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.2.2 Especficos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
17
2 Aprendizagem de Mquina
18
2.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
19
19
20
21
21
22
23
29
30
34
3.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
3.2 Formulao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
35
37
38
38
39
. . . . . . . . . .
4 Metodologia
40
42
42
43
44
4.3.1 Distncias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
45
45
4.4.2 Mtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
5 Resultados Experimentais
47
47
48
51
6 Consideraes Finais
55
56
57
Lista de Figuras
1
21
intermedirias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
26
37
46
48
49
49
10
50
50
11
51
12
. . . . . . .
53
13
53
14
54
Lista de Tabelas
1
Comparao de uma rede RBF tpica com uma rede MLP convencional
FONTE: (CARVALHO; BRAGA; LUDERMIR, 2007) . . . . . . . . . . . .
30
Variveis estimadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
45
47
frequncia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
52
Lista de Smbolos
R
(x)
funo de ativao
Lista de Abreviaes
AM
Aprendizagem de Mquina
IA
Inteligncia Artificial
RNA
MLM
MLP
ELM
RBF
AMSE
MSE
15
C APTULO 1
I NTRODUO
O captulo inicia com a motivao para o desenvolvimento deste trabalho. Os
objetivos gerais e especficos so elencados na seo 1.2. Por ltimo, realizamos
uma apresentao da estrutura da monografia na seo 1.3.
1.1
Motivao
utilizam informaes captadas por sensores acoplados que podem ser utilizados pelos
mais diferentes tipos de aplicaes.
O reconhecimento de atividades humanas tem como objetivo identificar as aes
realizadas por uma pessoa dado um conjunto de observaes do indivduo e do
ambiente circundante. Isso pode ser conseguido, por exemplo, atravs da explorao
de informaes obtidas a partir dos sensores como acelermetros (ALLEN et al.,
2006). Na maioria dos smartphones estes sensores so incorporados por padro.
Identificar com sucesso as atividade humanas permite uma ampla diversidade de
aplicaes. Pesquisas recentes sobre o reconhecimento de atividades, especialmente
para aplicaes de cuidados a sade de idosos, tem demonstrado que possvel
identificar uma variedade de atividades tais como, caminhar, correr ou saber se uma
pessoa est usando escadas (BAO; INTILLE, 2004; HUYNH; BLANKE; SCHIELE,
1.2 Objetivos
16
2007; LESTER; CHOUDHURY; BORRIELLO, 2006; OFSTAD et al., 2008; LIN et al.,
2003; RAVI et al., 2005).
Essencialmente, a tarefa de deteco de atividades requer um modelo matemtico
que permita a identificao de interesse. Em geral, modelos podem ser desenvolvidos
utilizando o conhecimento de um especialista sobre o fenmeno que se deseja
modelar ou por tcnicas de aprendizado automtico (estatstico ou neural). Utilizar um
modelo de aprendizado automtico, dentre outras vantagens, permite-nos construir
modelos baseados em pouco ou quase nenhum conhecimento prvio sobre a tarefa
de interesse. Para isso, exemplos do comportamento a ser modelado devem ser
capturados ou devem estar disponveis. Este trabalho prope o uso de um modelo de
aprendizagem supervisionado recentemente proposto, a Mquina de Aprendizagem
Mnima (Minimal Learning Machine, MLM) (SOUZA JUNIOR et al., 2013) para
classificao e deteco de atividades de um conjunto de dados proveniente de um
smartphone.
1.2
Objetivos
1.2.1
Geral
1.2.2
Especficos
17
1.3
Estrutura da monografia
18
C APTULO 2
A PRENDIZAGEM
DE
M QUINA
2.1
Introduo
19
2.2
Aprendizado Indutivo
questionam como deve ser escolhida uma hiptese entre vrias consistentes.
Pesquisadores estudam os problemas relacionados aprendizagem indutiva h
muitos anos, mas uma recomendao bsica para a soluo destes problemas seria
a lmina de Ockham (BADIUS; TRECHSEL; PENNSYLVANIA), 1495), que nos orienta
a escolher sempre a opo mais simples, pois mesmo no tendo muitas informaes
sobre algum assunto, intuitivamente escolhido algo que parece ser mais fcil do que
a segunda ou terceira opo. Em AM, solues simples correspondem a modelos com
poucos parmetros ajustveis ou graus de liberdade.
O aprendizado indutivo efetuado a partir do raciocnio sobre exemplos fornecidos
por um processo externo ao aprendiz. Em AM, o aprendiz um sistema computacional
frequentemente denotado por sistema de aprendizado, algoritmo de aprendizado, ou
simplesmente indutor. Um sistema de aprendizado um sistema computacional que
toma decises baseado em experincias acumuladas contidas em casos resolvidos
com sucesso (WEISS; KULIKOWSKI, 1991).
No estudo de IA, existe uma grande variedade de tipos de aprendizado.
Os estudos sobre aprendizado de mquina dividem-se em trs grupos bsicos:
aprendizagem supervisionada, no-supervisionada e por reforo, os quais sero
abordadas com mais detalhes a seguir.
2.2.1
Aprendizado Supervisionado
20
ei = (xi , yi )
na qual xi um vetor de valores que representam as caractersticas, ou atributos,
do exemplo Ei , e yi o valor da classe desse exemplo. O objetivo do aprendizado
supervisionado induzir um mapeamento geral dos vetores x para valores y. Portanto,
o sistema de aprendizado deve construir um modelo, y = f (x), de uma funo
desconhecida f que permite predizer valores y para exemplos previamente no vistos.
Entretanto, o nmero de exemplos utilizados para a criao do modelo no ,
na maioria dos casos, suficiente para caracterizar completamente essa funo f. Na
realidade, os sistemas de aprendizado so capazes de induzir uma funo h que se
aproxima de f, ou seja, h (x) f (x). Nesse caso, h chamada de hiptese sobre a
funo conceito f. Neste trabalho sero apenas utilizadas tcnicas de aprendizagem
de mquina supervisionada.
2.2.2
Aprendizado No-supervisionado
possui um algoritmo no
21
2.2.3
2.3
treinamento.
22
2.3.1
O trabalho em essncia
23
redes neurais causados pelo livro de Minsky e Papert s foram revertidos com o
advento do algoritmo Backpropagation (RUMELHART; HINTON; WILLIAMS, 1988)
que mostrou que o modelo Perceptron Multicamadas era capaz de resolver problemas
no linearmente separveis. O Backpropagation utiliza mltiplas camadas, baseia-se
no mtodo do gradiente descendente sendo bastante utilizado no modelo Perceptron
Multicamadas (Multi-layer Perceptron), descrito a seguir.
2.3.2
24
Seguindo este procedimento, tem-se ento uma resposta final na camada de sada,
correspondente ao vetor apresentado.
O aprendizado na rede MLP transcorre em duas fases, sendo seu algoritmo de
treinamento mais popular o Backpropagation (HAYKIN, 2002).
Na primeira fase,
Figura 2: Modelo esquemtico de uma rede MLP com duas camadas intermedirias.
25
O Nmero de Camadas
A escolha do nmero de camadas dada pelo problema em questo e em cada
camada ocorre uma frao do processamento como um todo, onde o espao dividido
em regies de deciso. Desta forma a rede capaz de trabalhar com problemas
que no sejam linearmente separveis, desde que haja neurnios no-lineares nas
camadas escondidas.
Papel importante cabe s camadas intermedirias, que criam uma codificao
interna para os padres apresentados na entrada. Um nmero suficientemente grande
de camadas possvel formar representaes para qualquer conjunto de entrada
(CARVALHO; BRAGA; LUDERMIR, 2007). Entretanto a grande maioria dos problemas
raramente necessita de mais de uma camada intermediria.
Funes de Ativao
A rede emprega em cada unidade de processamento uma funo de ativao.
A funo de ativao utilizada nas camadas intermedirias deve ser uma funo
no linear, para que seja incorporado o tratamento de no-linearidade rede.
Caso as funes sejam puramente lineares, o Perceptron de Mltiplas camadas
ter funcionamento equivalente a uma nica camada, visto que sucessivas
transformaes lineares equivalem a uma nica transformao linear (CARVALHO;
BRAGA; LUDERMIR, 2007). As funes de ativao mais utilizadas no modelo MLP
so funes sigmoidais, tais como a funo logstica e a funo tangente hiperblica,
que devem estar presentes em pelo menos uma das camadas escondidas. As funes
sigmides so contnuas, diferenciveis em qualquer ponto, monotnicas estritamente
crescentes, possuindo certa similaridade com funes lineares, o que as tornam ideais
para a rede MLP. As funes sigmides se aproximam assintoticamente de seus
valores de saturao. A Figura 3 ilustra um exemplo de funo sigmoidal, a funo
logstica binria, com o domnio definida no intervalo [3,3]. A funo logstica
definida por:
(x) =
1
,
1 + exp(Kx)
(2.1)
26
1
0.9
0.8
0.7
(x)
0.6
0.5
0.4
0.3
0.2
0.1
0
3
tambm atua como um controle automtico de ganho (BEALE; JACKSON, 1990), visto
que para valores de entrada pequenos a inclinao bastante ngreme e as sadas
aumentam rapidamente em relao ao domnio e para valores grandes de entrada a
inclinao varia em menor intensidade. O termo K possibilita ento um balanceamento
para as sadas desta funo, dada a amplitude do domnio.
A funo sigmide tambm pode ser tangente hiperblica, caso este em que a
imagem da funo definida no intervalo (1,1) . Define-se como mostrado abaixo:
(x) =
1 exp(Kx)
,
1 + exp(Kx)
27
O algoritmo de aprendizagem
Um dos processos de aprendizado da MLP o algoritmo Backpropagation,
baseado no aprendizado por correo de erros (regra delta). O algoritmo consegue
com sucesso propagar a informao de erro da camada de sada para as
camadas escondidas, podendo ser visto como uma generalizao do filtro adaptativo
Least-Mean-Square (LMS).
Basicamente, o algoritmo Backpropagation consiste em duas etapas de
processamento (VALENA, 2010): para a frente (forward) e para trs (backward).
O primeiro equivalente ao feedforward, em que as entradas so processadas pelas
camadas em sequncia, e a sada obtida na ltima camada. A sada obtida ento
subtrada da sada esperada (target), gerando a informao de erro (error signal).
A informao de erro ento propagada na direo contrria, ajustando os pesos no
processo, vindo da o nome Backpropagation. Essa propagao do erro feita usando
a generalizao da regra delta, que usa derivadas parciais para calcular os ajustes nos
valores dos pesos de camada. Por isso, as funes de ativao dos neurnios devem
ser sempre derivveis, pois o algoritmo seria impossvel de utilizar o algoritmo.
Os passos do algoritmo de retropropagao do erro para uma iterao de
treinamento so:
1. As sadas so calculadas processando as entradas pelas camadas da rede, na
etapa forward;
2. O erro relativo sada calculado pela subtrao desta com a sada esperada;
3. O erro calculado para todos os neurnios de sada, resultando no erro da
rede para a entrada atual, iniciando a etapa backward. Dependendo do tipo
de treinamento, esse erro calculado por elemento apresentado, ajustando os
pesos da rede para cada entrada (treinamento incremental), ou ento fazendo a
28
Os pesos so ajustados
wi j (t + 1) = w jl (l) + x j l ,
(2.2)
2.3.3
29
As RNAs do tipo Funo de Base Radial (Radial Basis Function, RBF), so redes
supervisionadas consideradas aproximadores universais, assim como a rede MLP. A
estrutura bsica de construo apresenta apenas uma camada intermediaria, mas
possvel a criao de redes neurais com mais camadas. Diferentemente da rede MLP,
que apresentam funes sigmides, as redes RBF utilizam, na camada intermediaria,
funes radiais, como por exemplo, a funo gaussiana. Essas redes so ferramentas
extremamente flexveis em um ambiente dinmico. Possuem alta capacidade de
aprendizado com padres complexos e tendncia para se adaptar rapidamente s
mudanas.
O aprendizado de uma rede RBF equivalente a ajustar uma superfcie no-linear
ao conjunto de dados, em um espaos multidimensional, de acordo com algum
critrio estatstico.
30
2
p
(v2 + 2 )
MLP
Pode ter uma ou mais camadas
intermediarias.
Neurnios das camadas intermediarias e
de sada tm funes semelhantes.
Entrada da funo de ativao o
produto interno dos vetores de
entrada e de pesos.
Melhor em problemas complexos
Constri aproximadores globais para
mapeamento entrada-sada.
2.3.4
RBF
Possui apenas uma camada
intermediaria.
Neurnios das camadas intermediarias
tm funes diferentes dos neurnios da
camada de sada.
Entrada da funo de ativao a
distancia euclidiana entre os vetores
de entrada e de pesos.
Melhor em problemas bem-definidos.
Constri aproximadores locais para
mapeamento entrada-sada.
apresentam algumas limitaes, tais como sua facilidade de convergir para mnimos
locais e sua convergncia lenta. Outro inconveniente a necessidade de se definir
muitos parmetros, tais como taxa de aprendizado e momentum.
31
Diferentemente dos
(2.3)
i=1
32
entre wi e x j .
Para que as sadas da rede apresentada sejam iguais s sadas esperadas, ou
seja, que a rede apresente erro de treinamento zero, devem existir Bm , wi e bi tais que
P
(2.4)
i=1
(w|1 x1 + b1 ) (w|P x1 + bP )
..
..
..
H=
.
.
.
|
|
(w1 xN + b1 ) (wP xN + bP )
(2.5)
NP
b|1
.
B = ..
b|P
(2.6)
PM
y|1
.
Y = ..
y|N
NM
(2.7)
33
B = H Y,
(2.8)
34
C APTULO 3
M QUINA
DE
A PRENDIZAGEM M NIMA
3.1
Introduo
Na sua
3.2 Formulao
3.2
35
Formulao
D
Dado um conjunto de N pontos de entrada X = {xi }N
i=1 , com xi R , e o conjunto
S
de sadas correspondes Y = {yi }N
i=1 , com yi R . Assumindo a existncia de um
(3.1)
Y = f(X) + R.
3.2.1
y = g(Dx ) + E,
(3.2)
As colunas da matriz E
3.2 Formulao
36
y = Dx B + E.
(3.3)
RBS(B) =
(3.4a)
k=1 i=1
y x B)| (
y Dx B))
= tr((
(3.4b)
b = (D|x Dx )1 D|x y .
B
(3.5)
3.2 Formulao
37
b
b (y, T ) = d(x, R)B.
(3.6)
3.2.2
Estimativa da sada
O problema de estimar a sada y, dada as sadas {tk }kk=1 para todos os pontos de
referncias e uma estimativa b (y, T ) das suas distncias mtuas, pode ser entendido
como um problema de multilaterao para estimar sua localizao em Y . O problema
de localizar y equivalente a resolver um conjunto sobredeterminado de equaes
no-lineares correspondentes a K hiper-esferas centradas em tk e passando por todo
y, isto , com um raio igual a b (y, t ):
k
(y tk )| (y tk ) = b2 (y, tk ), = 1, . . . , K.
(3.7)
0
b
y = arg min ((y tk ) (y tk ) b2 (y, tk ))2 .
(3.8)
k=1
O objetivo tem um mnimo igual a 0 que pode ser alcanado se, e somente se, y
38
3.3
3.4
Mquina
de
Classificao
Aprendizagem
Mnima
para
L = {li }N
i=1 , com li {C1 , . . . ,CS }, onde C j denota a j-sima classe; para S = 2, o
39
problema dito ser classificao binria, enquanto para S > 2 tem-se classificao
multiclasse.
A Mquina de Aprendizagem Mnima pode ser estendida para problemas de
classificao de uma maneira direta representando as S classes de forma vetorial
atravs de um esquema binrio de codificao (1-de-S). Nessa abordagem, uma
varivel qualitativa com S smbolos representada por um vetor binrio de dimenso
S, dos quais somente uma componente ativa". Matematicamente, o conjunto de
S
sadas Y = {yi }N
i=1 , com yi R , em correspondncia aos pontos de entrada X ,
3.4.1
(3.9)
abordagem rpida para a etapa de estimao da sada. Uma forma alternativa para
computar a estimativa para a sada y baseada em V vizinhos mais prximos (nearest
neighbors). Nessa abordagem, uma vez que as distncias (y, T ) tenham sido
estimadas, pode-se utilizar as classes dos V pontos de referncias mais prximos
no espao de sada a y para estimar a classe do padro de teste l. Dentre as
possibilidades, a estratgia de voto majoritrio consiste em atribuir a moda das classes
dos V vizinhos mais prximos ao padro de teste. Neste trabalho, a rede MLM
com a abordagem dos vizinhos mais prximos ser referenciada pela sigla MLM-NN
(MLM-Nearest Neighbors).
3.5
40
AMSE( ) =
1 K 1 Nv
Nv ( (yi, tk ) b (yi, tk ))2)
K k=1
i=1
(3.10a)
1 S 1 Nt (s)
(s)
Nv (yi byi )2
S s=1
i=1
(3.10b)
AMSE(y) =
41
Este mtodo
Em (KATSIKIS; PAPPAS;
42
C APTULO 4
M ETODOLOGIA
Este captulo apresenta em sua primeira subseo a descrio da base de dados.
A Seo 4.2 mostra a modelagem realizada nos dados para a tarefa de classificao.
Em seguida, abordado o critrio de seleo de parmetros na Seco 4.3. Por fim,
a validao cruzada e a mtrica utilizada so tratadas na Seo 4.4.
4.1
Base de Dados
Atravs do acelermetro e
O sinal do
43
cada janela, um vetor de caractersticas foi obtido por clculo de variveis de domnio
do tempo e frequncia:
1. tBodyAcc-XYZ
10. tBodyGyroJerkMag
2. tGravityAcc-XYZ
11. fBodyAcc-XYZ
3. tBodyAccJerk-XYZ
12. fBodyAccJerk-XYZ
4. tBodyGyro-XYZ
13. fBodyGyro-XYZ
5. tBodyGyroJerk-XYZ
14. fBodyAccMag
6. tBodyAccMag
7. tGravityAccMag
15. fBodyAccJerkMag
8. tBodyAccJerkMag
16. fBodyGyroMag
9. tBodyGyroMag
17. fBodyGyroJerkMag
4.2
Varivel
mean
std
mad
max
min
sma
energy
iqr
entropy
arCoeff
correlation
maxInds
meanFreq
skewness
kurtosis
bandsEnergy
angle
44
Descrio
Valor mdio
Desvio padro
Desvio absoluto mdio
Maior valor no vetor
Menor valor no vetor
rea de magnitude do sinal
Medida de energia, soma dos quadrados
dividido pelo nmero de valores
Intervalo interquartil
Sinal entropia
Coeficientes de auto-regresso com ordem
Burg igual a 4
Coeficiente de correlao entre dois sinais
ndice do componente de frequncia com
maior magnitude
Mdia ponderada das componentes de freqncia
para obter uma frequncia mdia
Assimetria do sinal no domnio da frequncia
Curtose do sinal no domnio da frequncia
Energia de um intervalo de frequncia dentro de
64 bins de cada janela FFT
Angulo entre os vetores
Tabela 2: Variveis estimadas.
4.3
Seleo de Parmetros
Classe
Caminhando
Subindo Escada
Descendo Escada
Sentado
Em p
Deitado
45
Representao
100000
010000
001000
000100
000010
000001
4.3.1
Distncias
q
d(p, q) = (p1 q1 )2 + (p2 q2 )2 + . . . + (pN qN )2 =
(pi qi)2.
(4.1)
i=1
A distancia Manhattan, tambm conhecida como City Block emprega a soma das
diferenas absolutas das variveis (isto , os dois lados de um tringulo retngulo
em vez da hipotenusa). Este procedimento o mais simples de calcular, mas pode
conduzir a agrupamentos invlidos se as variveis forem altamente correlacionadas.
Essa distncia dada pela equao 4.3.1.
4.4
4.4.1
(4.2)
Avaliao de desempenho
Validao Cruzada
46
treino, utilizando k 1 folds para o treinamento e o fold restante para o teste do modelo.
A Figura 5 mostra um exemplo da validao cruzada.
Para esse trabalho foi decidido utilizar 10 folds, por ser uma quantidade que
fornece uma boa estimativa e comumente utilizada para validao de algoritmos
de aprendizado de mquina (STONE, 1974).
4.4.2
Mtrica
Ec =
Ne
.
Nt
(4.3)
47
C APTULO 5
R ESULTADOS E XPERIMENTAIS
Os resultados do trabalho so analisados neste captulo. A seo 5.1 mostra os
intervalos de hiperparmetros escolhidos para cada mtodo. Os erros de classificao
ocorridos na validao cruzada so apresentados na seo 5.2. Por fim, feita a
comparao entre os mtodos na seo 5.3.
5.1
Hiperparmetros Escolhidos
maior de neurnios na ELM comum na literatura. O MLP foi testado com taxa de
aprendizagem igual a 0.1 e 100 iteraes. Para o RBF, foram escolhidos 4 valores
de gama (1, 0.1, 0.01, 0.001). A MLM foi verificada com as distncias euclidiana e
Manhattan variando os K pontos de referncia com porcentagens dos dados de
treinamento (10%, 20%, 30%, . . . , 90%, 100%). A MLM-NN foi testada com a distncia
euclidiana variando os K pontos de referncia.
Mtodos
MLP
ELM
RBF
Nmero de Neurnios
10 : 50 : 960
300 : 50 : 2500
10 : 50 : 960
Tabela 4: A segunda coluna mostra o nicio, variao e fim para uma sequncia de neurnios.
5.2
48
Resultados Individuais
Erro de classificao
0.09
0.08
0.07
0.06
0.05
0.04
500
1000
1500
Quantidade de neurnios da camada oculta
2000
2500
49
0.14
Todos
Frequncia
Tempo
0.12
Erro de classificao
0.1
0.08
0.06
0.04
0.02
100
200
300
400
500
600
700
Quantidade de neurnios da camada oculta
800
900
1000
MLP
0.7
Todos
Frequncia
Tempo
0.6
Erro de classificao
0.5
0.4
0.3
0.2
0.1
100
200
300
400
500
600
700
Quantidade de neurnios da camada oculta
800
900
1000
50
MLMs com atributos de tempo
0.07
MLMM
MLME
MLMNN
Erro de Classificao
0.06
0.05
0.04
0.03
0.02
0.01
1000
2000
3000
4000
5000
6000
7000
8000
Figura 9: Erro pelo nmero de pontos de referncia com atributos no domnio do tempo.
Erro de Classificao
0.07
0.06
0.05
0.04
0.03
0.02
1000
2000
3000
4000
5000
6000
7000
8000
Figura 10: Erro pelo nmero de pontos de referncia com atributos no domnio da frequncia.
foi menor.
Atravs dos grficos anteriores, foi possvel observar que a MLM com distncia
Manhattan teve o maior erro de classificao durante a validao cruzada.
contrapartida, a MLM-NN errou menos.
Em
51
0.06
0.055
Erro de Classificao
0.05
0.045
0.04
0.035
0.03
0.025
0.02
0.015
1000
2000
3000
4000
5000
6000
7000
8000
Figura 11: Erro pelo nmero de pontos de referncia com todos atributos.
5.3
ELM
RBF
MLP
MLM-E
MLM-M
MLM-NN
Mdia
0.9425
0.9629
0.9080
0.9676
0.9528
0.9654
Desvio Padro
6.800 103
3.400 103
5.600 103
3.800 103
2.700 103
0
Tabela 5: Taxa mdia de acerto e desvio padro com atributos no domnio do tempo.
52
ser diferente de 0, mas continuou pequeno. O desempenho do MLP ficou ainda pior.
A RBF continuou com a taxa de acerto prxima da MLM-E.
ELM
RBF
MLP
MLM-E
MLM-M
MLM-NN
Mdia
0.9209
0.9532
0.8889
0.9541
0.9339
0.9535
Desvio Padro
2.600 103
8.700 103
1.700 102
5.900 103
5.700 103
2.341 1016
Tabela 6: Taxa mdia de acerto e desvio padro com atributos no domnio da frequncia.
Por ltimo, feito a anlise com todos os atributos do conjunto de dados na Tabela
7. Com essa abordagem, a MLM-NN teve a maior taxa de acerto. Com exceo
dessa mudana, as relaes entre os mtodos e os resultados, vistos anteriormente,
permaneceram.
ELM
RBF
MLP
MLM-E
MLM-M
MLM-NN
Mdia
0.9369
0.9658
0.9027
0.9683
0.9617
0.9715
Desvio Padro
7.500 103
3.200 103
1.940 102
7.800 103
3.500 103
1.170 1016
53
0.97
Taxa de Acerto
0.96
0.95
0.94
0.93
0.92
0.91
MLP
RBF
ELM
MLMNN
MLMM
MLME
0.9
Mtodos
0.96
Taxa de Acerto
0.94
0.92
0.9
0.88
MLP
RBF
ELM
MLMNN
MLMM
MLME
0.86
Mtodos
O uso de todos atributos fez com que o MLP apresentasse valores discrepantes
nos testes (14).
Atravs dessa anlise, foi possvel ver o desempenho de mtodos conhecidos na
literatura para a tarefa de reconhecimento de atividades. A MLM e suas variaes
54
0.98
0.96
Taxa de Acerto
0.94
0.92
0.9
0.88
MLP
RBF
ELM
MLMNN
MLMM
MLME
0.86
Mtodos
55
C APTULO 6
C ONSIDERAES F INAIS
Esse trabalho se props a analisar o uso da Mquina de Aprendizagem Minima
(MLM) para a classificao de atividades humanas com dados provenientes de
aparelhos mveis, bem como comparar o desempenho da MLM com mtodos
tradicionais em aprendizagem de mquina, mais especificamente redes neurais. Alm
disso, foram propostas e testadas variantes da rede MLM: i) utilizao da mtrica de
distncia Manhatan; ii) Utilizao da ideia de computar a sada da rede MLM com
base nas classes dos vizinhos mais prximos, tornando assim o teste da MLM mais
rpido.
Os resultados foram ilustrados em uma base de dados adquirida a partir do
repositrio UCI Machine Learning, e os experimentos conduzidos na tarefa de
classificao. Foram realizados experimentos variando-se os hiperparmetros de
cada algoritmo, tais como nmero de neurnios na camada oculta e valores da taxa
de aprendizagem (no caso da rede MLP). Alm disso, foi avaliada a relevncia da
utilizao de atributos no domnio do tempo e frequncia na tarefa de reconhecimento
de atividades.
6.1
56
Trabalhos Futuros
57
Referncias Bibliogrficas
ALLEN, Felicity R; AMBIKAIRAJAH, Eliathamby; LOVELL, Nigel H; CELLER,
Branko G. Classification of a known sequence of motions and postures from
accelerometry data using adapted gaussian mixture models. Physiological
Measurement, v. 27, 2006.
ANGUITA, Davide; GHIO, Alessandro; ONETO, Luca; PARRA, Xavier;
REYES-ORTIZ, Jorge L. Human activity recognition on smartphones using a
multiclass hardware-friendly support vector machine. In: Proceedings of the 4th
International Conference on Ambient Assisted Living and Home Care. [S.l.]:
Springer-Verlag, 2012.
BADIUS, J.; TRECHSEL, J.; PENNSYLVANIA), Incunable Collection (University of.
Quaestiones et decisiones in quattuor libros Sententiarum Petri Lombardi:
Centilogium theologicum. [S.l.]: Johannes Trechsel, 1495.
BAO, Ling; INTILLE, StephenS. Activity recognition from user-annotated acceleration
data. In: FERSCHA, Alois; MATTERN, Friedemann (Ed.). Pervasive Computing.
[S.l.]: Springer Berlin Heidelberg, 2004, (Lecture Notes in Computer Science).
BARTLETT, Peter L. The Sample Complexity of Pattern Classification With Neural
Networks: The Size of the Weights is More Important Than the Size of the
Network. 1997.
BATISTA, Gustavo Enrique de Almeida Prado Alves. Pr-processamento de dados
em aprendizado de mquina supervisionado. Tese (Doutorado) Tese de
Doutorado-Instituto de Cincias, 2003.
BEALE, Russell; JACKSON, Tom. Neural computing : an introduction. Bristol,
Philadelphia, New York: A. Hilger, 1990.
CARVALHO, Andr Carlos P.L.F. de; BRAGA, Antnio P.; LUDERMIR,
Teresa Bernarda. Redes Neurais Artificiais: Teoria e aplicaes. [S.l.]: LTC
Editora, 2007.
CASTRO, Fernando Csar; CASTRO, Maria Cristina F. de.
. Multilayer Perceptron. [s.n.], 2011. Disponvel em:
In:
<http://www.feng.pucrs.br/decastro/pdf/RNA C4.pdf>. Acesso em: 8 nov.
2014.
CERQUEIRA, Eduardo O. de; ANDRADE, Joo C. de; POPPI, Ronei J.; MELLO,
Cesar. Redes neurais e suas aplicaes em calibrao multivariada. Qumica Nova,
scielo, v. 24, 2001.
Referncias Bibliogrficas
58
Referncias Bibliogrficas
59
Referncias Bibliogrficas
60