Вы находитесь на странице: 1из 12

SIMULAO DO MODELO CINEMTICO INVERSO DE UM

ROB ATRAVS DO USO DE REDES NEURAIS ARTIFICIAIS:


UM COMPLEMENTO AO ENSINO DE ROBTICA


Jos Tarcsio Franco de Camargo jtfc@bol.com.br
Faculdade Municipal "Professor Franco Montoro", FMPFM
Centro Regional Universitrio de Esprito Santo do Pinhal, UNIPINHAL
Rua dos Estudantes s/n, Cachoeira de Cima
CEP 13840-000 Mogi Guau - SP

Estfano Vizconde Veraszto estefanovv@cca.ufscar.br
Universidade Federal de So Carlos
Depto. de Cincias da Natureza, Matemtica e Educao, UFSCar, CCA
Rodovia Anhanguera, Km 174
CEP 13604-900 Araras - SP

Gilmar Barreto gbarreto@dsif.fee.unicamp.br
Universidade Estadual de Campinas
Faculdade de Engenharia Eltrica e de Computao, UNICAMP, FEEC
Av. Albert Einstein, 400, Cidade Universitria Zeferino Vaz, Baro Geraldo
CEP 13083-852 Campinas - SP


Resumo: O ensino de robtica passa, necessariamente, pelo estudo dos modelos cinemticos
dos robs manipuladores. Por sua vez, a cinemtica de um rob manipulador pode ser
descrita atravs de seus modelos direto e inverso. O modelo cinemtico inverso, atravs do
qual obtm-se o estado das juntas em funo da posio desejada para a ferramenta do rob,
normalmente descrito e ensinado de forma algbrica nas aulas de robtica. Contudo, a
representao algbrica deste modelo , frequentemente, de difcil obteno. Assim, embora
seja inquestionvel a necessidade de determinao exata do modelo cinemtico inverso de
um rob, o uso de redes neurais artificiais (RNAs) na fase de projeto pode ser muito atraente,
pois nos permite prever o comportamento do rob antes do desenvolvimento formal de seu
modelo. Neste sentido, este trabalho apresenta uma forma relativamente rpida de se simular
o modelo cinemtico inverso de um rob, permitindo, assim, que o aluno possa ter uma viso
global do modelo, vindo a identificar pontos que devem ser corrigidos ou que podem ser
otimizados na estrutura de um rob.

Palavras-chave: Ensino de engenharia, Redes neurais artificiais, Robtica


1. INTRODUO

O movimento descrito por um rob manipulador pode ser representado atravs de seus
modelos cinemticos direto e inverso, conforme descrito em Craig (1989). A obteno do
modelo cinemtico direto relativamente simples, sendo este definido atravs de um conjunto


de transformaes entre os sistemas de referncia de suas juntas ou "graus de liberdade".
Atravs deste modelo podemos determinar a posio da "ferramenta" na extremidade livre do
rob conhecendo-se a posio de suas juntas.
O modelo cinemtico inverso, por sua vez, permite-nos determinar o estado das juntas
de um rob em funo da posio desejada para a sua ferramenta. Dessa forma, tendo sido
definida uma trajetria para a ferramenta, possvel determinar o conjunto de posies das
juntas que permitiro ao rob descrever o deslocamento desejado.
A obteno do modelo cinemtico inverso, contudo, muito mais complexa do que a
obteno do modelo cinemtico direto, uma vez que envolve a soluo de um sistema de
equaes no lineares que pode admitir mais de uma soluo. Mesmo em casos relativamente
simples, como para o "rob planar" com dois graus de liberdade descrito a seguir, a definio
do modelo cinemtico inverso no trivial.
Dessa forma, ser capaz de prever o comportamento de um rob, de forma
relativamente simples, antes do desenvolvimento formal de seu modelo cinemtico inverso,
pode-se tornar um fator crucial para o sucesso de um projeto. Atravs do uso das redes
neurais artificiais (RNAs), possvel simular o comportamento de um rob, determinando
com relativa preciso o estado das juntas do mesmo em funo da posio desejada para a sua
ferramenta, permitindo que falhas de projeto possam ser detectadas, bem como pontos
passveis de otimizao possam ser identificados.
Assim, conforme exposto, este trabalho visa introduzir o tema das RNAs no contexto
do ensino de robtica, objetivando contribuir para a formao de futuros profissionais que
venham a se interessar pelo assunto e que sejam capazes de prever e simular situaes nesta
rea, com vistas verificao de falhas e oportunidades de otimizao em projetos.


2. CINEMTICA DIRETA E INVERSA DO MOVIMENTO DE UM ROB

O estudo dos modelos cinemticos direto e inverso em robtica pode ser introduzido,
de forma simples, atravs de um rob manipulador planar, conforme apresentado na Figura 1.
Na estrutura da Figura 1 temos um rob manipulador com dois graus de liberdade,
estando sua extremidade inferior presa ao sistema de coordenadas referencial e seu extremo
superior (ferramenta) livre para se deslocar sobre o plano (X,Y). Este rob composto por
dois braos de comprimento L
1
e L
2
, sendo que a cada brao temos associado uma junta
rotacional, cujos ngulos de rotao so
1
e
2
, respectivamente. A extremidade livre deste
rob encontra-se na posio P(X,Y) do plano.

Figura 1- Estrutura de um rob planar com dois graus de liberdade (Craig, 1989).




O modelo cinemtico direto deste manipulador, que indica a posio da ferramenta do
rob em funo dos ngulos das juntas rotacionais, pode ser indicado, de forma bastante
simples, atravs das equaes (1) e (2).

(1)

(2)

sendo "X
P
" e "Y
P
" as coordenadas do ponto P(X,Y).
Por sua vez, o modelo cinemtico inverso deste rob, que indica os ngulos "
1
" e "
2
"
das juntas em funo da posio desejada para a ferramenta, pode ser descrito, segundo Craig
(1989), atravs das equaes (3) e (4).

(3)

(4)

Neste modelo, o ngulo "
2
" pode assumir valores positivos ou negativos, dependendo
da posio do "cotovelo" do rob ("para cima" ou "para baixo").
notvel, atravs da observao das equaes (3) e (4), que o modelo cinemtico
inverso realmente possui uma complexidade considervel, mesmo para um rob que possui
apenas dois graus de liberdade em um espao planar.
Neste caso, uma rede neural pode ser construda de tal forma que suas entradas sejam
alimentadas pela posio desejada para a ferramenta do rob, sendo indicado em suas sadas
os respectivos valores de seus graus de liberdade (ngulos, no caso de juntas rotacionais). Por
meio desta estratgia, a RNA pode vir a ser inicialmente treinada a partir de um conjunto de
valores referenciais determinados atravs do modelo cinemtico direto, sendo que, aps a fase
de treinamento, a rede estar apta a gerar as informaes desejadas (graus de liberdade em
funo da posio desejada para a ferramenta).
Um modelo de rede neural apropriado para este estudo em robtica o perceptron em
mltiplas camadas (MLP multilayer perceptron). Atravs de uma MLP, possvel estudar a
cinemtica inversa de um rob sem a determinao explcita de seu modelo, permitindo,
assim, que determinados comportamentos possam vir a ser identificados pela rede neural.
Dessa forma, o estudo em robtica aqui proposto encontra-se focado no uso de redes neurais
MLP, como alternativa aos mtodos convencionais para a determinao do modelo
cinemtico inverso de um rob.


3. REDES NEURAIS E ROBTICA

Uma (RNA) constitui um sistema, comumente abstrato, que pode ser utilizado em
vrias aplicaes, tais como aquelas apresentadas em Burke (1995), Mighell (1988), Reategui
(1994) e Yoda (1994). Para tanto, antes de seu uso, muitas vezes a RNA deve ser treinada
atravs de padres. Assim, em sua fase de treinamento, a rede apresentada a diversos
padres de entrada e seus respectivos padres de sada desejados, de forma a aprender a lei
de formao que correlaciona cada padro de entrada ao seu respectivo padro de sada.


Aps esta fase inicial, espera-se que, caso seja apresentado um padro de entrada no
pertencente ao conjunto de treinamento, a rede seja capaz de inferir um provvel padro de
sada.
Um modelo de RNA bastante interessante que se encaixa dentro desta proposta a
rede formada por perceptrons em mltiplas camadas (ou Multilayer Perceptron ou MLP)
(HAYKIN, 2001).


3.1. O perceptron

Uma RNA do tipo perceptrons em mltiplas camadas (MLP) constituda pela
organizao em camadas do elemento computacional denominado perceptron. Um
perceptron, por sua vez, caracteriza-se por tentar expressar uma representao simblica (e
matemtica) de um neurnio biolgico. A Figura 2 apresenta o modelo simblico de um
perceptron, o qual amplamente discutido em Lippmann (1987), Hush (1993) e Haykin
(2001). Hush (1993), Haykin (2001) e Fahlman (1988) tambm apresentam detalhadamente o
algoritmo de retropropagao (backpropagation), que ser discutido mais adiante.
Neste modelo temos um n, que representa o corpo do neurnio, alimentado por
diversos estmulos externos atravs de conexes sinpticas. O resultado da computao dos
estmulos externos pelo perceptron exportado atravs de uma conexo sinptica de sada que
encaminhar este sinal para a entrada de outros perceptrons (ou neurnios) da rede.

Figura 2 - Modelo simblico de um perceptron (neurnio).



Os estmulos externos recebidos por um perceptron podem ser provenientes das sadas
exportadas por outros perceptrons ou provenientes da entrada da rede neural ou, ainda,
provenientes de um sinal de polarizao (bias) particular do prprio neurnio. Segundo
(GERMAN, 1992), o sinal de polarizao possui grande importncia no controle de rudos
dos dados apresentados rede. Todos os sinais que chegam a um neurnio (ou, neste caso,
perceptron) so ponderados pelo peso sinptico da conexo que leva este sinal ao neurnio.
O equacionamento matemtico que formaliza este modelo leva em considerao que
os estmulos de entrada tem seus efeitos somados de forma ponderada. Ou seja:
b x
n
i
i i
+ =

=1
e v (5)
onde:
- v a soma ponderada dos estmulos de entrada


- w
i
.x
i
o produto entre um sinal de entrada x e o peso sinptico w da conexo
que encaminha o sinal ao neurnio
- b o sinal de polarizao particular deste neurnio
A resposta do perceptron aos estmulos recebidos funo da soma ponderada destes.
Ou seja:
y = (v ) (6)
onde:
- y a resposta do neurnio
- (v) a funo de ativao do neurnio, que correlaciona a sada aos estmulos de
entrada.
A funo de ativao (v) do perceptron deve ser no-linear, de forma a permitir
que a RNA como um todo possa representar funes no-lineares, alm de ser contnua e
suave, de forma a ser diferencivel em todo o seu intervalo de considerao (para o clculo
do parmetro , que utilizado no algoritmo de retropropagao e ser exposto adiante).
Um exemplo de funo de ativao comum em redes MLP a "funo logstica":

v

(7)

onde uma constante que, segundo LeCun (1989), possui em 1,7159 um valor adequado.
Neste caso, a derivada da funo de ativao (v) dada por:

'(v ) = .(v ).(1 - (v )) (8)


3.2. Redes neurais em camadas

Conforme mencionado, uma RNA do tipo MLP composta pela associao em
camadas de perceptrons. A Figura 3 apresenta um modelo para uma MLP.

Figura 3 - Modelo bsico para uma MLP.



Nesta arquitetura temos uma camada de entrada, onde so aplicados os estmulos
(sinais) de entrada da rede, que so propagados camada por camada at a sada da rede, desde


a 1. camada escondida de neurnios at a camada de sada da rede, que apresentar o
resultado de todo o processamento da rede ao meio externo.
Tambm deve ser notado que, em uma MLP, as entradas de um determinado neurnio
esto conectadas s sadas de todos os neurnios da camada imediatamente anterior e, a sada
deste neurnio, est conectada a todas as entradas dos neurnios da camada imediatamente
posterior.
No existe uma regra de formao bem definida que indique quantas camadas uma
rede deve possuir, ou mesmo quantos neurnios cada camada deve conter. Apenas possvel
afirmar que uma rede com um maior nmero de camadas poder assimilar melhor uma lei de
formao que pretende-se ensinar (porm a um custo computacional possivelmente elevado).
Por outro lado, redes com um nmero reduzido de camadas que contenham um nmero
suficiente de neurnios podem ser capazes de obter um alto desempenho de aprendizado. Tais
constataes, entretanto, so puramente empricas.


3.3. O aprendizado de uma RNA - O algoritmo de retropropagao

Durante a fase de aprendizado, para que a rede possa aprender o comportamento
desejado, pode ser utilizado um algoritmo recursivo como o algoritmo de retropropagao
(ou backpropagation).
Neste algoritmo, durante a fase de treinamento da rede, um padro de entrada x
apresentado rede, sendo propagado em direo sada, gerando nesta um padro o, o qual
comparado com o valor desejado d para o padro de entrada em questo.
A diferena d-o entre o padro desejado e o obtido de fato na sada da rede o erro
e desta fase de aprendizado para este padro. Se e=0, ento conclui-se que a rede
aprendeu o padro de entrada x. Se e0, ento o erro deve ser retropropagado (da camada
de sada em direo 1. camada escondida) de forma a ajustar os pesos das conexes entre os
neurnios das camadas.
Formalmente, temos que:
sinal de erro: ej = dj oj
onde:
- dj um elemento do vetor de sada desejado para o padro de entrada apresentado.
- oj um elemento do vetor de sada obtido com a propagao do vetor de entrada.
- ej um elemento do vetor de erro obtido.
De acordo com Andrews (1994), para minimizar as dificuldades de treinamento de
uma RNA, a funo de erro deve ser no linear. Assim, para o padro de entrada apresentado,
definimos a soma instantnea dos erros quadrticos na sada da rede por:

=
=
m
j
j
e
1
2
2
1
c (9)
onde:
- m o nmero de elementos do vetor de erro (que equivale ao nmero de neurnios
na camada de sada da rede).
Se considerarmos todos os padres de entrada a serem apresentados na fase de
treinamento, poderemos determinar o erro mdio quadrtico para estes padres durante uma


poca (d-se o nome de poca a cada propagao/retropropagao realizada para todos os
padres de entrada apresentados rede em sua fase de treinamento). Assim:

=
=
N
n
QM
n
N
1
) (
1
c c (10)
onde:
- N o nmero de padres de treinamento apresentados rede
- ) (n c o erro obtido na apresentao do padro n
Portanto, tanto menor o valor do erro mdio quadrtico (
QM
), tanto melhor foi o
aprendizado dos padres de entrada pela rede em uma determinada poca. Dessa forma, se

QM
= 0, a rede aprendeu com preciso absoluta todos os padres apresentados.
Assim, uma proposta para treinamento de uma MLP pode ser:

Enquanto
QM
no for suficientemente baixo:
a) Para cada padro de treinamento:
i. propagar este padro, em direo sada, camada por camada
ii. calcular o erro e entre a sada desejada e a sada obtida
iii. Retropropagar o erro, da sada em direo entrada, corrigindo os
pesos sinpticos de cada conexo.
iv. Fim
b) Atualizar o valor de
QM

Fim

No algoritmo mencionado acima, a correo do erro para ajuste dos pesos sinpticos
pode ser realizada atravs da regra delta. Este ajuste nos pesos sinpticos fundamental
para o aprendizado da RNA, uma vez que o conhecimento adquirido pela rede condensado
nestes. Considere a conexo existente entre dois neurnios de camadas consecutivas,
conforme mostra a Figura 4.

Figura 4 - Interconexo entre dois neurnios e seus parmetros.


Neste caso, a atualizao do peso sinptico
ji
entre estes neurnios, de uma iterao
para outra, ser dada por:

ji ji ji
t t e e e A + = + ) ( ) 1 ( (11)
onde:
-
ji
(t) o valor atual do peso sinptico
-
ji
a correo do peso sinptico a ser aplicada
-
ji
(t+1) o valor atualizado (prximo valor) do peso sinptico
O clculo da correo do valor do peso sinptico (
ji
) deve vir na direo contrria ao
gradiente do erro acumulado na propagao de uma poca das amostras de entrada (conjunto


de treinamento). Assim, de acordo com a regra delta, a correo do peso sinptico pode ser
dada por:

i j ji
y = A o q e (12)
onde:
- a taxa de aprendizado do neurnio (0 < q < 1), cujo valor, arbitrado pelo
usurio da rede, define quo rapidamente a rede dever convergir para o ponto de
mnimo.
- oj o gradiente local do neurnio j para a correo do erro, calculado em
funo do erro retropropagado pela rede.
- yi o valor da sada do neurnio i.
O valor do gradiente local oj para o neurnio j pode ser calculado da seguinte
forma:

j j
e = ' o , se o neurnio j pertence camada de sada;
ou

=
k
kj k j
e o o ' , Se o neurnio j pertence a uma camada escondida.
De forma a melhorar a convergncia da regra delta, pode ser utilizado um fator de
momento () que ir considerar o valor de Ae
ji
da iterao anterior para o clculo do
prximo valor:
) ( ) ( ) 1 ( ) ( t y t t t
i j ji ji
+ A = A o q e e (13)
sendo o fator de momento arbitrado entre 0 e 1.
De forma simplificada, o processo de criao e treinamento de uma rede neural pode
ser descrito na forma:

1. Criao da rede:
a. Definir o tamanho do vetor de entrada da rede, ou seja, o nmero de ns
da camada de entrada da rede.
b. Definir o tamanho do vetor de sada da rede, ou seja, o nmero de
neurnios da camada de sada da rede.
c. Definir o nmero de camadas escondidas da rede.
d. Definir o nmero de neurnios de cada camada escondida da rede.
e. Atribuir valores aleatrios (entre -1 e 1) para os sinais de polarizao de
cada neurnio.
f. Atribuir valores aleatrios (entre -1 e 1) para os pesos sinpticos de cada
conexo da RNA.
g. Definir a funo de ativao dos neurnios e sua derivada.
2. Treinamento da rede:
a. Definir os valores para q e .
b. Definir o valor limite para c
MQ
.
c. Enquanto c
MQ
no for suficientemente baixo:
i. Para cada padro de treinamento:
1. Aplicar o padro entrada x da RNA.
2. Calcular a sada y de cada neurnio da 1. camada
escondida, aplicando estas sadas s entradas da camada


subsequente, calculando tambm as sadas desta camada at a
camada de sada (propagao do sinal de entrada).
3. Calcular o erro e para este padro, comparando o valor
desejado para a sada (d) e o valor obtido na sada (o) a
partir da entrada aplicada.
4. A partir da camada de sada, em direo camada de entrada
da rede (retropropagao do erro):
a. Determine o gradiente local (o) de cada neurnio de cada
camada.
5. A partir da camada de sada, em direo camada de entrada
da rede:
a. Determine Ae de cada conexo sinptica.
b. Atualize e de cada conexo sinptica.
6. Fim.
ii. Atualize o valor de c
MQ
para esta poca.
iii. Fim.

Aps o treinamento da rede, o uso desta realizado simplesmente pela apresentao
de um padro de entrada qualquer, o qual propagado em direo sada da rede, onde
poder ser observada a resposta da rede ao estmulo de entrada apresentado.


4. IMPLEMENTAO SOBRE O CASO DO ROB PLANAR

A implementao e a simulao de uma rede neural do tipo MLP pode ser realizada
atravs do desenvolvimento de programas de computador em diversas linguagens. Estes
autores realizaram a implementao de RNAs na linguagem de programao do SciLab
(http://www.scilab.org).
De acordo com Cybenko (1989) e Hertz (1991), uma RNA com uma nica camada
intermediria suficiente para aproximar qualquer funo contnua. Por sua vez,
(CYBENKO, 1988) afirma que qualquer funo matemtica pode ser modelada atravs de
uma RNA com, no mximo, duas camadas intermedirias.
Para o modelo do rob planar apresentado neste artigo, todas as simulaes foram
realizadas com RNAs dotadas de duas camadas escondidas. Na simulao apresentada na
Tabela 1 foi utilizada uma RNA com dois neurnios na camada de entrada (associados s
coordenadas da posio desejada para a ferramenta: "X
P
" e "Y
P
"), duas camadas escondidas
com seis neurnios cada uma e dois neurnios na camada de sada (associados aos ngulos
"
1
" e "
2
" das juntas do rob). Nesta simulao foi utilizada uma taxa de aprendizado (q)
igual a 0,1 e um fator de momento () igual a 0,3. Foi utilizada uma funo de ativao do
tipo "logstica". A Tabela 1 apresenta os resultados para a simulao realizada.
Conforme pode ser notado atravs da Tabela 1, os resultados apresentados pela
simulao encontram-se, em sua maioria, relativamente prximos dos valores de treinamento,
o que pode justificar o uso deste mtodo como ferramenta de anlise do comportamento de
um rob, previamente concepo definitiva de seu modelo cinemtico inverso atravs de
mtodos algbricos.



Tabela 1 - Resultados para a simulao do rob planar

Treinamento e simulao da cinemtica inversa de um rob planar atravs de MLP
Comprimento do brao L1 = 3 (unidades) Comprimento do brao L2 = 2 (unidades)
Padres de treinamento Resultados da simulao
Entradas Sadas Entradas Sadas
Xp Yp
1

2
Xp Yp
1

2
Dif.
1
Dif.
2

(un.) (un.) (graus) (graus) (un.) (un.) (graus) (graus) (graus) (graus)
5,0 0,0 0,0 0,0 5,0 0,0 0,0 0,0 0,0 0,0
4,7 1,0 0,0 30,0 4,7 1,0 0,0 30,4 0,0 0,4
4,0 1,7 0,0 60,0 4,0 1,7 2,2 58,5 2,2 1,5
3,0 2,0 0,0 90,0 3,0 2,0 6,0 93,4 6,0 3,4
2,6 3,5 30,0 60,0 2,6 3,5 29,9 59,7 0,1 0,3
1,6 3,2 30,0 90,0 1,6 3,2 29,9 92,9 0,1 2,9
0,9 2,5 30,0 120,0 0,9 2,5 29,5 115,2 0,5 4,8
0,6 1,5 30,0 150,0 0,6 1,5 30,5 153,5 0,5 3,5
-0,2 3,6 60,0 90,0 -0,2 3,6 58,9 93,0 1,1 3,0
-0,5 2,6 60,0 120,0 -0,5 2,6 57,8 116,2 2,2 3,8
-0,2 1,6 60,0 150,0 -0,2 1,6 57,0 150,0 3,0 0,0
0,5 0,9 60,0 180,0 0,5 0,9 58,5 175,2 1,5 4,8
-1,7 4,0 90,0 60,0 -1,7 4,0 90,6 58,7 0,6 1,3
-1,7 2,0 90,0 120,0 -1,7 2,0 87,8 120,7 2,2 0,7
-1,0 1,3 90,0 150,0 -1,0 1,3 90,0 153,2 0,0 3,2
-3,5 2,6 120,0 60,0 -3,5 2,6 122,5 57,4 2,5 2,6
-3,2 1,6 120,0 90,0 -3,2 1,6 120,3 93,0 0,3 3,0
-1,5 0,6 120,0 150,0 -1,5 0,6 126,2 152,4 6,2 2,4
-0,5 0,9 120,0 180,0 -0,5 0,9 121,1 173,7 1,1 6,3
-4,6 1,5 150,0 30,0 -4,6 1,5 145,6 25,1 4,4 4,9
-4,3 0,5 150,0 60,0 -4,3 0,5 153,2 63,5 3,2 3,5
-3,6 -0,2 150,0 90,0 -3,6 -0,2 149,0 85,1 1,0 4,9
-2,6 -0,5 150,0 120,0 -2,6 -0,5 144,2 119,0 5,8 1,0
-0,9 0,5 150,0 180,0 -0,9 0,5 149,5 174,5 0,5 5,5
-5,0 0,0 180,0 0,0 -5,0 0,0 180,0 5,2 0,0 5,2
-4,7 -1,0 180,0 30,0 -4,7 -1,0 179,1 29,5 0,9 0,5
-4,0 -1,7 180,0 60,0 -4,0 -1,7 178,0 60,7 2,0 0,7
-3,0 -2,0 180,0 90,0 -3,0 -2,0 180,0 91,1 0,0 1,1
-2,0 -1,7 180,0 120,0 -2,0 -1,7 180,0 121,0 0,0 1,0
-1,3 -1,0 180,0 150,0 -1,3 -1,0 179,8 150,0 0,2 0,0


5. CONSIDERAES FINAIS

Atravs deste trabalho pode-se constatar que a aplicao das RNAs em robtica
apresenta resultados satisfatrios para a simulao prvia do comportamento de robs,


permitindo que falhas de projeto ou oportunidades de otimizao possam vir a ser detectadas.
O grande inconveniente no uso das RNAs em robtica encontra-se na dificuldade de se
encontrar a topologia de rede mais adequada para cada caso a ser simulado. Utilizar um
nmero grande de camadas no recomendado, pois cada vez que o erro medido durante o
treinamento propagado para a camada anterior ele pode vir a se tornar mais elevado.
O nmero de nodos nas camadas intermedirias de uma RNA depende fortemente da
distribuio dos padres de treinamento e validao da rede. A utilizao de muitas unidades
pode facilitar a memorizao dos padres de treinamento. Contudo, isso limitar a capacidade
de extrair as caractersticas gerais que permitem a generalizao ou reconhecimento de
padres no vistos durante o treinamento (este problema chamado de overfitting). Por outro
lado, um nmero muito pequeno de nodos pode forar a rede a gastar tempo em excesso
tentando encontrar uma representao tima. Se o nmero de exemplos for muito maior que o
nmero de conexes entre nodos o overfitting improvvel, mas pode ocorrer underfitting (a
rede no converge durante o seu treinamento).
Finalmente, a aplicabilidade desta proposta em sala de aula justifica-se pela
necessidade de fornecer aos alunos dos cursos de engenharia novas ferramentas para o estudo
de problemas em robtica. Neste sentido, o uso das RNAs procura instigar os alunos a
pesquisarem novas e melhores ferramentas para a soluo de problemas, considerando-se,
assim, a indissociabilidade entre ensino e pesquisa. Especificamente, no caso destes autores, o
mtodo apresentado ao longo deste texto foi introduzido no decorrer da disciplina
Inteligncia Artificial, do Curso de Cincia da Computao. Esta proposta foi apresentada
procurando fomentar entre os alunos, alm do uso propriamente deste mtodo, a necessidade
do constante desenvolvimento de pesquisas como forma de continuamente buscar o
aperfeioamento de solues em problemas de engenharia.


REFERNCIAS BIBLIOGRFICAS

ANDREWS, R.; GEVA, S. Rule extraction from a constrained error backpropagation MLP.
In: Proceedings of the 5th Australian Conference on Neural Networks, pp. 9-12, Brisbane,
Austrlia, 1994.
BURKE, H.; ROSEN, D.; GOODMAN, P. Comparing the prediction accuracy of artificial
neural networks and other statistical models for breast cancer survival. In G. TESAURO, D.
S. TOURETZKY, T. K. LEEN, editors, Neural Information Processing Systems 7. MIT Press,
1995.
GRAIG, J. J. Introduction to robotics: mechanics and control. 2
nd
ed. New York: Assison-
Wesley Publishing Company, 1989.
CYBENKO, G. Continuos valued neural networks with two hidden layers are sufficient.
Technicalreport, Departmentof Computer Science, Tufts University, 1988.
CYBENKO, G. Approximation by superpositions of a sigmoid function. Mathematic sof
Control, Signals and Systems, 2:303-314, 1989.
FAHLMAN, S. E. An empirical study of learning speed in backpropagation networks.
Technical report, carnegie Mellow University, 1988.


GERMAN, S.; BIENESTOCK, E.; DOURSAT, R. Neural networks and the bias-variance
dilemma. Neural Computation, 4:1-58, 1992.
HAYKIN, S. 2001. Redes Neurais Princpios e Prtica, 2. Ed. Porto Alegre: Bookman,
2001. (ISBN: 978-85-7307-718-6)
HERTZ, J.; KROGH, A.; PALMER, R.G. Introduction to the Theory of Neural Computation,
volume Lecture Notes. Vol. 1 of Santa Fe Institute Studies in The Science of Complexity.
Addison-Wesley, 1991.
HUSH, D. R.; HORNE, B. G. Progress in Supervised Neural Networks Whats New Since
Lippmann?, IEEE Signal Processing Magazine, January/1993, pp. 8-39.
LeCUN, Y. Generalization and network design strategies. Technical Report CRG-TR-89-4,
Department of Computer Science, University of Toronto, Canada, 1989.
LIPPMANN, R. P. An Introduction to Computing with Neural Nets. IEEE ASSP Magazine,
April/1987, pp. 4-22.
MIGHELL, D.A.; WIKINSON, T.S.; GOODMAN, J.W. Back propagations and its
application to handwritten signature verification. In R.P. LIPPMANN, J.E. MODDY, D.S.
TOURETZKY, editors, Advances in Neural Information Processing Systems 2. Morgan
Kaufmann, 1988.
REATEGUI, E.; CAMPBELL, J.A. A classification system for credit card transactions. In
Proceedings of the Second European Workshop on Case-Based Reasoning, pp.167-174,
November 1994.
YODA, M. Predicting the Tokyo stock market. John Wiley & Sons, 1994.


SIMULATION OF THE INVERSE KINEMATIC MODEL OF A ROBOT
BY THE USE OF ARTIFICIAL NEURAL NETWORKS:
A COMPLEMENT TO THE TEACHING OF ROBOTICS

Abstract: Teaching robotics necessarily involves the study of the kinematic models of robot
manipulators. In turn, the kinematics of a robot manipulator can be described by its forward
and reverse models. The inverse kinematic model, which provides the status of the joints
according to the desired position for the tool of the robot, is typically taught and described in
robotics classes through an algebraic way. However, the algebraic representation of this
model is often difficult to obtain. Thus, although it is unquestionable the need for the accurate
determination of the inverse kinematic model of a robot, the use of artificial neural networks
(ANN) in the design phase can be very attractive, because it allows us to predict the behavior
of the robot before the formal development of its model. In this way, this paper presents a
relatively quick way to simulate the inverse kinematic model of a robot, thereby allowing the
student to have an overview of the model, coming to identify points that should be corrected,
or that can be optimized in the structure of a robot.

Keywords: Engineering education, Artificial neural networks, Robotics

Вам также может понравиться