Вы находитесь на странице: 1из 60

PROYECTO DE DISEÑO

MECATRONICO

NOMBRE:

 ZAPATA VILLEGAS JUAN DANIEL


 CHAVEZ CARRILLO NICOLE YHOALEDIO
 SIGLER JAIRO NOEL

13 DE MARZO DE 2018
UCB
TARIJA
1. INTRODUCCIÓN

Antecedentes:

A nivel mundial existen varios factores que afectan económicamente al mercado de

productos como las grandes farmacias, supermercados, autopartes, tienda de repuestos,

etc. Entre estos factores el más significativo se encuentra en el tiempo de atención al

cliente, es ineficiencia y eso se representa directamente en costo. Otro factor importante

que influyen mucho es la falta de seguridad, si bien las cadenas de (Supermercados,

Farmacias, etc.) constan de variedad de cámaras para evitar robos, pues hasta el día de

hoy que se aplicaron estas tecnologías no se perdieron del todo los problemas de

seguridad.

Conforme paso el tiempo buscaron maneras de alivianar el trabajo de lo humanos en este

tipo de mercados donde un puñado pequeño pero creciente de compañías de robótica que

vieron de aplicar sus servicios en el mercado de almacenamiento con sistemas que

trabajan con humanos en el cumplimiento de pedidos. En general, estamos hablando de

plataformas de ruedas inteligentes que pueden entregar bienes de forma autónoma de un

lugar a otro, mientras que los humanos continúan haciendo la parte más difícil: sacar

artículos de los estantes. Aquí hay mucho valor, ya que usar robots para mover cosas

libera a los humanos para que dediquen más tiempo a la recolección.

Lo ideal sería, sin embargo, tener al robot haciendo la selección también, pero este es un

problema muy difícil en términos de detección, planificación del movimiento y

manipulación. Y conseguir que un robot lo haga confiablemente a una velocidad que lo

haga un reemplazo humano viable es aún más difícil.


Las incorporaciones de tecnologías robóticas en los mercados de productos de nuestro

país Bolivia no fueron aplicados, siendo una problemática que aqueja a las empresas más

grandes donde hay mucho movimiento de economía diariamente.

Para tener una base clara de la necesidad que se pueden llegar encontrar en este tipo de

mercados en Bolivia creimos necesario hacer unas pequeñas encuestas para escuchar la

voz del cliente, en esta oportunidad decidimos basarnos en un mercado en particular como

ser las Farmacias que tienen movimientos económicos mayores en Bolivia

específicamente pudimos recopilar datos de los departamentos de La Paz y Tarija, que

veremos a continuación.

Departamento de La Paz: Tuvimos dificultades al hacer elaborar las encuestas con un

intermediario ya que las farmacias grandes se negaban a dar informacion alguna por

miedo a tener observaciones o consecuencias futuras por producto de su encuesta.


Encuesta La Paz Encuesta Tarija

Planteamiento del problema:

En el planteamiento del problema podemos observar que existen principalmente pérdida

de tiempo que el humano realiza en las actividades de compra y venta Farmacéutica.

Planteamiento del problema en el mercado de Fármacos:

Dado el caso de una farmacia pues automatizar tiene muchas ventajas, aunque estas no

siempre compensan los costes que supone este tipo de sistemas. No se trata precisamente

de renovar ordenadores, y «no en todas las farmacias compensa este tipo de sistemas».

Asi que deducimos las siguientes dificultades en las farmacias donde existe más

movimiento.

 Tarea de recolección consume tiempo

 Control de caducidad del medicamento

 Reduce el error del farmacéutico

 Sistema antirrobo

 El farmacéutico se dedica a hacer su trabajo


Análisis previo de los problemas para ver si podemos dar solución y de qué

manera:

Tarea de recolección consume tiempo

En un sistema clásico de inventariado, los cajones están ordenados por el nombre del

medicamento (lo mismo ocurre en las librerías con el orden por nombre de autor). De

modo que si sale al mercado un nuevo fármaco con un nombre que empieza por z no hay

mucho problema: siempre suele haber espacio al fondo, junto a la zeta. Pero, ¿y si el

medicamento empieza por m? Pues implica mover todos los medicamentos uno o varios

huecos para hacer sitio al nuevo. La mitad de los cajones de toda la tienda, lo que supone

una locura.

El sistema que usan los robots es el llamado orden caótico o de multiubicación, donde un

mismo medicamento puede ocupar dos, tres o diez baldas diferentes y encontrarse

repartido en el inventario. Además, su espacio (delimitado por coordenadas) no queda

asignado a un medicamento, sino al primero que llega.

Control de caducidad del medicamento

Es algo que no tiene implicación, por ejemplo, un robot de este tipo en una fábrica de

muebles. Pero en farmacia la fecha de caducidad es crucial. No es que no se pueda vender

un producto caducado, sino que tres meses antes de que caduque debería estar fuera de

circulación. Comprobar producto a producto de manera manual su caducidad es un tiempo

que no se tiene.

Sin embargo, al robot se le puede decir la fecha de caducidad de cada medicamento. Si

hay dos medicamentos idénticos, elegirá siempre aquel que tenga menos tiempo de vida

por delante, y lo hará en centésimas de segundo.

Reduce el error del farmacéutico

Este es uno de los puntos que decantan la balanza hacia la automatización.


«El robot no se va a equivocar al leer una receta. Te puedes equivocar tú [farmacéutico]

al seleccionar un medicamento, pero el robot no».

No es lo mismo equivocarse vendiendo ropa que un fármaco. La farmacia vende

productos que la persona necesita para estar sana, o que pueden ser perjudiciales si no los

necesita para nada y se los toma.

Un ejemplo. Si en lugar de Gemfibrozilo (para el colesterol), cogemos el medicamento

que está al lado en el cajón, la Gabapentina (que sirve para dolores crónicos y epilepsias),

podemos causar un daño enorme al paciente.

Sistema antirrobo

Aunque este tipo de robots no están pensados para evitar robos, el que los medicamentos

estén sellados en una bóveda ayuda a que no sean fácilmente extraíbles.

Eso, por un lado; por otro, el evitar al farmacéutico a desplazarse al almacén hace que no

deje el mostrador y la caja sin vigilancia, una ventana de tiempo que los ladrones suelen

aprovechar.

El farmacéutico se dedica a hacer su trabajo

Una de las claves de instalar un robot de este tipo es facilitar a los trabajadores centrarse

en su trabajo en lugar de realizar tareas impropias. Que una persona que ha estudiado la

carrera de Farmacia dedique dos de sus ocho horas laborales a registrar productos en un

archivo no tiene mucho sentido y es una pérdida de tiempo considerable para la empresa.

Un farmacéutico es un profesional con notables conocimientos de química y medicina

que puede asesorar a los clientes sobre las mejores alternativas para sus problemas de

salud. Ese es su trabajo, no encargarse del almacén, y es lo que permite el robot.


Cuando un farmacéutico entra en una farmacia un lunes a las nueve, lo último que quiere

es ponerse a inventariar.

Puntos a tomar en cuenta que se encontrarían en un sistema como estos:

«Si se va la luz, por ejemplo, estás vendido», aunque no de inmediato. Este tipo de robots

podrían venir acompañados con un sistema de baterías que dan servicio tanto al robot

como a uno o dos ordenadores durante entre dos y cuatro horas. De modo que existe cierta

autonomía, pero también el robot en este caso no debería necesitar laminación para

trabajar. No es algo frecuente en nuestro país, pero es algo a tener muy en cuenta.

En esta misma línea hay que contar con el consumo constante de energía que supone este

tipo de dispositivos. Debido tanto al brazo como al ordenador asociado, el consumo no

baja en ningún momento de 285w. Todo el día, por todo el año. Es algo que hay que

incluir al coste de compra y de mantenimiento.

También hay que contar con que es que quita un espacio considerable. Si se usa con

frecuencia, lo cierto es que ahorra espacio, pero si su uso es bajo se trata de un bulto

gigantesco.

También existen errores imprevistos como la rotura de algún componente o que un

medicamento que no esté perfectamente alineado con el robot (y que este en lugar de

cogerlo lo empuje o lo tire).

En el extremo de los accidentes laborales, aunque ayude mucho en el día a día. No está

pensado para trabajar codo con codo con un humano porque el brazo debería transportarse

a una velocidad alta por ejemplo de 30 km/h y el golpe puede ser de gravedad (además

cerca de la cabeza). Un operario podría intentar eludir la seguridad y meterse dentro del

almacén robotizado, cerrando la puerta, y exponiéndose. Aunque, dicho sea, le costaría

bastante burlar los sensores de esta herramienta y provocar un accidente, incluso aunque

vaya buscándolo.
En un inicio se trata de algo novedoso, pero poco a poco pasa a ser una herramienta de

uso cotidiano y a volverse casi indispensable para el día a día.

Es posible que de aquí a unos años veamos cómo tiendas de todo tipo (y no solo

farmacias) se han adaptado al uso de elementos robóticos para facilitar las tareas de los

empleados y, al mismo tiempo, dar un mejor servicio al consumidor.

Propuesta de solución:

Después de analizar el problema deducimos que la necesidad de un sistema seleccionador

de productos sería de gran utilidad en Tarija, haciendo nuestro caso de estudio

específicamente en las farmacias donde más movimiento existe como en los

FARMACORPS.

Deacuerdo a las encuestas realizadas se dedujeron que las actividades que debiéramos

tomar en cuenta para la implementación del sistema seria las siguientes:

 Tarea recolección consume tiempo

 Control de caducidad del medicamento

 Reduce el error del farmacéutico

 Sistema antirrobo

 El farmacéutico se dedica a hacer su trabajo

Considerando el factor tiempo que tenemos para desarrollar el proyecto, así también por

el bajo presupuesto que contamos como estudiantes universitarios a diferencia del

presupuesto de una EMPRESA no podemos abarcar todas las necesidades que se

plantearon, por lo que se decidió abarcar al menos una.

Y esta elección se basó en las encuestas realizadas en los departamentos de La Paz y

Tarija Bolivia el 12 de marzo de 2018.

Con la recopilación de los datos formulamos se armará lo que es nuestra CASA DE LA

CALIDAD.
Como tal implementaremos un sistema que consista en un brazo robótico articulado que

al recibir cierta informacion de un pedido mediante un sistema, seleccione los productos

requeridos poniéndolos en una bandeja, utilizando para ello visión artificial

especialmente en lo productos especiales.

Objetivos:

Objetivo General

Implementación de un Sistema Mecatrónico el cual consta en desarrollar un brazo

robótico que cumpla la función de seleccionar productos en diferentes áreas del mercado

que no requieran cobots (No está pensado para trabajar codo con codo con un humano).

Adaptando VISION ARTIFICIAL en el brazo robótico.

Objetivos Especificos:

 Reconocerá objetos que este registrado en su sistema.

 Cogerá el objeto cuando este lo reconozca el producto especial.

 Una vez cogido el objeto lo pondrá en la canasta de compra

 Cuando el sistema reciba un producto común lo encontrara mediante una matriz

de ubicación.

Justificación:

La razón por la que elegimos desarrollar este proyecto fue para cubrir una necesidad que

hoy en día es muy requerida por los diferentes tipos de negocios como por ejemplo

(supermercados y farmacias), donde este proyecto fue elegido por que es capaz de realizar

trabajos que se apliquen en diferentes áreas así satisfaciendo varias necesidades.

Alcances:

 El brazo robótico solo podrá coger un producto a la vez.

 El brazo podrá recolectar un pedido a la vez.


 El robot solo podrá recolectar productos que se encuentren en el

sistema.

 El robot podrá seleccionar un producto especial en un armazón.

 El robot recibirá los datos en formato de texto por medio del

sistema

Límites:

 El robot no podrá atender al cliente directamente ni cobrar.

 El robot no podrá ordenar los productos que falten en los estantes.

 El robot no podrá trabajar en un ambiente obscuro.

 El robot no podrá no podrá trabajar con personas en su espacio de

trabajo.

 El robot tendrá un límite de altura a trabajar.

 El robot no podrá evitar robos directos.

 El robot no podrá buscar productos que no se encuentren

registrado en su sistema.

2. Marco Teórico.

El robot PUMA (Programmable Universal Machine for Asambly) es un brazo articulado

con 6 articulaciones rotatorias que le proporcionan 6 grados de libertad y le permiten

posicionar y orientar su herramienta final.

INTRODUCCIÓN

En este apartado se mostrara la cinemática del robot, así como

también el movimiento del mismo con respecto a un sistema de

referencia.
Para este análisis se parte del estudio de la rotación y traslación de los diferentes

elementos del robot en el plano, introduciendo adecuadamente las operaciones de

rotación, traslación y cambio de sistemas de referencia para su resolución y

caracterización.

A la vez se mostraran los diferentes campos de estudio y la aplicación de técnicas

especiales para realizar un análisis acertado de la cinemática de los robots.

CINEMÁTICA DEL ROBOT

Existen dos problemas fundamentales para resolver la cinemática del robot, el problema

cinemático directo y el problema cinemático inverso.

La cinemática, consiste en estudiar el movimiento del sistema en movimiento, con

respecto a un sistema de coordenadas de referencia previamente determinado como una

función del tiempo. Al ser un estudio cinemático, este no considera las fuerzas dinámicas

que intervienen en el movimiento. (OLLERO A., 2001, pág. 39)

conocidos los valores de movimiento de las articulaciones y los parámetros geométricos

de los elementos del robot.

Para este proyecto se enfocar en la utilización de la cinemática directa como herramienta

para la caracterización de los robots y para las demostraciones que se mostraran más

adelante. (OLLERO A., 2001, pág. 39)

CINEMÁTICA INVERSA
Resuelve la configuración que debe adoptar el robot para una posición y
orientación del extremo conocidas. En este caso, los elementos del robot
convergen de tal manera que el extremo final del robot se encuentre en
una posición determinada.

POSICIÓN Y ORIENTACIÓN DEL ROBOT

En robótica es de vital importancia el representar adecuadamente posiciones y

orientaciones en el plano espacial. Es conveniente mostrar los robots mencionados en el

primer capítulo para delimitar sus posiciones y orientaciones en el espacio. Este interés

es evidente en vehículos autónomos aéreos o submarino. Es importante mostrar el

avance del robot durante su desarrollo para así demarcar las posiciones que este va

ocupando a través del tiempo y así poder

estimar y determinar su trayectoria y posición final.

EN EL PLANO

Como introducción al movimiento espacial de los robots, las consideraciones

geométricas que se realizan para el estudio de la cinemática de los robots y su análisis

matricial, establecen que se necesita 2 sistemas de coordenadas y 1 ángulo de

orientación.

Se supone un sistema de coordenadas de referencia fijo al que se designa como sistema


[A]. La posición de 1 punto se representa mediante el vector posición AP, como se
muestra en la figura 2.2 cuyas componente son las coordenadas:
Considere otro sistema en el cual se trata de localizar a un robot móvil que se ha

desplazado en el plano, un segundo sistema se colocara de tal forma que sea solidario con

el robot con Yb en la orientación del robot. (OLLERO A., 2001, pág. 40)

Si se expresa los vectores unitarios de los 2 sistemas de coordenadas, [A] y [B], por lo
que se los escribirá de acuerdo a la siguiente disposición matricial:

Lo cual se conoce como matriz de rotación, que son de vital importancia en modelos

empleados en la robótica convencional.

Ahora suponer 1 sistema [B] diferente del anterior, el cual tiene sus vectores unitarios

coincidentes y en la misma dirección con los del vector [A], como se muestra en la figura

2:4; en este particular problema se presenta el movimiento que realizaría un robot que se

ha desplazado sin cambiar de orientación. El origen del sistema [B] se encuentra

desplazado con respecto a sistema de coordenadas [A] mediante el vector APORGB.

(OLLERO A., 2001, pág. 41)


Por consiguiente, las coordenadas de cualquier punto del plano en los 2 sistemas de

coordenadas están relacionados mediante las siguientes expresiones:

Las componentes de los vectores de estas expresiones, pueden sumarse por estar estos

vectores en la misma dirección.

ANALISIS ESPACIAL

Dado que los robots industriales, se mueven en un espacio de 3 dimensiones, se dice que

este movimiento lo realizan en el espacio por lo que obtenemos diferentes expresiones

para modelar matemáticamente la cinemática del robot.

Ahora, partiendo de un vector AP que parte de 1 sistema de coordenadas [A], tal como se

muestra en la figura 2:5, el cual se describe la siguiente expresión:


Donde px, py, pz son las coordenadas del punto extremo del vector AP; para el análisis

espacial de los robots, es común el uso de los desarrollos de Craig (1986). “Los cuales

muestran que la orientación de 1 cuerpo se escribe mediante el sistema de coordenadas

{B} solidario al cuerpo. Si se desea representar la orientación con respecto al sistema de

coordenadas {A}” (OLLERO A., 2001, pág. 46).

En la mayor parte de la robótica es necesario realizar cambios entre sistemas de referencia

de los eslabones en el espacio. Así, en robots convencionales como los manipuladores,

los modelos en los que se basan, involucran cambios entre sistemas asociados a las

diferentes articulaciones de la cadena cinemática para describir la posición y orientación

del extremo del manipulador con respecto a su eslabón base.

Como se vio en el apartado anterior, las transformaciones consisten esencialmente de

traslaciones y rotaciones de los sistemas de coordenadas móviles por lo que para este caso

la traslación se puede expresar abiertamente según la siguiente ecuación:


Como caso particular, a partir de la matriz de rotación en el espacio, se define una

orientación del sistema que permite representar la orientación de sistemas girados

únicamente sobre uno de los ejes principales del sistema de referencia, se expresa la

siguiente expresión homogénea: (OLLERO A., 2001, pág. 50).


APLICACIÓN DE MATRICES HOMOGENEAS

Para el correcto análisis de las matrices y su posterior multiplicación matricial, es

necesario la transformación de perspectiva nula y escalado global unitario para

homogenizar la matriz; la matriz T homogénea resultará ser de la siguiente forma:

Nota: para efecto de análisis y simplificación del área de trabajo, a partir de este punto se

considerará:

Es importante recalcar que en la robótica convencional solo hay rotación alrededor del

eje Z (𝜃) y el eje X (∝) como se explica más adelante en el apartado del convenio de

Denavit-Hartenberg. También es vital señalar que las Matrices R de este segmento, son

matrices normalizadas para su posterior aplicación.


TRANSFORMACIONES COMPUESTAS

Muchos de los problemas de la robótica, involucran necesariamente una serie de

transformaciones compuestas que se generan a partir de varias operaciones elementales

de traslación y rotación de los diferentes eslabones del robot analizado.

Por lo que se infiere, que para lograr conocer la posición exacta en la que se encuentra el

extremo último del robot, es necesario estudiar la transformación compuesta que

relaciona este último extremo, con el sistema de coordenadas tomado de referencia

absoluta para el robot, el cual se encuentra en la base del robot manipulador. (OLLERO

A., 2001, pág. 54)

Por lo que si tenemos por ejemplo, una traslación y una posterior rotación, la matriz

resultante del producto matricial entre la matriz de traslación y la rotación, nos dará como

resultado, una matriz que permita encontrar transformar las coordenadas del último punto

del robot, respecto al sistema de coordenadas de referencia.

Dado que un robot, es considerado como una cadena cinemática que cuenta con eslabones

y pares cinemáticos; se puede establecer un sistema de referencia fijo a la base del robot

a partir del cual se puede caracterizar cada elemento del robot respecto a dicho sistema

de referencia.

La matriz de transformación homogénea que representa la posición y la orientación del

sistema asociado a dos eslabones contiguos del robot se denomina matriz inversa

Cada una de las matrices 𝑖−1𝑇𝑖 representa el cambio base que permite pasar de 1 sistema

asociado al eslabón i-1 asociado al eslabón i. Esta matriz dependerá de otras constantes

geométricas del robot y de sus GDL (q). En términos generales para n eslabones la

expresión quedaría: (BARRIENTOS A., 2007, págs. 119-122)


Por lo que para un robot con 6 grados de libertad como el analizado en este proyecto, la

matriz T estará expresada de la siguiente manera:

El modelado y control de robot hace necesario el considerar las diferentes posiciones y

orientaciones que tiene el robot en el espacio

ALGORITMO DENAVIT-HARTENBERG (MODELO STANDARD)

En la década de los 50, durante el año de 1955 Denavit y Hartenberg, propusieron un

método muy sistemático para descubrir y presentar la geometría espacial de los diferentes

elementos de la cadena cinemática, particularmente orientada hacia los robots, con

respecto a 1 sistema de coordenadas fijo

Este algoritmo logro reducir el problema cinemático directo a solo encontrar una matriz

de transformación homogénea 4 x 4, la cual relaciona la localización espacial del robot

respecto al sistema de coordenadas en la base

OBTENCIÓN DEL MODELO CINEMÁTICO DIRECTO

Este innovador sistema, establece la localización que debería tomar cada sistema de

coordenadas {Si}, que se encuentre ligado a un eslabón i de una cadena articulada para

poder sistematizar de manera sencilla la obtención de las diferentes ecuaciones

cinemáticas que conforman la cadena completa. (BARRIENTOS A., 2007, págs. 124-

125)
Poniendo en práctica lo mencionado, se podrá pasar de un eslabón al siguiente mediante

4 transformaciones básicas que dependen únicamente de las características físicas –

geométricas del eslabón.

Las 4 transformaciones, parten del hecho de colocar adecuadamente el sistema de

coordenadas de cada eslabón, permitiendo así reducir de 6 a 4 los GDL que comúnmente

se encuentran y que dependen de la geometría del eslabón a analizar. Estas 4

transformaciones son una sucesión de rotaciones y traslaciones en el orden en el que se

ha movido el robot y que permite relacionar el sistema de referencia del eslabón i-1 con

el siguiente sistema de referencia del eslabón i, esto se puede apreciar mejor en la figura

2:7.

Estas transformaciones son:

1) Rotación alrededor del eje zi-1 un ángulo de 𝜃𝑖

2) Traslación a lo largo de zi-1, una distancia de di; vector di(0,0, di)

3) Traslación a lo largo de xi-1, una distancia de ai; vector ai(ai,0,0)

4) Rotación alrededor del eje xi con un ángulo de ∝𝑖

Es importante remarcar el hecho de que el paso al sistema de referencia i-1 al sistema i se

cumple, sí y solo sí, se realizan adecuadamente los pasos establecidos por Denavit-

Hartenberg para su modelo matemático.


Como norma general, para este tipo de análisis se debe remarcar en una matriz los

respectivos movimientos que realiza el robot de acuerdo al convenio D-H, esto se debe a

que el producto Matricial no es conmutativo (el orden de los factores, sí afecta el

resultado), las transformaciones se las debe realizar en el orden establecido, por lo que se

obtiene la siguiente matriz:

i-1
A = R(z,θ)(θi) . T (0,0,di) . T(ai,0,0) . R(x,)(i)

Ecuación 2-11 Transformación de Matrices para el algoritmo D-H

artiendo del apartado anterior, usando las ecuaciones para cada caso de rotación o

traslación, se obtiene el siguiente producto matricial:

La ecuación 2-12 muestra el resultado esperado del algoritmo D-H, donde

𝜃𝑖, 𝑑𝑖, 𝑎𝑖, ∝𝑖 son los parámetros D-H del i-ésimo eslabón del robot.

Esta matriz 4x4 es resultado de la multiplicación de las matrices 4x4 homogéneas de

rotación y traslación respectiva para el análisis del sistema. Esta matriz Homogénea se

puede considerar en 4 Sub-matrices las cuales son: (R.C. Gonzalez; K.S. Fu; C.S.G Lee;,

1987, pág. 29)


1.La sub-matriz 3x3 superior izquierda, es la representación de la matriz de rotación del

robot.

2. La sub-matriz superior derecha 3x1 representa el vector posición del origen del

sistema de coordenadas respecto al sistema de referencia.

3. La sub-matriz inferior izquierda 1x3 representa la transformación de perspectiva.

4. La sub-matriz inferior derecha 1x1, representa el factor de escala global.

La matriz de transformación homogénea se puede utilizar para explica la relación

geométrica que existe entre el sistema de referencia de la base, con un sistema de

coordenadas de referencia en el eslabón.

PARAMETROS D-H

Los 4 parámetros D-H, los cuales son 𝜃𝑖, 𝑑𝑖, 𝑎𝑖, ∝𝑖 dependen únicamente de las

características geométricas de cada eslabón y par cinemático que une a los eslabones. A

continuación se detallara el significado de cada uno de estos parámetros:


𝜃𝑖: Es el ángulo formado por el eje Xi-1 con el sistema de coordenadas Xi medido en un

plano perpendicular al eje Zi, utilizando la regla de la mano derecha. Es un parámetro

variable en articulaciones de revolución.

𝑑𝑖: Es la distancia a lo largo del eje Zi-1 desde el origen del sistema de coordenadas (i-1)

hasta la intersección con el eje Zi-1 con el eje Xi. Para la mayoría de robots es 1 parámetro

constante debido a su geometría, pero variable en articulaciones prismáticas.

𝑎𝑖: Es la distancia a lo largo del eje Xi que va desde la intersección del eje Zi-

1 con el Xi, hasta el origen del sistema de coordenadas (i-ésimo), para los pares rotatorios.

En el caso de pares prismáticos, se calcula como la distancia más corta entre los ejes de

los sistemas Zi-1 y Zi

∝𝑖: Es aquel ángulo determinado por la separación del eje Zi-1 y Zi, medido en un plano

perpendicular al eje Xi, utilizando la regla de la mano derecha.

PASOS PARA LA OBTENCIÓN DEL MODELO DENAVIT-HARTENBERG

Como se había mencionado anteriormente en este capítulo, para la correcta elaboración

del análisis cinemático de la cadena cinemática (robot), se debe seguir una serie de pasos

que permitirán de manera acertada determinar tanto los parámetros D-H, como la matriz

de transformación del robot analizado.


Los parámetros determinados por Denavit-Hartenberg son:

DH1.Numerar los eslabones comenzando con 1 (primer eslabón móvil dela cadena) y

acabando con n (último eslabón móvil). Se numerara como eslabón 0 a la base fija del

robot.

DH2.Numerar cada articulación comenzando por 1 (la correspondiente al primer grado

de libertad y acabando en n).

DH3.Localizar el eje de cada articulación. Si esta es rotativa, el eje será su propio eje de

giro. Si es prismática, será el eje a lo largo del cual se produce el desplazamiento.

DH4.Para i de 0 a n-1, situar el eje Zi, sobre el eje de la articulación i+1.

DH5.Situar el origen del sistema de la base (S0) en cualquier punto del eje Z0. Los ejes

X0 e Y0 se situaran dé modo que formen un sistema dextrógiro con Z0.

DH6.Para i de 1 a n-1, situar el sistema (Si) (solidario al eslabón i) en la intersección del

eje Zi con la línea normal común a Zi-1 y Zi. Si ambos ejes se cortasen se situaría (Si) en

el punto de corte. Si fuesen paralelos (Si) se situaría en la articulación i+1.

DH7.Situar Xi en la línea normal común a Zi-1 y Zi.

DH8.Situar Yi de modo que forme un sistema dextrógiro con Xi y Zi.

DH9.Situar el sistema (Sn) en el extremo del robot de modo que Zn coincida con la

dirección de Zn-1 y Xn sea normal a Zn-1 y Zn

DH10.Obtener Øi como el ángulo que hay que girar en torno a Zi-1 para que Xi-1 y Xi

queden paralelos.

DH11.Obtener Di como la distancia, medida a lo largo de Zi-1, que habría que desplazar

(Si-1) para que Xi y Xi-1 quedasen alineados.

DH12.Obtener Ai como la distancia medida a lo largo de Xi (que ahora coincidiría con

Xi-1) que habría que desplazar el nuevo (Si-1) para que su origen coincidiese con (Si).
DH13.Obtener ai como el ángulo que habría que girar en torno a Xi (que ahora coincidiría

con Xi-1), para que el nuevo (Si-1) coincidiese totalmente con (Si).

DH14.Obtener las matrices de transformación i-1Ai.

DH15.Obtener la matriz de transformación que relaciona el sistema de la base con el del

extremo del robot T = 0Ai, 1A2... n-1An.

DH16.La matriz T define la orientación (sub-matriz de rotación) y posición (sub-matriz

de traslación) del extremo referido a la base en función de las n- coordenadas articulares.

(BARRIENTOS A., 2007, pág. 97)

Una vez que se han definido los diferentes parámetros característicos del Algotirmo D-

H, el cálculo de las relaciones entre eslabones consecutivos de una cadena cinemática

(robot) es inmediato ya que se aplica directamente a las matrices T anteriormente

señaladas que se obtienen como un conjunto de matrices A.

MODELO INVERSO DEL ROBOT

Se diferencia principalmente del primer caso Directo, con el fin de controlar la posición

y orientación del efector final del Robot para alcanzar su objetivo es mucho más versátil

la cinemática inversa.

Este método consiste en hallar valores que deben adoptar las coordenadas articulares del

robot estudiado, de tal manera que su extremo se posiciones y oriente según una

localización espacial específica.

Al igual que el problema de cinemática directa, este sistema es sistemático y utiliza

matrices de transformación homogéneas básicas como las ecuaciones 2:8 y

diferentemente al problema cinemático directo, la obtención de las ecuaciones del robot,

dependen fuertemente de la configuración del robot.


Existen muchas posibilidades para resolver el problema cinemático inverso, una de ellas

es encontrar una solución cerrada encontrando la relación matemática explicita, de la

forma:

Por lo que este tipo particular de solución, brinda las ventajas que a continuación se

presentan:

1.En muchas aplicaciones, el problema cinemático inverso ha de resolverse en tiempo

real (por ejemplo, en el seguimiento de una determinada trayectoria). Una solución de

tipo iterativo no garantiza tener la solución en el momento adecuado.

2.Al contrario de lo que ocurría en el problema cinemático directo, con cierta frecuencia

la solución del problema cinemático inverso no es única; existiendo diferentes n-

uplas(q1,...,qn)exp T que posicionan y orientan el extremo del robot de mismo modo. En

estos casos una solución cerrada

permite incluir determinadas reglas o restricciones que aseguren que la solución obtenida

sea la más adecuada posible. (BARRIENTOS A., 2007, págs. 108-109)

Sin embargo y sin importar las dificultades, una gran porción de los robots comunes,

presentan cinemáticas relativamente simples que facilitaran la resolución del problema

inverso.

El problema inverso puede ser solucionado por varios métodos, como la transformación

inversa (Paul y col; 1981), el álgebra de tornillo (Kohli y Soni; 1975) cuaterniones duales,

iterativo o métodos geométricos.


En este proyecto se analizará el robot usando la cinemática directa mediante el algoritmo

D-H para su caracterización y correcta aplicación.

Visión Artificial.

Fundamentos, luz y color.

Casi todas las especies animales usan ojos, la evolución ha creado el ojo varias veces ,

creando formas de visión muy variadas y adaptadas al medio ambiente, como los ojos

compuestos de una mosca, el ojo primario y secundario de una araña, y los ojos de lente

de los humanos.

Todos los animales son capaces con sus ojos y con sus diferentes tamaños de cerebros,

de realizar tareas tan complejas como encontrar comida y escapar de sus depredadores.

La existencia de estas capacidades tiene un alto costo biológico, desde la complejidad del

ojo mismo, los músculos para moverlo, membranas para protegerlos así como una corteza

visual en el cerebro para procesar la información recibida.

En la experiencia humana, los ojos son sensores muy efectivos para reconocimiento,

navegación, evadir obstáculos y manipular el mundo a nuestro alrededor. Las cámaras

imitan la función de un ojo permitiendo crear aplicaciones basadas en visión.

El desarrollo tecnológico ha permito desarrollar aplicaciones de Visión artificial, donde

la principal característica que se busca es que esta sea capaz de sentir, planear y en base

a la información recibida, actuar.

En la actualidad existen cámaras con sensores CMOS (Complementary Metal- Oxide

Semiconductor), capaces de captar imágenes con una increíble definición y que son

relativamente baratas. La combinación de sensores baratos, nuevos algoritmos y pleno

poder de procesamiento hacen de la visión artificial, una aplicación práctica viable en

estos días.
La percepción que un humano tiene del color de las cosas, es en realidad la combinación

de diversos elementos físicos, químicos y biológicos; la primera parte del proceso es el

iluminador; este es, el elemento que crea la luz que cae en la escena que después es

reflejada hacia nuestros ojos.

Existen muchas y muy diferentes fuentes de luz desde lámparas incandescentes, metales

fundidos y por supuesto el sol.

En 1672 Isaac Newton desarrollo lo que conocemos como “Teoría Corpuscular” y realizo

un experimento muy famoso para probar su hipótesis: En una habitación oscura, un rayo

de luz entraba por un agujero y entraba en un prisma de cristal donde se separaba en lo

que conocemos como espectro visible de la luz, que está conformado por varios colores,

es decir el arcoíris (Figura 1).

Entonces él fue capaz de demostrar que podía recombinar los múltiples colores de la luz

en un solo rayo de luz blanca

Fig.1 Experimento de Newton de descomposición de la luz [Rodriguez,2004]

Los diferentes colores que componen el rayo de luz blanca representan (desde que se
sabe que la luz es una onda electromagnética), las diferentes frecuencias de longitud de
onda de esta, desde entonces tendemos a describir la frecuencia de un determinado color
en términos de su longitud de onda, específicamente en nanómetros (nm).

Hay que tener en cuenta que no toda la luz es visible para el ojo humano, ya que este es
capaz de visualizar solo una parte del espectro de luz electromagnética en un rango
compuesto de entre 400 nm y 700nm. La luz con longitudes de onda menores a 400nm
son llamadas ultravioleta y las mayores a 700nm son llamadas infrarroja.

Fig. 2 Espectro Electromagnético [Hyperphysics,2002]

Fig. 3 Diagrama de Bloques Sensor CMOS [EvoSecurity,2015]

Cámaras digitales.

En la actualidad y como se había mencionado, las cámaras imitan el comportamiento y

estructura de lente del ojo humano.


Las cámaras digitales son capaces de realizar esta acción debida principalmente a su

sensor de tecnología CMOS (Figura 3), que contiene celdas fotosensibles, muy similares

en concepto a las células de conos y bastones presentes en el ojo humano.

Fig. 3 Diagrama de Bloques Sensor CMOS [EvoSecurity,2015]

Espacios de color

El uso del color de manera generalizada en Visión Artificial es principalmente debido a

que el color es un poderoso descriptor que, en la mayoría de los casos simplifica la

identificación y extracción de los objetos en una escena. Los humanos podemos distinguir

miles de colores y sin embargo solo 24 niveles de gris.

El objetivo de un espacio de color es facilitar la especificación de los colores de una forma

normalizada. En esencia es la conformación de un sistema de referencia de coordenadas.

Existen diversos espacios de color, los más utilizados en Visión Artificial son RGB,

CMYK y HSV (Figura 4).

Fig. 4 Espacios de Color CMY y RGB [Fotonostra,2006]

RGB (Red-Green-Blue)

Las características del ojo de lente humano y la teoría corpuscular, todos los colores que

podemos reconocer en una imagen son una combinación de los llamados colores

primarios: Red (Rojo), Green (Verde) y Blue (Azul).


Las imágenes del modelo RGB están conformadas por tres planos de imagen

independientes, para que estas sean representadas se deben traslapar los valores de estos

planos para producir una imagen de color compuesta (Figura 5).

Se debe mencionar que la mayoría de los dispositivos de adquisidor de imagen usan este

sistema debido a la naturaleza del sensor CMOS.

Fig. 5 Tetraedro Espacio de Color RGB [Mirando,2013]

El espacio de color mostrado en la figura 5, considerando que este está representado en

valores binarios de 8 bits (uint8), podemos observar a los colores primarios en tres

vértices:

• Rojo = [255, 0,0] (uint8).

• Verde = [0, 255,0] (uint8).

• Azul = [0, 0,255] (uint8).

También podemos encontrar los valores colores importantes como:

• Cian = [0, 255,255] (uint8).

• Magenta = [255, 0,255] (uint8).

• Amarillo = [255, 255,0] (uint8).


• Negro = [0, 0,0] (uint8).

• Blanco = [255, 255,255] (uint8).

Los valores más peculiares pertenecen al color blanco y negro, que son fácilmente

interpretables de acuerdo a la teoría corpuscular, el valor [0, 0,0] significa la ausencia de

componentes de luz emitida-reflejada, es el color que significa la ausencia de luminosidad

en una escena.

El color blanco [255, 255,255] (uint8) es la unión de la longitud de onda de todos los

colores que se pueden formar, significa la máxima cantidad de luz emitida- reflejada en

una escena.

CMY (Cyan, Magenta, Yellow)

Este espacio de color pertenece a los colores secundarios de la luz o los colores primarios

de pigmentación (También llamados Sustractivos ya que se utilizan para extraer colores

de la luz blanca).

Los dispositivos que se encargan de depositar pigmentos (impresoras, copiadoras), usan

este espacio de color, el sistema de referencia es muy similar al

del espacio RGB, con la diferencia de la “inversión de las posiciones de los colores.

HSV (Hue/Tono, Saturation/Saturación, Value/Intensidad)

Comúnmente las características principales necesarias para poder distinguir un color de

otro, sin conocer su exacta longitud de onda son el brillo, tono y saturación.

El brillo es la luminiscencia del color que normalmente se expresa en un rango porcentual

de 0 % en negro y 100% en blanco.

El tono es el valor de reflexión o transmisión luminosa de un objeto, se mide con ángulos

en grados de entre 0° y 360°.


La saturación es la pureza relativa de concentración de color (luz reflejada) que es

mezclada con el tono. Representa la cantidad de luz blanca que existe en proporción al

tono y es medida en un rango porcentual 0% (gris) y 100% (Color puro).

Su utilización se debe a que el componente intensidad esta desligada de la información

cromática contenida en la imagen, además los componentes tono y saturación están

íntimamente ligados con la forma en que los humanos percibimos el color, la Figura 6

expresa el color de este tipo de espacio.

Fig. 6 Espacio de color HSV [Magick,2000]

Procesamiento digital de imágenes.

El procesamiento digital de imágenes puede ser visto como el proceso que consiste en

asignar etiquetas a objetos y características importantes contenidas en una imagen digital.

En base en modelos conocidos de estos objetos.

Esto de manera formal: Dada una imagen que contiene uno o más objetos de interés y el

fondo de la imagen, y un conjunto de etiquetas, una para cada modelo conocido del
sistema. El sistema deberá asignar etiquetas correctas a regiones, o a conjuntos de

regiones en la imagen.

Modelo de Procesamiento.

Las etapas para el procesamiento de imágenes se pueden resumir en el modelo de

Gonzales y Woods como se observa en la figura 7.

Fig. 7 Modelo de Procesamiento digital de imágenes [Gonzales, Woods 2007]

Adquisición de Imagen.

La manera en que una imagen es obtenida, en este caso por una cámara digital CMOS es

muy específico. Este es el primer paso para procesar una imagen, ya que sin él no habría

una entrada.

Es la entrada de nuestro sistema, que pasa por un proceso que es descrito a continuación.

Es necesario definir una imagen digital como [Sossa 2013]:

“Sea Z el conjunto de números enteros. Una imagen digital denotada como: f(x, y)

Es un arreglo bidimensional ∈ Z x Z si (x, y) son enteros de Z x Z y f es una función que

asigna a cada par (x, y) un numero deZ.”


Y una imagen binaria se define como [Sossa 2013]:

Una imagen binaria denotada como 𝑏(𝑥, 𝑦) es una imagen digital

𝑓(𝑥, 𝑦) que ha sido cuantizada a dos niveles de intensidad, 0 y 1”

La señal que emite el sensor CMOs que es continua debe ser digitalizada mediante un

proceso de discretización y un proceso de cuantización (Figura 8).

Podemos definir este proceso como [Sossa 2013]:

Una señal continua 𝑥(𝑡) puede ser muestreada mediante un tren de impulsos:

Donde:

𝑇𝑠 Es el periodo de muestreo

Es la tasa de muestreo o frecuencia de muestreo.

Este proceso de muestreo está dado por:

Donde:

𝑥𝑠(𝑡) Es el tren de pulsos modulados por la señal 𝑥(𝑡)


Fig. 8 Digitalización de una señal

De una manera más simple, podemos entender la adquisición de una imagen con el

diagrama de bloques de la figura 9:

Fig. 9 Adquisición de una imagen

Pre-Procesamiento.

Una vez obtenida la imagen es necesario realizar un pre procesamiento de la misma, su

objetivo es modificar las condiciones de la imagen creando una nueva que tenga una
mejor apariencia visual o permita a un sistema de reconocimiento entregar mejores

resultados.

En las imágenes, como en toda señal obtenida del medio ambiente existen interferencias

y datos erróneos que afectan la calidad de los datos obtenidos, conocido comúnmente

como “Ruido” (Figura 10) este se manifiesta en las imágenes digitales de distintas

maneras.

Es producido por distintos factores como:

• Óptica y electrónica pertenecientes al sistema de adquisición.

• Condiciones de Iluminación.

• Condiciones atmosféricas.

Es formalmente definido como [Sossa 2013]:

“Cualquier entidad o resultado intermedio no interesante para los propósitos del cómputo

principal.es todo aquello que tiende a entorpecer el desempeño de un sistema.”

Fig. 10 Imagen con ruido (Gimp 2015)

Con el fin de eliminar o atenuar estas interferencias que afectan el desempeño de nuestro

sistema, existen diversos métodos de Filtrado y Operaciones de morfológicas,

específicamente mencionaremos aquellos que utilizamos en este trabajo debido a la


inmensidad de métodos que existen en la literatura. Mencionarlos y tratarlos no es el

objetivo de este trabajo.

Operación de Erosionado.

Se define como [Sossa 2013]:

“Sean 𝐴𝑦 𝐵 dos conjuntos en 𝑍2, la erosión de A por B (siendo B el valor de la ventana

o kernel), denotada como 𝐴 ⊝ 𝐵 se define como:

𝐴 ⊝ 𝐵 = {𝑥|(𝐵)𝑥 ⊆ 𝐴}

En otras palabras la erosión de A por B es el conjunto de todos los puntos 𝑥 tal que B

trasladada por x está contenida en A.”

De manera más simple la operación de erosionado se encarga de multiplicar la ventana

con la imagen original, cada pixel será considerado solo si todos los

pixeles dentro de la ventana son iguales a 1, de otra forma será erosionado convertido a

0.

Lo que provocara que dependiendo del tamaño de la ventana todos los pixeles serán

eliminados, esta transformación es muy útil para eliminar los pequeños ruidos que

aparecen de manera aleatoria en la imagen, un ejemplo se muestra en la figura 11.

Fig. 11 Erosionado de una imagen [Sossa 2013]


Filtro de Suavizado de caja normalizada.

Esta operación tiene el objetivo de “suavizar” las imágenes eliminando el ruido y

remarcando los contornos existentes en la imagen, aunque tiene la desventaja de reducir

la definición de la imagen tornándola “borrosa”.

El filtro de caja de suavizado (Figura 12) es de tipo lineal, donde cada pixel de salida está

determinado por la multiplicación de la ventana por los valores de pixel de entrada.

Se Define como [Corke 2011]:

Donde:

𝑂(𝑖, 𝑗) Es la imagen de salida.

ℎ(𝑘, 𝑙) Es la ventana o kernel.

𝑓(𝑖, 𝑗) Es la imagen de entrada.

La característica principal de este filtro recae en el tipo de kernel utilizado, ya que es el

más simple de todos los existentes y el más rápido en términos computacionales.

El prototipo de kernel para este filtro es:

Fig. 12 Suavizado de una Imagen [Pinterest 2015]


Extracción de Rasgos.

Una vez que la imagen ha sido pre tratada, podemos proceder a identificar las

características en la imagen que son de interés, realizando una comparación con

descripciones ya existentes del objeto [Sossa 2013] (Figura 13).

Fig. 13 Diagrama de extracción rasgos [Sossa 2013]

Sabemos que una pelota tiene la característica de ser “redonda”, si esta se encuentra una

imagen compararemos una región que pueda ser descrita como “redonda” con lo cual

podamos etiquetarla (describirla) como una pelota, sin embargo el objeto descrito no

necesariamente tiene que ser la pelota, todo depende de la efectividad de nuestro

algoritmo.

De un elemento pueden ser descritos como en la vida real, su tamaño, color, forma,

textura, longitud, etc.

Existen como en el caso del pre procesamiento, una inmensidad de métodos para extraer

las características de una imagen.

Descripción

Una vez encontrados los objetos así como sus principales características, podemos

describirlos para especificar si estos corresponden a lo que se busca en un sistema.

Citando el objeto que mencionamos en el proceso de extracción de rasgos, si tenemos un

objeto que tiene como rasgo el ser redondo, lo más natural es describirlo como la pelota

en sí, sin embargo podemos estarnos enfrentado con un reloj de pared, o una moneda, o

un planeta, dependiendo con de la imagen. Los cuales definitivamente no son una pelota.
De un elemento pueden ser descritos como en la vida real, su tamaño, color, forma,

textura, área, longitud, etc.

Como hemos mencionado, existen también gran variedad de métodos para describir un

objeto de acuerdo a una característica específica como las que acabamos de mencionar,

sin embargo en este trabajo solo abordaremos el método siguiente.

Calculo del área mediante el Teorema de Green.

Uno de los rasgos más importantes para detectar un objeto es el área que conforma dentro

de una imagen, cabe aclarar que esta área no corresponde con el valor de área real ya que

está sujeta a la perspectiva y distancia de donde se esté tomando la imagen, pero es

bastante útil para determinar la cantidad de espacio que un objeto ocupa en la imagen.

Se puede calcular el área de los contornos obtenidos en la etapa de extracción de rasgos,

para determinar si en efecto es el objeto que deseamos y eliminar contornos que no sean

útiles. Usando el teorema de Green podemos encontrar su área, este teorema se define

como [Spiegel 2010]:

Sea C una curva cerrada simple positivamente orientada, diferenciable por trozos, en el

plano y sea D la región limitada por

C. Si P y Q tienen derivadas parciales continuas en una región abierta que contiene D.

Fig. 14Teorema de Green [Wikimedia Commons 2015]


La Figura 15 muestra la relación entre una integral de línea alrededor de una curva

cerrada simple C y una integral doble sobre una región plana D limitada por C.

Reconocimiento.

Es el paso final en el cual ya hemos identificado los objetos y también nos hemos

asegurado de que estos tengan las características que buscamos, dependiendo de las

aplicaciones y objetivos, este paso puede no ser tomado en cuenta.

Es en esta etapa donde reconocemos el comportamiento del objeto que hemos

identificado, la manera en la que está interactuando con el mundo que le rodea.

Hay distintos comportamientos observables y sus respectivos métodos para reconocerlos,

en este trabajo abordaremos el comportamiento dinámico de un objeto es decir: si este

objeto se encuentra en movimiento, pero sin tomar en cuenta su dirección ni su velocidad.

Flujo Óptico de Lucas-Kanade.

El flujo óptico en una imagen es el patrón de aparente movimiento de un objeto entre dos

imágenes consecutivas causadas por el movimiento de un objeto o de la cámara. Está en

un campo de dos dimensiones donde cada vector es el vector de desplazamiento

mostrando el movimiento de puntos determinados de un punto a otro.

Fig. 15 Flujo Óptico [OpenCV Python Tutorials 2011]


La figura 15 muestra un objeto circular moviéndose a través de 5 imágenes, la flecha de

color rojo representa el vector de movimiento con su dirección y magnitud.

El flujo óptico funciona asumiendo que las intensidades de color de un objeto no cambian

en imágenes consecutivas y que los pixeles vecinos tienen un movimiento similar.

Considerando un pixel 𝑃(𝑥, 𝑦, 𝑡) donde x y y representan las coordenadas en el espacio

de color correspondiente y t representa el momento de tiempo en donde existe ese pixel.

Si estos pixeles son iguales y su intensidad no cambia, podemos decir que:

𝐼(𝑥, 𝑦, 𝑡) = 𝐼(𝑥 + 𝑑𝑥, 𝑦 + 𝑑𝑦, 𝑡 + 𝑑𝑡)

Aproximando por series de Taylor del lado derecho, removiendo los términos comunes

y dividendo entre dt podemos obtener la siguiente ecuación.

𝑓𝑥𝑢 + 𝑓𝑦𝑣 + 𝑓𝑡 = 0

Donde:

Esta es la ecuación de flujo óptico. En ella, podemos encontrar 𝑓𝑧 y 𝑓𝑦, estos son los

gradientes de la imagen. Similarmente 𝑓𝑡 es el gradiente a través del tiempo. Pero (u, v)

es desconocido. No se puede resolver esta ecuación con dos variables desconocidas.

El método de Lucas-Kanade puede resolver este problema:

Asumiendo que todos los pixeles vecinos tienen un movimiento similar, el método toma

una ventana de 3x3 alrededor del punto, así los nueve puntos tienen el mismo

movimiento. Podemos encontrar 𝑓𝑧, 𝑓𝑦 𝑓𝑡 para esos nueve puntos. Convirtiendo el

problema en resolver 9 ecuaciones con dos diferentes lo cual es algo muy difícil de
resolver. Por lo cual es reducido un sistema con dos ecuaciones de dos variables

desconocidas.

De manera más simple el método recibe algunos puntos que detectar. Nosotros recibimos

los vectores de flujo óptico que representan el movimiento de esos puntos a lo largo de la

imagen y del tiempo [Nan 2007].

Podemos estimar si un objeto se ha movido, calculando la magnitud de estos vectores, si

esta es cercana a 0 significara que el objeto ha permanecido estático,

si la magnitud de este vector es mayor a 0 el objeto tiene un comportamiento dinámico

en la imagen.

Teniendo en cuenta que la magnitud de un vector ⃗𝑃𝑄⃗⃗ es la distancia entre el punto

inicial P y el punto final Q. La magnitud de

⃗𝑃𝑄⃗⃗ independientemente de su

dirección y sentido esta descrita como |⃗𝑃𝑄⃗⃗ | [Serway 2009].

Si conocemos las coordenadas del punto inicial y del punto final de un vector están dadas,

la fórmula de la distancia puede ser usada para encontrar su magnitud (Figura 17).

Fig. 17 Magnitud de un Vector


|⃗𝑃𝑄⃗⃗ | = √(𝑥2 − 𝑥1)2 + (𝑦2 − 𝑦1)2

Encontrando así, el estado dinámico del objeto, es decir si se mueve o no.

Diagrama de flujo del funcionamiento del prototipo

Fig. 18 Funcionamiento del sistema.

A continuación se explica la figura 18.

En el inicio el itinerario de maniobra es enviado a los aparatos de vía, el sistema de

mando se encarga de revisar que todas las condiciones electromecánicas de seguridad se

cumplan, con lo cual inicia el movimiento de las agujas de la vía y el encendido del

equipo de señalización que indica el estado de maniobra.


En la siguiente etapa se verifica que las condiciones anteriores se cumplan, de no ser

así, se debe a que el sistema tiene una falla en su funcionamiento.

A continuación el Circuito de Vía (CDV), puede ser ocupado o no, si no es ocupado el

programa regresa al inicio para repetir el proceso. Cuando el CDV es ocupado,

comienza el empleo de algoritmos de Visión artificial para determinar el

comportamiento del tren así como de la detección de sus números de identificación

mediante el OCR. Además, es almacenado en video lo que sucede en este periodo de

tiempo.

En caso de que ningún franqueamiento se presente, el programa regresara al inicio para

repetir todo el proceso. Cuando un franqueamiento es detectado se activan las alarmas

de anden, PCC y TCO. Además, se envía a PCC un reporte que contiene el número

identificador del tren, así como el video del suceso.

Normatividad.

En la actualidad alrededor del mundo y después de una búsqueda considerable,

encontramos que no existe un documento de estandarización o normalización que

tengan como tema de aplicación sistemas de Vision Artificial. Nada que defina

lineamientos a seguir y requisitos a cumplir para realizar aplicaciones que cuenten con

este tipo de tecnología.

Sin embargo, considerando la naturaleza de este trabajo, podemos llegar a dos premisas

básicas.

• El prototipo emula dentro de sus limitaciones las condiciones de una zona de

maniobra en estaciones.

• Se considera que se trata de un sistema de seguridad.


Por lo tanto, tenemos que tomar en cuenta las normativas aplicables a sistemas de

seguridad y a la señalización pertinente de protección civil para ambientes de trabajo

industrial.

Es por eso que en el prototipo debemos tomar en cuenta esa normatividad y cumplir con

los requisitos que nos permitan decir que el prototipo y por lo tanto la proyección de

instalación en el STC está apegado a la normatividad.

Existen bastantes Normativas a nivel Nacional e Internacional, las que se consideran en

este trabajo, son las siguientes:

Norma Oficial Mexicana NOM-003-SEGOB/2002, Señales y Avisos para

Protección Civil.- Colores, formas y símbolos a utilizar.

Tiene como objetivo especificar y homogenizar las características del sistema de

señalización que en materia de Protección Civil, permita a la población identificar los

mensaje de información, precaución, prohibición y obligación para que actué de manera

correcta en determinada situación.

Las señales de protección se clasifican de acuerdo al tipo de mensaje que proporcionan.

Dentro de la norma existen diversas señalizaciones que no son aplicables al trabajo, por

lo cual solo tomaremos en cuenta las siguientes:

Tabla 1.-Señales de Protección Civil


La dimensión de las señales objeto de esta norma debe ser tal, que el área superficial (S)

y la distancia máxima de observación (L) cumplan con la siguiente relación.

Esta relación es aplicable a distancias mayores a 5m, en distancias menores, la

superficie de la señal debe ser igual a 125𝑐𝑚2.

UNE-EN50131-1:2004 Normativa Europea sobre alarmas de Seguridad.

Es una normativa europea que legisla en materia de diseño e instalación de los sistemas

de alarmas de seguridad y anti pánico.

Las instalaciones que adopten la normativa EN-50131, deben cumplir uno de los cuatro

grados de seguridad, en función del grado de riesgo del área protegida.

Tabla 2 Grados de riesgo

Por la naturaleza de alta seguridad de las instalaciones del STC estableceremos que el
sistema debe ser de Nivel 3. La normatividad establece ciertos parámetros para los
sistemas que tiene este nivel

• Establece el uso de “tampers” en el dispositivo, a partir de sistemas nivel 2

• La norma establece que los detectores de seguridad en nivel 3 deben tener un

funcionamiento anti-enmascaramiento en los detectores de movimiento, además el panel

de control deberá detectar y actuar según la señal anti mascara.


• Establece que los sistemas de Nivel 3, necesitan ser inspeccionados dos veces al

año para su mantenimiento y monitoreo.

• El nivel de acceso al sistema establece que solo un usuario autorizado para armar

y desarmar el sistema de alarma, Los códigos y método rápidos de armado no son

aceptados, ya que cualquiera diferente del usuario podría armar el sistema.

Cabe señalar que un “Tamper”, se trata de un par de terminales con funciones anti

sabotaje, contienen un Switch que actúa cuando se intenta quitar la cubierta del detector.

GLOSARIO

mercado de productos: El mercado de los productos abarca todo mecanismo a través

del cual se produce el intercambio de un bien o un servicio a cambio de dinero -precio-

entre un comprador y un vendedor.

robótica: La robótica es la rama de la Ingeniería mecatrónica, de la Ingeniería eléctrica,

de la Ingeniería electrónica, de la Ingeniería mecánica, de la Ingeniería biomédica y de

las ciencias de la computación que se ocupa del diseño, construcción, operación,

disposición estructural, manufactura y aplicación de los robots

3. Marco metodológico.

Nivel de diseño del Proyecto:

El nivel del diseño del proyecto a efectuarse se encontraría en un “Nivel Experimental”.

Investigación descriptiva.

Un sistema farmacéutico (FARMACIA) consta de diferentes características que solo

nombraremos los que nos interesan y describiremos a continuación:

Farmacéutico: Es el profesional con habilidades integrales en salud, fabricación de

medicamentos, control de calidad, desarrollo e investigación de los mismos, es aquel

experto en medicamentos, y en la utilización de los medicamentos con fines terapéuticos

en el ser humano.
Productos Farmacéuticos: Los productos farmacéuticos son sustancias químicas

sintéticas o naturales que se pueden encontrar en medicamentos recetados, de venta libre

y veterinarios. Estos productos contienen ingredientes activos diseñados para provocar

efectos farmacológicos y beneficiar significativamente a la sociedad.

Almacén: El almacén es el espacio físico del Servicio de Farmacia de un hospital

destinado a la conservación de los medicamentos, materias primas o cualquier otro tipo

de mercancías que deban ser conservadas o custodiadas bajo la responsabilidad de un

farma.

Sistema Para Farmacias: El Sistema Para Farmacias te ayuda a controlar tus

inventarios, venta con receta, lotes y caducidades.

Justificación del nivel de diseño:

El nivel del diseño del proyecto a efectuarse se encontraría en un “Nivel Experimental”

ya que manipulamos la realidad de querer satisfacer una necesidad, en este caso de una

FARMACIA, de tal manera que nuestros conocimientos aumentaran y no es un proyecto

que directamente se creeara con fines de implementación asegurada en la realidad.

Justificación de estudios preliminares:

Para los estudios preliminares nos basamos en las encuestas realizadas para poder decidir

cuál de las problemáticas enumeradas llevaríamos a cabo para darle una solución, pues

en este caso son las que fuimos mencionando anteriormente.

 Tarea de recolección consume tiempo

 Control de caducidad del medicamento

 Reduce el error del farmacéutico

 Sistema antirrobo

 El farmacéutico se dedica a hacer su trabajo


Para ello tomamos en cuenta la voz del cliente utilizando ingeniería concurrente y

deducimos que el mejor camino seria utilizando QFD.

Para el desarrollo del QFD se requiere captar las problemáticas de un sistema, en nuestro

caso en base a las ya mencionadas deducimos el siguiente proceso:

Descripción del diseño técnico y metodológico:

1er paso:

Deducimos las ponderaciones:

2do paso

Deducimos los QUE´S y los ponderamos con referencia a nuestro diseño original.
3er paso:

Definimos los COMO´S y realizamos su matriz de relaciones entre ellos

4to paso:

En esta parte entra las que consideraríamos las competencias, en este caso no podríamos

compararnos con una empresa es por eso que decidimos elegir proyectos de estudiantes

universitarios como ser:

 ZIPPEDI creado por los alumnos y profesor Álvaro Soto de Ingeniería de la

Universidad Católica de Chile, que se encarga por medio de inteligencia artificial

que en todos los estantes del supermercado no falten productos.

 Robot IAM si bien no es creado por estudiantes universitarios, pues su proyecto

tiene en común con el nuestro el aplicar un brazo robótico seleccionador de

productos casi tan rápido y eficiente como un humano y no solo trabaja en

supermercados sino también en farmacias.

Al ya deducir nuestra competencia pasamos a relacionar los QUE´S con respecto a

nuestro diseño original.


5to paso

Por ultimo relacionamos los QUE´S con los COMO´S, posteriormente los costos tanto

relativos como absolutos y para finalizar adquirimos las prioridades.


Y resultando así nuestra casa de calidad

4. Bibliografía.

Para BRAZO ROBOTICO

RUÍZ Velasco Sánchez, Enrique, ROBOTICA PEDAGOGICA, INICIACION, CONSTRUCCION Y

PROYECTOS, Editorial: Grupo Editorial Iberoamérica ISBN: 9706252975

1. ANGELES Jorge. (2007). Fundamentals of Robotic Mechanical Systems

(Third Edition ed.). New York: Springer.

2.ASIMOV Isaac. (1942). Runaround. New York: Street & Smith.

3.BARRIENTOS A. (2007). Fundamentos de Robótica. Madrid - España: Mc Graw Hill.

4.BELU. (2007, Octubre 12). Robotiica.blogspot. Retrieved from

http://robotiica.blogspot.com/2007/10/historia-de-la-robtica.html

5.Corke P. (2014). Robotics Toolbox for Matlab.

6.Corke P.I. (2011). Robotics, Vision & Control: Fundamental aLgorithms in MATLAB. Springer:

ISBN 978-3-642-20143-1.
7.CORKE Peter. (2011). Robotics, Visión and Control: Fundamental Algorithms in MATLAB. Berlin

Heildelberg: Springer.

8.CRAIG Jhon. (2005). Introductiono to Robotics. New Jersey: Pearson Prentice Hall.

9.GONZALES A; PINEDA M; SOBERANES D. (2007). Seguimiento Adaptativo de Trayectorias con

convergencia en tiempo finito de un Robot antropomórfico de Tres grados de Libertad. Pachuca

de Soto: UNIVERSIDAD AUTONOMA DEL ESTADO DE HIDALGO.

10.GOZÁLES P. & JMÉNEZ M. (2008). Robótica Industrial. Madrid: Instituto de automática

industria.

11.MICHALA Ismael. (2009). Fundamentos de la Robótica Industrial. Quito: EPN-FEPON.

12.MOYA, D. (2014). Modelo y Análisis de un robot manipulador industrial esférico aplicando

MATLAB. Quito: Tesis EPN.

13.OLLERO A. (2001). ROBÓTICA, Manipuladores y robots móviles. Barcelona: MARCOMBO.

14. R.C. Gonzalez; K.S. Fu; C.S.G Lee;. (1987). Robotics: Control, Sensing, Vision, and Intelligence.

New York: MC Graw Hill.

15.TORRES Fernando. (2002). Robots y Sistemas Sensoriales. Madrid: Pearson Alhambra.

16.UNIVERSIDAD DE GUADALAJARA. (2010, Octubre).

http://proton.ucting.udg.mx/materias/robotica/. Retrieved from

http://proton.ucting.udg.mx/materias/robotica/r166/r64/r64.htm

17.WIKIPEDIA. (2013, 05 29). Retrieved from

Para Vision Artificial

1.- Pablo Andrés Cañadas Betancourt, Geovanny Marcelo Haro Figueroa 2011. Prototipo de un

sistema de adquisición de imágenes de vehículo, detección y reconocimiento automático de los


caracteres de la placa en tiempo real por medio de visión artificial, aplicado al control vehicular

(Licenciatura).Escuela Politécnica Nacional, Quito Perú.

2.-Christopher John Setchell (1997). Applications of Computer Vision to Road- traffic Monitoring

(Tesis Doctoral). University of Bristol, United Kingdom.

3.- Jesús Ávila Estrada (2007). Procesamiento y Filtrado de Imágenes en los sistemas de Vision

Artificial (Licenciatura). Universidad Nacional Autónoma de México, Cuidad de México.

4.- Víctor Vargas Baeza (2010). Sistemas de Vision Artificial para el Control de Calidad de Piezas

Cromadas (Maestría). Instituto Politécnico Nacional, Cuidad de México.

5.- Hugo Israel Alcaraz Herrera (2012). Control de un Robot Móvil Aplicando Control Difuso y

Vision Artificial Desarrollado en LabView (Licenciatura). Universidad Nacional Autónoma de

México, Cuidad de México.

6.- Héctor Omar Ceballos Lepe (2003). Desarrollo De Tecnología Computacional Para la

Identificación de Vehículos Automotores Mediante La Vision Artificial (Maestría). Universidad

de Colima, Colima.

7.- Nan Lu, Jihong Wang, Li Yang, Henry Wu. (2007). Motion Detection Based On Accumulative

Optical Flow and Double Background Filtering. World Congress on Engineering Journal, Volumen

I.

8. Suzuki, S.; Abe, K., Topological Structural Analysis of Digitized Binary Images by Border

Following. CVGIP 30 1, pp 32-46 (1985)

Libros:

9.- Rafael C. Gonzalez; Richard E. Woods, (2007), Data Image Processing, United States of

America, 3rd edition.


10.–Peter Corke, (2011), Robotics Vision and Control: Fundamental Algorithms in Matlab,

Queensland Australia, Ed Springer.

11.- Wrede, R.; Spiegel, M. R. (2010). Advanced Calculus. Schaum's Outline (3rd ed.).

12.- Serway A. Raymond; Jewett W. John (2009). Física para Ingeniería y Ciencias, Estados Unidos

de América, Cengage Learning.

13.- Sossa Azuela Juan H. (2013), [fotografía] Vision Artificial: Rasgos

Descriptores para el reconocimiento de objetos, Cuidad de México, Ed Rama

Imágenes

14.- Cortes, A. (2011). Línea 12: Los dos primeros trenes en los talleres de Tláhuac.

[Fotografía] El Universal. Recuperado de:

http://www.eluniversaldf.mx/fotos/2dotrenL12.1.jpg [Acceso 9 Nov. 2015].

15.- Juan Carlos Rodríguez (2004), Descomposición de la Luz (fig. 1), Recuperado

dehttp://teleformacion.edu.aytolacoruna.es/FISICA/document/fisicaInteractiva/color

/Luz_descomposicion.html [Acceso 7 Nov. 2015]

16.- Hyperphysics (2002), Espectro Visible de la Luz (Fig. 2), Recuperado de

http://hyperphysics.phy-astr.gsu.edu/hbasees/vision/specol.html [Acceso 7 Nov. 2015]

17.- EvoSecurity (2015). Sensores con tecnología CMOS (Fig. 3), Recuperado de

http://www.evosecurity.com.co/uncategorized/sensores-con-tecnologia-ccd-vs- cmos/ [Acceso

7 Nov. 2015]

18.- Fotonostra (2006). Espacios de Color CMY y RGB (Fig. 4), Recuperado de

http://www.fotonostra.com/grafico/rgb.htm [Acceso 7 Nov. 2015]


19.- Artístico Mirando (2013). Tetraedro Espacio de Color RGB (Fig 5), Recuperado de

http://artisticomiranda.blogspot.mx/2013_11_01_archive.html [Acceso 9 Nov. 2015]

20.- Real Mágico (2000), Espacio de color HSV (Fig 6), Recuperado de

http://www.realmagick.com/hsi-color-space/ [Acceso 7 Nov. 2015]

21.- Gimp (2015), Imagen Con Ruido (Fig 10), Recuperado de

https://docs.gimp.org/en/plug-in-randomize-hurl.html [Acceso 9 Nov. 2015]

22.- Pinterest (2015), Suavizado de una Imagen (Fig 13), Recuperado de

https://es.pinterest.com/davidvaskz/piensa-positivo/. [Acceso 9 Nov. 2015]

23.- Wikimedia Commons (2015), Teorema de Green (Fig 14). Utilizada con fines educativos.

Recuperada de http://upload.wikimedia.org/wikipedia/commons/c/cc/Green%27s-

theorem-simple- region.png [Acceso 9 Nov. 2015]

24. - Open CV Python Tutorials (2011), Optical Flow (Fig 15). Recuperada de

http://docs.opencv.org/master/d7/d8b/tutorial_py_lucas_kanade.html [Acceso 8 Nov. 2015]

25.- STC Metro, (2013). Tren modelo nm-73BR. [imagen] Recuperado de:

http://www.metro.df.gob.mx/imagenes/operacion/nm73br/nm73br_1.jpg [Acceso 8

Nov. 2015].

26.- Eje central, (2015). [Fotografía] Recuperado de: http://cdc-s3-ejece-

main.s3.amazonaws.com/uploads/2015/03/metro-DF.jpg [Acceso 9 Nov. 2015].

27.- METRO, (2014). Modelos trenes STC Metro. [Imagen] Recuperado de:

http://www.metro.df.gob.mx/imagenes/organismo/boleto/fideicomiso.jpg [Acceso 5

Oct. 2015].
28.- mexicomaxico, (n.d.). LOS TRANVÍAS DE LA CIUDAD DE MÉXICO, 1850-

1971. [Online] Recuperado de:

http://www.mexicomaxico.org/Tranvias/TROLES/Metro.jpg [Acceso 8 Nov. 2015].

5. Anexos.

Zippedi: El robot inteligente que trabaja de nochero en un supermercado de La Reina

Su nombre es Zippedi (mismo nombre de la empresa que hoy lo comercializa), y fue

bautizado por su creador, el profesor de Ingeniería de la Universidad Católica, Álvaro

Soto. “Fue un trabajo de tres años. Eso implicó mucho esfuerzo. Nos pusimos a

trabajar en robótica cognitiva y empezamos a explorar el cómo llevar la tecnología a

un área relevante para el país”, explica el académico.


IAM Robotics adquiere la selección automatizada de almacenes

Una startup de Pittsburgh quiere construir un robot que pueda sacar elementos de los

estantes, el santo grial de la realización del almacén

IEEE Spectrum: IAM Robotics está trabajando en la recogida

autónoma de artículos en estanterías, algo que la mayoría de las

empresas de almacén aún no intentan hacer, porque es un problema

realmente difícil. ¿Cómo decidiste comenzar allí?

http://www.feriadelasciencias.unam.mx/anteriores/feria21/feria002_01_brazos_robotico

s_y_la_fisica_en_el_bachillerato.pdf

https://spectrum.ieee.org/automaton/robotics/industrial-robots/iam-robotics-takes-on-

automated-warehouse-picking

http://www.emol.com/noticias/Tecnologia/2018/01/10/890646/Zippedi-el-primer-robot-

chileno-en-trabajar-en-supermercados.html

http://es.wikibooks.org/wiki/La_Rob%C3%B3tica_y_sus_componentes

Вам также может понравиться