Вы находитесь на странице: 1из 81

MEMORIAS CONGRESO

INTERNACIONAL MULTIMEDIA.
Volumen 4, 2015
ISSN (CD-ROM) 2346-3023

Programa de Ingeniería en Multimedia


Universidad Militar Nueva Granada
Bogotá, Colombia, Octubre 2015

���
ORGANIZACIÓN MEMORIAS CONGRESO INTERNACIONAL
UNIVERSIDAD MILITAR NUEVA GRANADA MULTIMEDIA

BG(R) Hugo Rodríguez Dyrán COMITÉ ORGANIZADOR Y EDITORIAL


Rector
Germán Andrés Garnica Gaitán
FACULTAD DE INGENIERÍA
Christian David Quintero
Cr.(RA) José Octavio Duque López Wilson Javier Sarmiento
Decano
Nicolas Bustos Baron
Laura Mariela Pramparo
Vicedecana COMITÉ TÉCNICO DE PROGRAMA

Juan Camilo Ibarra


PROGRAMA DE INGENIERÍA EN Universidad de los Andes, Colombia
MULTIMEDIA
Yenny A. Méndez
Freddy León Reyes Universidad Nacional Abierta y a Distancia -
Director UNAD, Colombia
Ángela Villarreal Freire
Profesores Universidad del Cauca, Colombia
Alexander Cerón Correa Edward Paul Guillen
Carlos Alberto Rocha Castaño Universidad Militar Nueva Granada, Colombia
Carlos Uriel Aranzazu López Alvaro Joffre Uribe
Christian David Quintero Eduard Leonardo Universidad Militar Nueva Granada, Colombia
Sierra-Ballén Luz Yolanda Morales
Germán Andrés Garnica Gaitán Universidad Militar Nueva Granada, Colombia
Jorge Augusto Jaramillo Mujica
Jorge Augusto Jaramillo Mujica
Karolina González
Universidad Militar Nueva Granada, Colombia
Marcela Iregui Guerrero
María Marta Gama Castro Wilman Helioth Sánchez Rodríguez
Wilman Helioth Sánchez Rodríguez Universidad Militar Nueva Granada, Colombia
Wilson Javier Sarmiento Manrique
PÁGINA WEB Y SISTEMAS DE
Voluntarios
INFORMACIÓN
Iván Alexis Güiza Ardila
Christian David Quintero
Daniela Saavedra Prieto
José David Caro Cantor
Angie Paola Chaparro
Maria Paula Rueda González
Diana Rocío Bermúdez Monroy
María Isabel González Fandiño

��
MEMORIAS CONGRESO INTERNACIONAL MULTIMEDIA.
Volumen 4, 2015
ISSN (CD-ROM) 2346-3023
congresomultimedia.umng.edu.co
Programa de Ingeniería en Multimedia
Universidad Militar Nueva Granada
Bogotá, Colombia, Octubre de 2015

Los artículos y resúmenes publicados son responsabilidad de los autores y se pueden


reproducir citando la fuente. Los comentarios y comunicaciones relacionados con los
mismos, por favor enviarlos al correo electrónico: congresomultimedia@unimilitar.edu.co

��
Contenido

Editorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

C����������� ��������� 3
VFX Education and Production at Media Design School . . . . . . . . . . . . . . . . . 5
Interaction design for accessibility: from theory to practice . . . . . . . . . . . . . . . 9
Expressive Visual Speech: a Natural Way to Interact with Machines . . . . . . . . . 11
Hypercomputación Biológica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Deep Learning, aplicaciones en Multimedia . . . . . . . . . . . . . . . . . . . . . . . . 15

P�������� 17
Referenced localization method based on the recognition of key objects from a
gigital map . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Augmented reality applied for the inspection and pre-installation testing of under-
water oil production device. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
COPEM: Sistema de construcción de personajes basado en metadatos. . . . . . . . 43
Prototipo de modelo de transmisión de contenidos y narrativas transmedia. . . . . . 53

T������� 61
Introduction to VFX workflows . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Paper Toys . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
JavaScript y el internet de las cosas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Visualización para el análisis de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
te
tete
Editorial
xt te
xtxt o xt
oo
o

Palabras de inauguración del señor Decano de la Facultad de Ingeniería,


Cr.(RA) Ing. José Octavio Duque López, MSc.

Apreciados Invitados

Es para mí un honor celebrar este acto de apertura del 4ô Congreso Internacional Multimedia
2015, celebrado por la facultad de ingeniería nuestra Universidad Militar Nueva Granada.
Como viene siendo habitual desde sus primeras versiones, el Congreso mantiene el propósito
de contribuir al intercambio de ideas y experiencias relacionadas con el desarrollo y la
investigación de aplicaciones multimedia. En esta ocasión serán participes de un programa
en el que, tanto en las conferencias principales como en las ponencias y comunicaciones de
las sesiones paralelas, presentarán avances referentes a:

1. Arte y diseño multimedia desde espacios y lenguajes interactivos que abordan y ex-
ploran diversas experiencias perceptuales desde el cine, la fotografía, sonido, háptica,
movimiento e interacción de los sentidos.

2. Aplicaciones y usos innovadores de la Multimedia, de productos, servicios, aplicacio-


nes y usos de la multimedia en sectores educativos, salud, gobierno, entretenimiento,
negocio, sociedad y sistemas multimedia.

3. Investigación en Multimedia para a partir del Reconocimiento de patrones, la simula-


ción, Computación gráfica, Visualización científica, Procesamiento de imágenes y video,
Codificación de contenido multimedia, entre otros.

En un contexto de innovación marcado por los cambios trascendentes de nuestros tiempos,


presentar un evento como este representa poner a disposición de la comunidad académica
las últimas tendencias y directrices que refieren a los Horizontes Tecnológicos en Interac-
tividad y Usabilidad, como hemos querido denominar esta versión del congreso.

Un evento de estas características requiere de la colaboración de muchas personas; este


es el momento oportuno para, en nombre de la UMNG, reconocer, valorar y agradecer el
trabajo de expertos nacionales e internacionales que a lo largo de estas jornadas pondrán
todo lo que está de su parte para que pueda desarrollarse exitosamente: A la Doctora Da-
niela Gorski Trevisan, Profesor Adjunto del Instituto Computación de la Universidad Federal
Fluminense de Brasil, al Doctor José Mario De Martino, del Departamento de ingeniería
de computación y automatización Industrial de UNICAMP de Brazil, al Doctor Raúl Ramos
Pollán Doctor en ingeniería informática, Universidad Industrial de Santander, al Doctor Oli-
ver Hilbert profesor asociado a Media Design School en Nueva Zelanda , al Doctor Carlos
Eduardo Maldonado, Profesor Titular Universidad del Rosario y al Doctor Jorge E. Camar-
go, PhD. Investigador del Laboratory for Advanced Computational Science and Engineering
Research de la Facultad de Ingeniería de Sistemas en la Universidad Antonio Nariño.

Este evento de carácter internacional reúne la experiencia global en el campo de la tecnolo-


gía el arte y el diseño, será una oportunidad para la reflexión sobre nuevas tendencias y el
intercambio de conocimientos, metodologías y experiencias. Esta será una gran plataforma,
que permitirá estar a la vanguardia con las tecnologías y estrategias más relevantes para
el arte, diseño y desarrollo multimedia a nivel internacional.

Este congreso sigue consolidando la UMNG como escenario pionero de grandes eventos
internacionales en multimedia el cual reúne a docentes, estudiantes, empresarios y comuni-
dad en general, permitiendo una integración y transferencia de conocimiento en el marco de
las ciencias tecnológicas y las tecnologías de la información, la comunicación, el diseño y el
arte, a través de talleres, conferencias, páneles y actividades que se realizarán de manera
simultánea de manera tal que se verán inmersos en un ambiente de aprendizaje colaborativo
y activo para explorar diversas mediaciones, recursos y estrategias tecnológicas.

Sean bienvenidos.
CONFERENCIAS PLENARIAS
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

VFX E�������� ��� P��������� �� M����


D����� S�����
O����� H������1

Abstract
Media Design School is one of the primary educational pro-
viders for Visual Effects and Game Development education in
New Zealand. The school has seen growth over recent years,
both in size and academic offerings.

1
Media Design School, New Zealand
6 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

1. Introduction CG foundations, basic introduction to tool-


sets and a general overview of the entire
CG process. This is done through a series
The school has recently transitioned from of practical and theory lectures that run se-
providing diploma based qualifications to quentially in each subject (often in order to
successfully transitioning to degrees. With a common CG pipeline).
this change has come developments in the
process of teaching visual effects for our vi- During the second year of our degree pro-
sual effects qualification - The Bachelor of gram, students are able to move into elec-
Art and Design. This coincides well with our tive specializations. Currently our degree
primary objective – to train students to be- provides the student with Animation, Tech-
come work ready for high end industry em- nical Direction and Compositing educatio-
ployment. nal pathways.

We believe we have successfully implemen- After completing their second year of study,
ted a method of educating students that students move into a new model of teaching
achieves both academic outcomes and pro- and learning for their third and final year.
vides the benefits of realistic working envi- This involves a lecture lead live action vfx
ronments. film production and a self-directed fully CG
production.
This approach has been applied to the re-
cent film production “Escargore”, and sub-
sequent film production projects (Fig. 1).
3. Academic Production
Approach

The objectives of education and industry of-


ten differ greatly, however the processes
used to measure performance can be often
applied to both. At Media Design School we
have applied industry processes directly to
assist with providing students a real world
experience, however apply it not only for
Figure 1: One of the 56 completed shots the aid of the film production but also to
from Escargore aid academic assessment.

One implementation that was pivotal to this


change was the introduction of Shotgun - A
2. Course Structure project and pipeline management tool de-
signed for visual effects.

Our delivery of our curriculum in broken Shotgun provides students and lecturers ali-
down into three distinct parts - one for each ke with both a pipeline for film production
year of study. The first year is focused on and powerful web based management tools

VFX E�������� ��� P��������� �� M���� D����� S����� C����������� ���������


H������, O�����
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 7

– which aid efficiency and provide eviden- of what is required of them. They are equip-
ce of assessment. Some of these systems ped to proceed with making their own ani-
have been implemented in such a way that mated short film for their second produc-
they become a foundation to the student’s tion.
assessment. One such approach is the con-
cept of the EVERYDAY note. This is a sim-
ple message sent to the lecturers every mor-
ning answering 3 specific questions: 4. Assessment

1. What did you achieve yesterday? Assessment of each project is made up of


both team and individual grades, with the
2. What do you plan to achieve today? latter being the majority. Student assess-
ment takes place in the form of Milestone
3. What problems are you facing? presentations. These occur about 3 to 4 ti-
mes during the course of a production. Each
Milestone weighs more heavily to the final
These messages can be processed by lectu- grade as the project progresses. This en-
rers in a very short time frame ensuring tho- sures those that struggle at the start are
se students facing the greatest obstacles less negatively affected should they impro-
are guided first – so as to not impact their ve significantly throughout the course of study.
learning and development. Also implemen-
ting Shotgun’s Time log system allows us For the milestone presentation - the da-
to observe and measure productivity, atten- ta generated through Shotgun is embedded
dance, and organizational abilities (Fig. 2). into a short individual presentation. The stu-
dent at this point in time is then also re-
quested to reflect upon their achievements
and challenges. The presentation directly
correlates with the learning outcomes outli-
ned to the students at the start of the pro-
duction and are then able to be graded.

The grading is performed with the use of


an online survey tool, by both lecturers and
peers alike. The result of the lecturers marks
Figure 2: Monitoring shot progress on Es-
are averaged and tallied – with the peer re-
cargore
view marks used to moderate by identifying
any deviations in grading.
The combination of these tasks play an equal
importance to the successful and benefi- This method is very successful in genera-
cial experience on the film production. Both ting moderated quality grades in a very short
from and industry standpoint and academic timeframe – and providing an additional ave-
objectives. The student leaves the lecturer nue for feedback – especially from the stu-
led production with a clear understanding dent’s peers.

C����������� ��������� VFX E�������� ��� P��������� �� M���� D����� S�����


H������, O�����
8 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

5. Results

These changes to our production methodo-


logy has allowed students focusing with a
more refined specialization to participate
effectively in a film production (Fig. 3).

Figure 3: Monitoring shot progress on Es-


cargore

The efficiency our production workflows has


also enabled more manageable staffing for
the lecturer guided productions – which prior
to implementation of the degree and a Shot-
gun pipeline was as at a costly ratio of
2 staff per 15 students. This has been to
about 2 staff required for every 24 students.

Overall the student participating in this pro-


duction ethic appears to be better equipped
and ready for the ever evolving world of the
visual effects film production.

VFX E�������� ��� P��������� �� M���� D����� S����� C����������� ���������


H������, O�����
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

I���������� ������ ��� �������������:


���� ������ �� ��������
D������ T�������1

Abstract
Design for accessibility is the intervention into environments,
products and services which aims to ensure that anyone, in-
cluding future generations, regardless of age, gender, capaci-
ties or cultural background, can participate in social, econo-
mic, cultural and leisure activities with equal opportunities.
This is a broader definition and not always allows solving all
needs with a single solution that fits everyone. In this talk I
will present well-known design techniques and new interac-
tion paradigms that can be applied in the design of digital
interfaces in order to reach usability, accessibility and good
user experience as possible. Afterwards I will talk about our
current research projects involving older users, children with
down syndrome, autism and blind users. Such projects consist
of a multidisciplinary effort involving expertise from computer
graphics, artificial intelligence and human factors fields.

1
Instituto Computação, Universidade Federal Fluminense, Niterói, RJ, Brasil
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

E��������� V����� S�����:


� N������ W�� �� I������� ���� M�������
J��’� M���� D� M������1

Abstract
Human-computer interaction based on autonomous expressi-
ve virtual characters, or avatars, is an engaging way to inter-
act with the user. Autonomous expressive virtual characters
seek to reproduce the familiar face-to-face interaction mecha-
nisms we are used to. In this context, expressive visual speech
plays an important role. The interesting and challenging en-
deavor of implementing virtual agents capable of engaging
inface-to-face conversation with humans is the main topic of
this talk.

1
Departamento de Engenharia de Computação e Automação Industrial DCA / FEEC / UNICAMP - Brasil
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

H��������������� B��������
C����� E������ M��������

Resumen
La hipercomputación biológica es un área nueva de investi-
gación en ciencias de la complejidad que pone en diálogo a
las ciencias de la computación y la biología, las lógicas no-
clásicas y los avances en ingeniería, microbiología y teoría
de la evolución. El objetivo primero de investigación es aquí
el de elucidar la la lógica de los sistemas vivos; esto es, qué
hacen los sistemas vivos para ser tales. El autor afirma que
los sistemas vivos: a) no son una máquina, en ninguna acep-
ción de la palabra, y por tanto no pueden ser entendidos ni
a la manera de una Máquina de Turing de cualquier tipo, ni
tampoco, en términos de lógica, con base en la tesis Church-
Turing. Los sistema vivos procesan información de forma no-
algorítmica, un reto magnífico para la ingeniería en general.
El procesamiento de información por parte de los sistemas vi-
vos tiene lugar de dos formas simultáneas y paralelas: de un
lado procesan la información del entorno, y al mismo tiempo,
de otra parte, crean nueva información. Así, los sistemas vivos
no reaccionan al medioambiente, lo cual quiere significar que
no puedo ser entendidos a la manera de la mecánica clásica.
Sólo los cuerpos físicos reaccionan. La forma como “reaccio-
nan” los sistemas visos en creando nueva información o, lo que
es equivalente, creando nuevos mundos y relaciones, nuevas
dimensiones y posibilidades. La hipercomputación biológica
constituye una contribución en ingeniería y que conduce la
mirada desde la ingeniería clásica y convencional hacia la
ingeniería de sistemas complejos. Dicho en otras palabras, se
trata de “ingenieras” sistemas complejos, y sin la menor duda,
el más apasionante de los sistemas complejos es la vida. De
esta suerte, se plantea aquí un nuevo programa de investiga-
ción que apenas comienza en el mundo, no obstante algunos
conspicuos antecedentes.
1
Universidad del Rosario, Bogotá, Colombia
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

D��� L�������
� ��� ������������ �� M���������
J���� E. C������1

Resumen
En esta conferencia se presentó un nuevo concepto conocido
como deep learning (aprendizaje profundo), el cual consiste en
un conjunto de algoritmos de machine learning para modelar
abstracciones de alto nivel de los datos; por ejemplo, de seña-
les multimedia (imágenes, audio, texto y video). Deep learning
ha venido revolucionando en los últimos años a la comunidad
científica por las mejoras significativas que se han tenido en
tareas tales como la representación, clasificación y en ge-
neral, reconocimiento de patrones. Se presentaron ejemplos
de aplicación en ciencia e industria, recorriendo áreas tales
como procesamiento de imágenes, visión por computador, re-
conocimiento de audio, ecología computacional, entre otras.
Adicionalmente, se presentaron las perspectivas de este nue-
vo concepto y su potencial en la industria.

1
Laboratory for Advanced Computational Science and Engineering Research, Facultad de Ingeniería de
Sistemas, Universidad Antonio Nariño, Bogotá, Colombia
P��������
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

R��������� L����������� M����� B���� ��


��� R���������� �� K�� O������ ���� �
D������ M��
M����� �� ������������ ������������ ������ �� �� �������������� �� ������� ����� �� ��
���� �������

M���� F������� R�������� R���1 , J����� V������� F�������1 ��� A����� �� M������ N���2

Keywords:
Autonomous vehicles, Digital maps, Geographic databases, Referenced loca-
lization, Recognition of key objects.

Palabras clave:
Bases de datos geográficos, Localización referenciada, Mapas digitales, Re-
conocimiento de objetos clave, Vehículos Autónomos.

1
Department of Computational Mechanics, School of Mechanical Engineering, University of Campinas -
UNICAMP
2
Engineering Department - DEG, Federal University of Lavras - UFLA
20 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

Abstract

The autonomous vehicles are a reality, but its development


requires high costs. However, in order to strengthen the ad-
vances in mobile robotics, there is a great effort in the de-
velopment of low-cost oriented applications to autonomous
vehicles, where the study of localization methods is one of the
areas of interest in order to have safe navigation. This paper
proposes a Referenced Localization Method (RLM), composed
of proprioceptive and exteroceptive sensors, and additional
information as digital maps and recognition of key objects, in
order to improve the estimation of the position of a ground
vehicle that travels on a straight line. The system is based on
the positioning information obtained by an inexpensive GPS
sensor and also on information from the RLM based on a set
of geographic data available in a database that makes up
the digital map. The performance of the proposed localization
method is checked by a localization platform that consists
of a map server based on OpenStreetMap, and a simulation
platform that includes tools such as ROS and Gazebo, which
includes a land vehicle with embedded sensors and key ob-
jects. The selected architecture is user friendly for testing,
enabling you to simulate objects and sensors very close to
reality.

R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M�� P��������
R�������� R���, V������� F������� ��� �� M������ N���
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 21

Resumen

Los vehículos autónomos son una realidad, pero su desarro-


llo requiere de altos costos. Sin embargo, a fin de fortalecer
los avances en robótica móvil, hay un grande esfuerzo en el
desarrollo de aplicaciones de bajo costo orientadas a vehícu-
los autónomos, siendo el estudio de métodos de localización
una de las áreas de mayor interés con el fin de una nave-
gación segura. Este trabajo propone un método de localiza-
ción referenciado, compuesto por sensores propioceptivos y
exteroceptivos, así como información adicional como mapas
digitales y reconocimiento de objetos clave, con el fin de me-
jorar la estimación de la posición de un vehículo terrestre que
realiza un recorrido en linea recta. El sistema se basa en la
información de posicionamiento obtenida mediante un GPS
de bajo costo y también en información del método de locali-
zación referencia basada en un conjunto de datos geográficos
disponibles en una base de datos que conforma el mapa di-
gital. El rendimiento del método de localización propuesto
es verificado por una plataforma de localización compuesta
por un servidor de mapas basados en OpenStreetMap, y una
plataforma de simulación compuesta por herramientas como
ROS y GAZEBO, que incluye un vehículo terrestre con senso-
res integrados y objetos clave. La arquitectura seleccionada
es de fácil adecuación para la realización de pruebas, ya que
permite simular objetos y sensores proximos a la realidad.

P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
22 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

can be used to assist the localization task.


The digital maps when used in conjunction
with GPS information, provide greater re-
liability and precision. Even offer a broader
1. Introduction
view of the environment because informa-
tion previously stored in the digital map
The localization plays an important role in may contribute to the perceptual system
the context of autonomous vehicles, that is, decisions and improve localization. This com-
the system must have the ability to locate bination may reduce the localization error
precisely the environment in which it ope- [19].
rates. Without this localization information,
This paper proposes a referenced locali-
tasks like navigating in unfamiliar surroun-
zation method, composed of proprioceptive
dings or follow a trajectory may become un-
and exteroceptive sensors, and additional
viable. The localization is a key piece in
information as digital maps and recognition
different contexts, for example in dynamic
of key objects, in order to improve the esti-
environments..
mation of the position of a simulated ground
Many precise localization systems can be vehicle.
purchased on the market ready to be used,
The paper is organized as follows. Section
however, its cost is high. This is a motiva-
2 offers a review of the literature needed to
tion for the development of systems based
introduce the problem of localization and
on low-cost sensors.
formulate the problem. Section 3 describes
In the literature, there are countless diffe- the proposed solution in its different stages.
rent approaches found to solve the locali- Section 4 displays the results of the RLM.
zation problem in mobile robotics. Some of Finally, Section 5 shows the conclusions.
the methods used are: relative localization
by means of sensors such as accelerome-
ters, gyroscopes and encoders that allow
estimating the robot displacement [8]; loca-
lization dead reckoning that calculates the
relative displacement based on propriocep-
tive information such as speed and direction
[24]; localization aided by computer vision, 2. LITERATURE REVIEW
from the detection marks on the road, using
only one camera [8] or two cameras [9], allo-
wing in this case to estimate the lateral
error robot localization; localization using This section provides a brief review of the
maps [10]; localization integrating geograp- literature and the state of the art related
hic data [5] and localization for data fusion to the localization of mobile robots and/or
of different sensors [8]. intelligent vehicles. First, basic definitions
of localization autonomous vehicles are dis-
Besides the use of low cost sensors, in addi- played. Next, a description of the types of
tion, the literature shows that digital maps localization methods are introduced.

R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M�� P��������
R�������� R���, V������� F������� ��� �� M������ N���
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 23

2.1. Localization vision, maps and GPS, go further than just


a more precise estimation of the localiza-
tion, it makes the estimation even in cases
For safe navigation of autonomous vehicles, of temporary lack of a signal once the esti-
the localization is the base [20]. Thus, a set mation is still obtained by other available
of sensors embedded in the vehicle can be information.
used to improve the localization. However,
while the most accurate systems are more
expensive, on the other hand, the low cost 2.2. Localization by computer vision
systems provide less precision. One of the
most widely used system is the GPS (Glo- The localization by vision refers to the use
bal Positioning System) [21], however this of external observations of the environment
type of sensor depends on the direct visua- by the use of devices such as video came-
lization of a minimum number of satellites, ras, to provide additional information such
and other natural factors that can lead to as the color, texture and shape, in addition
errors up to 100� [6]. to many devices that currently provide op-
timal resolution [25]. The literature shows
Besides the necessity of using low cost sen-
the use of video cameras as a source for vi-
sors, in addition, the literature shows that
sual odometry [1], detection marks on the
digital maps can be used to assist the loca-
road using mono [8] and stereo cameras [9],
lization task. The digital maps when used
allowing in this case to estimate the lateral
in conjunction with GPS information provi-
error robot localization, and methods that
des greater re- liability and precision. They
are based on use of other systems commer-
even offer a broader view of the environ-
cially available on the market [19].
ment because information previously stored
in the digital map can contribute to the de-
cisions of the perception system, reducing 2.3. Map-based localization
the localization error [19]. The combination
of information available in digital maps, low
cost GPS sensors in addition to cameras for The map-based localization refers to the
recognizing key objects can mitigate pos- use of geographical and/or geometric infor-
sible errors in the localization [20], redu- mation provided through a Geographic In-
cing the direct effects of noise originated formation System (GIS). From this informa-
from each sensor individually, and impro- tion, the method is based on a correspon-
ving localization-based multi-sensor and multi- dence between local data, or topological,
information. with data obtained by a perception sys-
tem [11]. The information comes from the
In the literature, there are countless diffe- use of tools such as OpenStreetMap [13]
rent approaches found to solve the locali- (OSM), a public domain map data that of-
zation problem in mobile robotics. Two of fers a rich set of geographic information re-
the methods are: The localization aided by lated to streets, buildings, points of inter-
computer vision [9] and localization integra- est, among others [5]. Some examples ba-
ting geographic data or map-based [11]. The sed on this informations are given in the
advantage offered by such methods using literature, such as: generating mobility fea-

P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
24 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

tures based on spatial OSM data [4]; loca- proposed method to assist in localization
lization tasks and planning trajectories in- [6]. The proposed RLM performs a more ac-
tegrated with geographic data [5] and po- curate estimation of the vehicle localization
sitioning systems for mobile devices [16]. based on the use of onboard sensors and
The OSM also enables integration with dif- the recognition of key objects.
ferent databases, such as PostgreSQL [15]
and Postgis [14] [26]. As shown in Figure 1, the RLM queries the
database to get the coordinates of the posi-
tion of a key object detected by the camera,
also use other sensors such as the laser to
obtain its position, and finally uses all the-
se information of positions with the GPS
3. OUR APPROACH data to estimate the vehicle localization.

This method is based on the idea of how


This section presents the notions related to people are located in an unknown environ-
the referenced localization method (RLM) ment, that is, when a person is in an unfami-
proposed in this paper. The first part descri- liar environment, identifies something that
bes the referenced localization process di- is recognized, so learning through this ob-
vided into three stages, beginning with the ject where he can be. The proposal therefo-
localization of the object of interest, then re is to use information provided by sensors,
the consultation of the database, and fi- a vision system that has the ability to iden-
nally correcting the position of the vehicle, tify key objects environment, a simulation
concluding the RLM. The second part des- platform that allows a virtual environment
cribes the integration of models that will to create and interact with it, and a plat-
represent the key objects in the simulation form localization where will be stored all
platform, as proposed by the RLM and also environmental geographic information on a
the implementation of the proposed method. digital map. In this sense, the RLM is com-
posed by a GPS position information of la-
3.1. Referenced Localization Met- titude and longitude, a monocu- lar camera
hod that detects objects and a laser that provi-
des the distance of the key object detected
by the camera [7].
The Referenced Localization Method (RLM)
is a proposal for better estimating the lo- The process is composed of three steps: The
calization of a ground vehicle in which uses first step finds the key object and obtain its
a camera to detect objects; a laser sensor distance from the information provided by
to obtain distance information in relation the laser. The second step calculates the
to the objects detected; and a local geo- transformation between planar and geograp-
graphic database with information from a hical coordinates in other to allow consul-
specific area which contributes in the form tations in the geographic database. The third
of a digital map. In addition, an inexpensi- step estimates the vehicle position in rela-
ve GPS sensor (refresh rate equivalent to tion to the key object.
10H� and gaussian noise) integrates the

R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M�� P��������
R�������� R���, V������� F������� ��� �� M������ N���
recognition of key objects.

As shown in Figure 1, the RLM queries the database to get the coordinates of the position of a key object detected
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 25
by the camera, also use other sensors such as the laser to obtain its position, and finally uses all these information
of positions with the GPS data to estimate the vehicle localization.

Referenced localization method Digital map - Geographic information


Vehicle Camera Detection image Object key Database
Position key object
Laser Distance

Vehicle position estimated


x_MLR, y_MLR

Figure
Fig. 1. Diagram 1: Diagram components:Proposal
components:Proposal of the referenced
of the referenced localization localization
method based on sensor method based
information on
and digital map.
sensor information and digital map.
This method is based on the idea of how people are located in an unknown environment, that is, when a person
is in an unfamiliar environment, identifies something that is recognized, so learning through this object where he
can be. The Step 1. Detection
proposal therefore of ais key object:
to use The vehi-
information providedreturns the right
by sensors, position
a vision systemin longitude
that has theandability to
identify keycle, which has a camera and a laser, ma-
objects environment, a simulation platform thatlatitude allows aofvirtual
the key object detected.
environment to create and interact
kes a route. Along the way a key object �,
with it, and a platform localization where will be stored allStep
which is known its exact position in latitude 3. Correction of vehicle
environmental geographic position: The
information on a digital
map. In this sense, the RLM is composed by a GPS position
and longitude coordinates, has to be detec- estimated
informationposition of theand
of latitude vehicle in rela-
longitude, a monocu-
lar camera that detects objects and a laser that provides the distance
ted by the camera in the area AC around tion to the keykey
of the object,
objectis obtained.
detected by With
thethe
camera [7].
the vehicle, as shown in Figure 2(a). Con- exact coordinates of the key object obtai-
The process is composed of three steps: The first step finds
sidering that laser sensors and camera are nedthefromkeythe database
object of the its
and obtain digital map,from the
distance
informationcalibrated
provided by at the
the laser.
sameThe seconda step
position, calculatescalculates
horizon- the position
the transformation between of the vehicle,
planar as
and geographical
coordinatestalin and
other to allow
vertical consultations
scanning in the by
is performed shown
geographic in Figure
database. 2(c).
The Thestep
third procedure is per-
estimates the vehicle
position in the
relation to the key object.
laser. When the camera identifies the formed again, where the point of geographic
key object in the environment, the laser re- coordinates is transformed to plane coordi-
turns the of
Step 1. Detection distance
a key in metersThe
object: between
vehicle,the nates
which has in meters
a camera and[2],a [17],
laser,[18].
makes a route. Along the
way a key key
objectobject and camera
r, which is knownposition.
its exactLater, the in latitude and longitude coordinates, has to be detected
position
distance
by the camera in thefrom
areatheAC keyaround
objecttheto the camera
vehicle, as shown in Figure 2(a). Considering that laser sensors and
camera areiscalibrated
transformed to the
at the same global metrica clearcut
position, horizontal and 3.2. Simulation
vertical scanning isscenario
performed by the laser. When
reference system.
the camera identifies the key object in the environment, the laser returns the distance in meters between the key
object and camera position. Later, the distance from the key object to the camera is transformed to the global
Step 2. Query in the database: The dis- The supervisory system of autonomous vehi-
metric clearcut reference system.
tance measurement from the key object to cle gets all the information being sent by si-
the camera, obtained in meters, is transfor- mulated sensors in the simulation platform.
med to the global reference system in geo- These data are processed and used for cer-
graphical coordinates given in latitude and tain purposes, according to the characteris-
longitude with respect to the world [2], [17], tics of each of the simulated sensors.
[18]. With the latitude and longitude data
obtained, a search to the database is made According to the RLM proposal and the di-
to find the same type of a key object that gital map database, the models of the key
stores the correct position in latitude and objects are aggregated in Gazebo [3] simu-
longitude, as shown in Figure 2(b). Once lation platform. The localization of each key
found matching information, the database object in Gazebo, retains the scale ratio of
the real world, and the position of each ob-

P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
made to find the same type of a key object that stores the correct position in latitude and longitude, as shown in
Figure 2(b). Once found matching information, the database returns the right position in longitude and latitude
of the key object detected.

26
Step 3. Correction of vehicle position: The estimated position of the vehicle in relation to the key object, is
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
obtained. With the exact coordinates of the key object obtained from the database of the digital map, calculates
the position of the vehicle, as shown in Figure 2(c). The procedure is performed again, where the point of
geographic coordinates is transformed to plane coordinates in meters [2], [17], [18].

r
Yo
Yo d
Xcam (Xr_star, Yr_star)
Laser Lat_p, Lon_p
(Xr_cam, Yr_cam)
Ycam Camera Query in the database (Xr_o, Yr_o)
(Xcar_m, Ycar_m)
Xcar object key corresponding

Ycar Digital map - Geographic Information


GPS Database
AC Position
38,74834 34,43245
Lat_star Lon_star
38,75976 34,44578 Xo
38,76423 34,45233 ll
Xo
(a) Detection of a key object (b) Query in the database (c) Correction of the vehicle position

Fig. 2. Localization process of the Referenced Localization Method.


Figure 2: Localization process of the Referenced Localization Method.
3.2 Simulation scenario: The supervisory system of autonomous vehicle gets all the information being sent by
ject in simulated
the simulated environment equiva- 3.4. Distance measurement
sensors in the simulation platform. These data are processed and used for certain purposes, according
to the characteristics of each of the simulated sensors.
lent toAccording
that provided
to the RLMby digital
proposal and map data-
the digital map database, the models of the key objects are aggregated in
base, which contains stored the exact loca-
Gazebo [3] simulation platform. The localization of each key object in Gazebo, retains the scale ratio of the real
lizationdatabase,
of each object coordinates
stored the exactlatitude
world, and the position of each object in the simulated environment equivalent to that provided by digital map
which contains localization of eachThe next
object test is
coordinates to obtain
latitude the distance
and longitude. Each key bet-
and longitude. Each key
object is represented by a object is sign,
traffic stop represen- ween the camera position and the key de-
located on the right and left side of the route set.
ted by a traffic stop sign, located on the tected object. Tocapture
measure this distance, as
right and left side of the route set.
3.3 Object detection: Once created the simulation scenario,
through the embedded camera by the structure implemented
the first
described
test is the
in Subsection
on the simulated
of visual
vehicle model in 3.1,
information
theitsimulation
uses a laser
platform. The detection of objects is done by implememtation simulated
of patternsensor
recognition type
using Velodyne
OpenCV [12] Lidar
and [23]
CvBridge [22] libraries, and the goal is to identify objects with the stop sign characteristics at a maximum
distance of 40m. Then, a validation test is performed, that on the model
is whether the stopof the
sign vehicle,
is being detectedwhich is in the
while the
vehicle model is in route. same position of the camera. Taking advan-
tage of the fact that this position coinci-
des with the position of the camera, laser
3.4 Distance measurement: The next test is to obtain the distance between the camera position and the key
detected object. To measure this distance, as described in Subsection 3.1, it uses a laser simulated sensor type
beams
Velodyne Lidar [23] on the model of the vehicle, which is in the are simulated
same position of the camera.having horizontal
Taking advantage of and
the fact that this position coincides with the position of the vertical
camera, laser scanning of the environment with
beams are simulated having horizontal
and vertical scanning of the environment with the same camera aperture angle, returning a coordinated position
3.3. inObject detection
meters from the same
the point where the laser beam intersects with an object. The camera
result is aaperture
file containingangle, returning
all points of
the scene, and this number of points can vary from the number a ofcoordinated position
horizontal and vertical beams in meters
being designed,from
so the
Once created the simulation scenario, the point where the laser beam intersects with
first test is the capture of visual information an object. The result is a file containing
through the embedded camera by the struc- all points of the scene, and this number of
ture implemented on the simulated vehicle points can vary from the number of horizon-
model in the simulation platform. The de- tal and vertical beams being designed, so
tection of objects is done by implememta- that the further rays are used, more points
tion of pattern recognition using OpenCV will be taken, requiring a high computatio-
[12] and CvBridge [22] libraries, and the goal nal cost. Here, 64 horizontal beams and 48
is to identify objects with the stop sign cha- vertical beams for a total of 3072 points in
racteristics at a maximum distance of 40�. the scene were used.
Then, a validation test is performed, that
is whether the stop sign is being detected Then, it is necessary to calibrate the ca-
while the vehicle model is in route. mera image with the generated laser point

R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M�� P��������
R�������� R���, V������� F������� ��� �� M������ N���
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 27

the digital map for a matched object. Then,


the calculations performed to estimate the
vehicle model’s position by the RLM is do-
ne as described in detail in the following
paragraph.

The first task corresponds to capture the


Figure 3: Alignment results between came- camera and laser data, then detect the key
ra images and the depth map. object retruning a point �, � at a distance
�. Then, it is necessary to change the value
of �, � to the axis reference X� , Y� . At the
cloud image. This process is done in Matlab,
same time it is necessary to capture data
where the cloud of points is transformed in-
from the low-cost GPS to obtain the posi-
to a depth map. This calibration is chec-
tion of the vehicle in latitude and longitude.
ked in order to ensure that the information
With the GPS data, it is made a transforma-
generated by the camera matches the in-
tion of latitude and longitude coordinates
formation generated by the laser, and thus
to the plane coordinates in meters, imple-
able to calculate the distance from the key
menting the equations of geographic coor-
object to the center of the camera. In Figure
dinate transformations to the plane coordi-
3, 3 images are presented, the first is the
nates [2], [17], [18], resulting in the bench-
camera view, the second is the depth map
mark X ���_�, Y ���_�. Then it is calculated
and the last is the cloud points.
the position of the key object with respect
Once the key object is detected, a search to the world X� , Y� , with the result being
for a point in the cloud points of the la- equal to X �_�, Y �_� given in meters, which
ser that corresponds with the point of the will later be converted into a point in lati-
detected object is made, and with the coor- tude and longitude coordinates. Continuing
dinates �, �, � of this matched point found, with the process described in Subsection
the distance � is calculated by Equation 1. 3.1, point X �_�, Y �_� has to be transformed
The result returned is the position in me- to its equivalent in latitude and longitude
ters between the camera center and the key coordinates in order to use this informa-
object. tion to make the connection to the digital
map database and thus search among the
� stored information which is the key object
�= � 2 + �2 + � 2 (1)
being detected.

This means that, after finding the distance


3.5. Position estimated
from the key object to the camera center
attached to the vehicle model, the changes
With the results obtained from the data cap- necessary to have its position with respect
ture by the camera and by the laser as des- to the world and also to its equivalent in
cribed in Subsection 3.3 and 3.4, a chan- latitude and longitude coordinates is ma-
ge from the reference axis to the coordina- de in order to locate and perform a search
tes of latitude and longitude is made, and and identification of the key points of the
then queries are done in the database of

P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
28 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

Gazebo Camera Laser GPS low cost

x,y,z,d lat,lon

Transformed
lat,lon meters
Xcar_o, Ycar_o
Xr_star, Yr_star
Transformation matrix
r Xo,Yo Transformation matrix
Xcar_o, Ycar_o
Xr_o, Yr_o
Xr_star, Yr_star
Transformed
meters lat,lon
Xcar_m, Ycar_m
Lat_p, Lon_p

Digital Map
Query database
Database
PSYCOPG2

Lat_star, Lon_star

Fig. 4. The scheme of measures referenced localization method.


Figure 4: The scheme of measures referenced localization method.

longitude coordinates. With this information, it searches the database for a point that corresponds approximately
objects that are stored in the digital map its point closest to the approximate point
to a position of a key object that is stored. In order to do this procedure, it is necessary to create a connection
to thedatabase.
server maps [17] by Psycopg library. Then, through calculated.
consultationsNext,
SQL the data of Query
(Structured key object po- and
Language)
spatial processing PostGIS, searches to a keyof object sition found in the database will be retur-
Then calculates the transformation point with its point closest to the approximate point calculated.
Next, the data of key object position found in the database will beand
ned, the new
returned, andpoint L��_����,
the new point LatL��_����
star, Lon star
X �_�, Y �_� given in meters to latitude and in latitude and longitude coordinates is used
in latitude and longitude coordinates is used to calculate the position of the vehicle model.
longitude implementing the equations of pla- to calculate the position of the vehicle mo-
ne coordinate transformations to the geo-
According to Subsection 3.1, the point Lat star, Lon stardel. returning from database, must go through the trans-
graphical
formation coordinates
function of latitude[2],
and[17], [18]. This
longitude trans- to plane coordinates in meters [2], [17], [18]. With this
coordinates
formation
new point hasinbeen
obtained theXr
meters point
star,L��_�,
Y r star L��_� According
calculates the position oftothe Subsection
vehicle model,3.1, the point
resulting in the end-
that corresponds to the equivalent position L��_����, L��_���� returning
point Xcar m, Y car m. It is possible to see this last process along with the other processes in Figure from data-
4, which
of the key object in latitude and longitude base, must go through the
presents the complete overall scheme of RLM measures, where Xcar m, Y car m are the coordinates meters from transformation
coordinates.
the new With this
estimated position information,
of the vehicle type it with
sear-respectfunction of latitude
to the detected key and longitude coordina-
object.
ches the database for a point that corres- tes to plane coordinates in meters [2], [17],
ponds approximately
4 RESULTS: The results toby aRLM
position of a key
are shown in Figure[18]. Withthe
5, where thisrednew
line point obtained
represents in me- by a
data captured
object
simulated thatGPS
ideal is stored.
and theIncolor
order to blue
dots do this pro- the data
represent ters X �_����, by
estimated Y �_����
the RLM.calculates the posi-
cedure, it is necessary to create a connec- tion of the vehicle model, resulting in the
Tabletion to the server maps [17] by Psycopg li-
1 shows a section of the position obtained by the end- point
low-cost GPS, X ���_�,
the RLM and Y ���_�.
the idealIt GPS
is possible
for the route
brary.
straight from simulated autonomous vehicle. Summing up to thesee thisof
values last
theprocess
result ofalong
RLM with
error,the other
is presented in
Table 2. processes in Figure 4, which presents the
Then, through consultations SQL (Structu-
GPS low MLR complete GPS overall scheme of RLM measures,
ideal
red Query Language) and spatial proces- where X Lat
���_�, Y ���� are the coordinates
Lat Lon Lat Lon Lon
sing PostGIS, searches19.51878to a key object with
39.86435 16.51288 41.02807 16.09143 40.82829
12.57981 32.26034 16.51293 41.02804 16.45865 41.75915
R��������� L����������� M�����19.34276
B���� �� ��� R����������
43.31764 �� K�� O������
16.51191 ����16.82577
41.02849 � D������ M��
42.68991 P��������
R�������� R���, V������� F������� ��� �� M������
10.42489 N��� 16.51190
38.81772 41.02849 17.19308 43.62093
10.00823 43.00508 16.51095 41.02891 17.56011 44.55139
8.47390 43.25218 16.51078 41.02898 17.92728 45.48197
16.98883 39.51243 16.50980 41.02941 18.2944 46.41279
obtain the localization of the land vehicle model is e↵ective because the system resulted in an average estimation
error of 2m.

Error Meters
Maximum distance 7,6m
Minimum distance 0,5m
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� Mean distance 2,0m 29
Distance standard deviation 1,2m
Table 2. Position errors.

meters from the new estimated position of 350

the vehicle type with respect to the detec- 300


ted key object.
250

200

y [m]
4. RESULTS 150

100

The results by RLM are shown in Figure 5,


50 GPS ideal
RLM

where the red line represents data captu- 0


0 20 40 60 80 100 120 140

red by a simulated ideal GPS and the color x [m]

dots blue represent the data estimated by Fig. 5. Results of the position estimated.

the RLM. Figure 5: Results of the position estimated.


Table 1 shows a section of the position ob-
tained by the low-cost GPS, the RLM and
tion has been proposed. This method was
the ideal GPS for the route straight from
subsequently implemented and the process
simulated autonomous vehicle. Summing up
for obtaining localization data have been
the values of the result of RLM error, is pre-
documented, making use of position infor-
sented in Table 2.
mation provided by a low cost GPS sensor,
GPS low
Lat Lon Lat
MLR
Lon
GPS
Lat
ideal
Lon
a camera and a laser.
19.51878 39.86435 16.51288 41.02807 16.09143 40.82829
12.57981 32.26034 16.51293 41.02804 16.45865 41.75915 This work therefore presented a contribu-
19.34276 43.31764 16.51191 41.02849 16.82577 42.68991 tion to localization systems based on low-
10.42489 38.81772 16.51190 41.02849 17.19308 43.62093
10.00823 43.00508 16.51095 41.02891 17.56011 44.55139 cost sensors, tested in a ro- bust simula-
8.473900 43.25218 16.51078 41.02898 17.92728 45.48197 tion platform that integrates image recogni-
16.98883 39.51243 16.50980 41.02941 18.29440 46.41279
16.40377 43.85625 16.50961 41.02949 18.66187 47.34366 tion tools, robotics, visualization, geograp-
hic database, 3D models and local servers.
Table 1: Final result of the implementation
of the RLM. The main contribution of this approach was
the use of a digital map that was linked to a
Error Meters
local database with information of key ob-
Maximum distance 7,6 �
Minimum distance 0,5 � jects that were later identified by the RLM,
Mean distance 2,0 � and based on the exact position of each
Distance standard deviation 1,2 � identified key object, and consulted in the
database and the model of the vehicle, the
Table 2: Position errors.
correction in place was made.

In order to assess the RLM performance


5. CONCLUSIONES described in Section 3.1, Table 2 presen-
ted the results of the implemen- tation of
the RLM, where the values estimated by
The main objective, the referenced localiza- the method are compared with the calcula-
tion method based on digital map informa- ted values for an ideal GPS ground truth as

P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
30 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

the reference measurement, which means a 8. Laneurit, J., Blanc, C., Chapuis, R., and Trassou-
GPS that has no errors in its localization; daine, L. Multisensorial data fusion for global vehi-
the RLM procedure resulted in a maximum cle and obstacles absolute positioning. In Intelligent
Vehicles Symposium, 2003. Proceedings. IEEE (June
error of 7 � and a minimum error about 2003), pp. 138–143.
0.5 �, being the average error of 2m with a
standard deviation of about 1 �. 9. Leng, S.-S., and Gruyer, D. Merging lateral came-
ras information with proprioceptive sensors in vehi-
From the results obtained, it can be said cle location gives centimetric precision. Proceedings
of 18th International Technical Conference on the
that the proposed referenced localization
Enhanced Safety of Vehicles (ESV’2003) (2003).
method with digital maps to obtain the lo-
calization of the land vehicle model is ef- 10. Mattern, N., Schubert, R., and Wanielik, G. High-
fective because the system resulted in an accurate vehicle localization using digital maps and
coherency images. In Intelligent Vehicles Sympo-
average estimation error of 2 m.
sium (IV), 2010 IEEE (June 2010), pp. 462–469.

11. Navarro,D.A.Contribución a la autolocalización


de robots móviles basada en la fusión deinformación
REFERENCIAS multisensorial. PhD thesis, Universidad Politecnica
de Valencia, 2009.
1. Cardenas, M. Localização híbrida para um veícu- 12. opencv.org. Opencv. http://opencv.org/.
lo autônomo em escala usando fusão de sensores.
Master’s thesis, Universidade Estadual de Campi- 13. openstreetmap.com. Openstreetmap. http:// wiki.
nas, 2013. openstreetmap.org.

2. Etkin, B. Dynamics of Atmospheric Flight. Dover 14. postgis.net. Postgis. http://postgis.net/.


Books on Aeronautical Engineering. Dover Publica-
tions, 2012. 15. postgresql.org. Postgresql. http:// www.postgresql.
org/.
3. gazebosim.org. Gazebo. http://gazebosim.org/.
16. Rifat, M., Moutushy, S., Ahmed, S., and Ferdous,
4. Gunes, M., Juraschek, F., Blywis, B., and Graff, C. H. Location based information system using opens-
Monotrac a mobility trace generator based on open- treetmap. In Research and Development (SCOReD),
streetmap geo-data. In Mobile Adhoc and Sensor 2011 IEEE Student Conference on (Dec 2011), pp.
Systems (MASS), 2010 IEEE 7th International Con- 397–402.
ference on (Nov 2010), pp. 618–623.
17. Rodriguez, M. F. Desenvolvimento de um sistema
5. Hentschel, M., and Wagner, B. Autonomous robot de localização híbrido para navegação autônoma de
navigation based on openstreetmap geodata. In In- veículos terrestres em ambiente simulado. Master’s
telligent Transportation Systems (ITSC), 2010 13th thesis, Universidade Estadual de Campinas, 2014.
International IEEE Conference on (Sept 2010), pp.
1645–1650. 18. Stevens, B., and Lewis, F. Aircraft Control and
Simulation. Wiley, 2003.
6. Hide, C., and Moore, T. Gps and low cost ins in-
tegration for positioning in the urban environment. 19. Tao, Z. Vehicle sensor-based localization system
Tech. rep., Institute of Engineering Surveying and for autonomous vehicle navigation. Master’s thesis,
Space Geodesy, University of Nottingham, 2005. Université de Technologie de Compiègne (UTC), 2012.

7. Jornal da Unicamp. Navegação sem condutor, mas 20. Tao, Z., Bonnifait, P., Fremont, V., and Ibanez-
segura. http://www.unicamp.br /unicamp /ju /616 Guzman, J. Mapping and localization using gps, lane
/navegacao- sem-condutor -mas-segura, Novembro markings and proprioceptive sensors. In Intelligent
2014.

R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M�� P��������
R�������� R���, V������� F������� ��� �� M������ N���
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 31

Robots and Systems (IROS), 2013 IEEE/RSJ Inter-


national Conference on (Nov 2013), pp. 406–412.

21. Taylor, G., and Blewitt, G. Virtual differential gps


& road reduction filtering by map matching. ION
GPS ’99 (1999).

22. wiki.ros.org/cvbridge. Cvbridge. http://wiki.ros.org/cv


bridge.

23. wiki.ros.org/velodyne. Velodyle lidar. http: //wi-


ki.ros.org/ velodyne.

24. Xiaoyun, Y., and Heng, H. Gps/dr integrated na-


vigation system based on adaptive robust kalman
filtering. In Microwave and Millimeter Wave Tech-
nology, 2008. ICMMT 2008. International Conferen-
ce on (April 2008), vol. 4, pp. 1946–1949.

25. Yuen, D., and MacDonald, B. Vision-based locali-


zation algorithm based on landmark matching, trian-
gulation, reconstruction, and comparison. Robotics,
IEEE Transactions on 21, 2 (April 2005), 217–226.

26. Zheng, J., Zhang, Z., Ciepluch, B., Winstanley, A.,


Mooney, P., and Jacob, R. A postgis-based pedes-
trian way finding module using openstreetmap data.
In Geoinformatics (GEOINFORMATICS), 2013 21st
International Conference on (June 2013), pp. 1–5.

P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

A�������� R������ A������ ��� ���


I��������� ��� P��-I����������� T������ ��
U��������� O�� P��������� D�����
R������� ��������� �������� ����� �� ���������� � ������� ���-����������� �� �� ������
�� ���������� �� ��������

M���� F������� R�������� R���1 , J��� M���� D� M������1 ��� J��� R������ P�������
M�����2

Keywords:
Augmented Reality, AR SDK’s, Vuforia SDK.

Palabras clave:
SDK de realidad aumentada, Realidad aumentada, Vuforia SDK.

1
Department of Computer Engineering and Industrial Automation, School of Electrical and Computer En-
gineering, University of Campinas - UNICAMP
2
Department of Energy, School of Mechanical Engineering, University of Campinas - UNICAMP
34 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

Abstract

TThe development of new computer vision technology and the


evolution of mobile devices have allowed for the use of aug-
mented reality in a wide range of applications. Some applica-
tions use this technology to mitigate risks and reduce costs
by providing guidance during the execution of field tasks. This
project aims to develop an application based on augmented
reality on deployed mobile devices to support the inspection
and pre-installation testing of Wet Christmas Trees (or ANM
from the Portuguese, Árvore de Natal Molhada) an underwa-
ter oil exploration device. Upon recognition of key elements
from the device in a live video stream, the application super-
imposes textual information and computer-generated imagery
on the live video feed to facilitate the identification, inspec-
tion, and testing of selected device parts.

Resumen

El desarrollo de nuevas tecnologías de visiín por computador


y la evolución de dispositivos móviles, permiten incluir el uso
de la realidad aumentada en una amplia gama de aplicacio-
nes. Algunas aplicaciones utilizan esta tecnología para mi-
tigar los riesgos y reducir los costos al proporcionar orien-
tación durante la ejecución de tareas de campo. Este pro-
yecto tiene como objetivo desarrollar una aplicación basada
en realidad aumentada para apoyar la inspección y prue-
bas pre-instalación de un Árbol de Navidad Mojado (o ANM
del portugués, Árvore de Natal Molhada) equipo de explo-
ración petrolera submarina. A partir del reconocimiento de
elementos clave del equipo en un video stream, la aplicación
superpone información textual e imágenes generadas por el
ordenador en el video para facilitar la identificación, inspec-
ción y pruebas de las piezas seleccionadas del equipo.
A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D����� P��������
R�������� R���, D� M������ ��� P������� M�����
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 35

an alternative approach, a data visualiza-


tion auxiliary tool, in a coherent way and in
real time; this aids in facilitating an unders-
tanding of the device and the identification
1. Introduction
of its parts, which reduces the workload of
the interpretative processing operator.
Augmented Reality (AR) is a technology that
This paper presents an application based
provides integration of digital content with
on AR for mobile devices, an auxiliary tool
environment data in real-time, augmenting
that facilitates access to device information
our perception of the world. Currently, it
and guides user procedures for inspection
is a resource widely used in different areas
and pre-installation testing from the recog-
and industries as an auxiliary tool that faci-
nition of elements of interest generated by
litates the execution of complex operations.
the device. The application seeks to high-
It reduces costs, time, risks and errors while
light the advantages that this technology
performing tasks, and provides basic know-
provides, such as decreased study time, ac-
ledge prior to procedures before being ap-
curacy in performing tasks, knowledge of
plied in the real world, providing the user
basic processes, and lower cost impact.
new tools for different processes and in va-
rious environments [15]. The paper is organized as follows, Section
2 introduces the underwater device for oil
AR is commonly used with the aim to impro-
production and presents a literature review
ving experiences in various fields such as
related to AR; Section 3 details the key
medicine [13], training [14], education [19],
tools in the development of the AR system;
and other [10], providing growth and inno-
finally, Section 4 presents the final results,
vation [10].
and conclusions are presented in Section 5.
The focus of this project is to develop an in-
teractive application that uses AR resour-
ces to support and accelerate the inspec-
tion and pre-installation testing of a device
called Wet Christmas Tree (or ANM from
the Portuguese Árvore de Natal Molhada)
through the use of technologies on mobile 2. LITERATURE REVIEW
devices.

The content inspection and pre-installation


of the device is described in an extensi- This section presents a brief review of the
ve and detailed manual containing all the literature and state of the art. First, we in-
information that make up each part of the troduce the underwater device for oil pro-
device. The problem with this type of ma- duction, which will be the focus of study in
nual is that it can negatively impact the the development of application of AR. Next,
efficiency and speed of the testing and pre- we present basic definitions of AR. Finally,
paration process for the installation of the we describe AR in mobile devices and the
device. In facing this issue, the AR provides AR software development kit.

P�������� A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D�����
R�������� R���, D� M������ ��� P������� M�����
36 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

2.1. Oil Production Device sented as complex and detailed schematic


to the three-dimensional reality of the de-
vice. The overhead of the cognitive system,
The underwater device for oil production in turn, implies reduced capability, concen-
that will be used in the application deve- tration, interpretation, speed, and data re-
lopment of AR is an ANM, a device used in tention capacity of the human factor invol-
oil reserves installed on the seabed, com- ved in the process. This cognitive overload,
prising a set of valves and flow lines, inclu- along with reduced agility in the execution
ding a system control that is connected to a of tasks, contributes to the increased like-
panel on the production platform. Through lihood of committing errors.
it, parameters are measured including the
In this context, AR appears as advantageo-
pressure, temperature and volume of sand
us, contributing to speed and making the
produced, which is indispensable for mini-
process of inspection and pre-installation
mizing the potential for leaks. ANM is ins-
testing more robust. The AR for supporting
talled over 2000 meters below sea level,
a real-time view of the physical device, sup-
weigh 22 tons on average, and have dimen-
plemented by information synthesized by a
sions of 4600mm width x 5076mm length x
computer, can be applied to facilitate un-
5934mm height [18]. A scale model of the
derstanding of the device and the identifi-
device can be viewed in Figure 1(a).
cation of its parts, which reduces the wor-
The installation procedure, operation and kload of the interpretative processing ope-
maintenance of this device is described in rator.
an extensive and detailed manual [18] with
pages and pages of descriptive text supple-
2.2. Augmented Reality
mented by numerous diagrams, detailing all
parts, sections and connections of the devi-
ce. The handling of this field-bulky manual ugmented reality (AR) is a technology that
ends up being not-trivial, as it negatively enables the addition of virtual content in
affects the efficiency and speed of the ins- the real world, interactively and in real ti-
pection process and testing prior to insta- me - that is, a real scene viewed by a user
llation. blended with a virtual scene generated by
a computer. Unlike what happens with vir-
By presenting information in sequential for- tual reality, AR does not replace the physi-
mat, the printed manual is associated with cal reality, but it superimposes virtual data
a laborious process of searching for infor- in the real world, so that the user has the
mation that requires a constant back-and- feeling of being physically present in the
forth between pages of printed material. scenario that is presented on the screen [4].
The effort to handle the extensive literatu- Augmented reality combines elements from
re, coupled with the concentration required computer graphics, digital image processing,
to read and interpret the schematics, tends multimedia technology, and other areas [2].
to overwhelm the human cognitive system.
Particularly stressful is the process of map- An application of AR is comprised of a re-
ping the two-dimensional abstractions, pre- cognition step and a tracking step [2]. AR

A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D����� P��������
R�������� R���, D� M������ ��� P������� M�����
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 37

SDK License type Platform supported Marker Tracking


ARMedia Free, Commercial iOS, Android, Windows Predefined markers Natural Feature, 3D object
D’Fusion Free, Commercial iOS, Android, Windows 500 markers 1Natural Feature, 3D object
Metaio Free, Commercial iOS, Android, Windows 512 markers Natural Feature, 3D object
Wikitude Free, Commercial Android, Windows Multiple targets Natural Feature
ARToolKit Open source, Free, Commercial iOS, Android, Windows Predefined markers Natural Feature
Vuforia Open source, Free, Commercial iOS, Android, Windows Image markers Natural Feature, 3D object

Table 1: Comparison between different SDK.

works by using a camera that captures real- functions such as recognition, tracking and
world information and recognizes an ob- rendering content, aimed at efficiently sup-
ject using image recognition software. Of- porting the development of AR applications
ten, specific images are used as markers, [2].
but could also be real objects or marker-
less. The result is a scene made up of the Based on the characteristics that these tools
real and virtual world that is presented to provide, SDKs for the development of this
the user via a display device [12]. project were studied based on the literatu-
re, and included: ARMedia [3]; Vuforia [8];
ARToolKit [11]; Metaio [17]; D’Fusion [20];
2.2.1. AR on Mobile Devices With rapid and Wikitude [21], all of which are available
growth in the development of mobile devi- for creating AR apps [2]. Table 1 presents a
ces, mobile applications are becoming re- comparison of each of the tools listed above
levant [22]. This growth also led to an in- [2].
crease in the researchers’ interest in deve- According to Table 1, the SDK that most
loping applications of AR. Mobile devices closely matches our project needs is Vufo-
have the necessary features to work with ria, because it is open-source and in free
AR, such as cameras, processors, accelero- distribution; supports the development of
meters, GPS and screens all in one porta- applications for Android; and allows for de-
ble package. Other more complex systems tection without markers. With respect to trac-
exist which can create a more complete ex- king, the SDK supports 2D and 3D objects
perience for the user: these systems make and, moreover, supports expanded tracking,
use of devices such as head-mounted dis- which allows continuous experience when
plays (HMD) and high-range sensors [10]. the object is not fully visible in the came-
Another feature is its accessibility to both ra’s field of view [2], [8].
consumers and developers [23].

In the literature, different applications of AR


on mobile devices were found, including ap-
2.3. Vuforia
plications for geology [1]; museums [6]; li-
brary services [9]; learning [16]; and others
[5]. Vuforia is an SDK for mobile devices that
run AR applications in real time, making
use of computer vision technology to recog-
2.2.2. AR SDK The SDK (Software De- nize and track individual objects detected
velopment Kit) for AR provides tools and by the mobile camera. This SDK was re-

P�������� A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D�����
R�������� R���, D� M������ ��� P������� M�����
38 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

(a) ANM Model (b) Area of interest: ROV Panel

Figure 1: Machine oil exploration ANM and area of interest.

leased in February 2012 and is currently in 3. OUR APPROACH


version 4.2 [8].
The goal of the application is to develop an
The platform consists of a Target Manage- assistive tool based on AR for mobile devi-
ment System, where the developer carries ces, such as a tablet that facilitates access
one or several images to the object that you to device information and guides the user
want to track, and these images are then through inspection procedures and pre- ins-
accessed by the mobile device by connec- tallation tests. The system works by recog-
ting to a cloud database or directly from nizing an area of interest that has specific
local storage [2]. information according to device manual [18].

The architecture is composed of a camera The following are subsections detail the tools
that captures the display frame and pas- and system used in the development and
ses the content to the tracker, then con- implementation of the application.
vert the image (the camera’s pixel format
[e.g., YUV12] is converted to a format suita-
ble for rendering [e.g., RGB565] in OpenGL
ES [OpenGL for Embedded Systems]); then
the tracker contains the computer vision al-
gorithms that detect and track objects in
real-world camera video frames; then the
video background renderer stores the ca-
mera image in the virtual object; and finally, 3.1. Mobile Device
the application code for each frame is pro- A Tablet Galaxy Tab S is used as the tar-
cessed, the virtual object is updated, and get application platform. The Tablet’s tech-
the result is the rendering of overlapping nical specifications are: Octa Core proces-
graphics [8]. sor (Quad 1.9 GHz + Quad 1.3 GHz); 3GB
of RAM; Android version 4.4.2 KitKat; and
8-megapixel camera.

A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D����� P��������
R�������� R���, D� M������ ��� P������� M�����
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 39

Figure 2: Vuforia’s target management system workspace. Image target with visible features.

3.2. Area of Interest load, activate and deactivate different data


sets [7], [12].
The area of interest is the selected ROV An image of the ROV ANM panel is uploa-
(Remote Operated Vehicle) panel of the ANM. ded to the database, with the result being
The panel is fully operated by the ROV shown in Figure 4 (this includes natural
for mechanically - operated valves. It con- features which will later be detected and
sists of 12 different valves, among them the tracked by the system). Finally, an XML file
production, override, and chemical injection containing the image information from the
valves [18]. The ROV panel can be seen in database [7]. This file is downloaded to be
Figure 1(b). included in the application.

3.3. Creating Image Targets 3.4. Integrating Image Targets

Vuforia SDK can detect and track images fter completing the first step of Section 3.3,
that do not require special black- and-white according to the Vuforia workflow (see Fi-
regions (as with traditional markers or QR gure 3), the next step is integrating the in-
codes) in order to be recognized. The sys- formation in the application.
tem detects and tracks a number of patterns
based on the natural characteristics of Ima- This second step is represented by two main
ge Target itself in order to: distinguish the modules, ImageTarget and ImageTargetRen-
generated elements; and compare the ima- derer. The ImageTarget module includes XML
ge stored in a database with what is being files as well as textures of objects that are
captured by the camera [7], [22]. to be augmented. Here we find all of the
identified real-world objects that Vuforia can
The Image Targets are created using JPG detect and track. The ImageTargetRenderer
or PNG images in RGB or grayscale. The module, alternatively, renders the augmen-
images are later stored in an online data- ted objects. This is where the references
base that allows us to create and manage and state of augmented objects, along with
the Image Target, as well as upload, down- the matrix of position and orientation of the

P�������� A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D�����
R�������� R���, D� M������ ��� P������� M�����
40 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

Figure 3: Image Target workflow.


Fig. 3. Image Target workflow [7].

objectobjects.
augmented (relative to isthe
This camera
where referenceand
the references fra-
state ofthe virtual objects,
augmented contentalong
is augmented, positio-
with the matrix of position
me) are located [7], [22].
and orientation of the object (relative to the camera ned and rendered, as can be seen in Figure
reference frame) are located [7], [22].
4.
3.5 Visual Interface: The application of the visual interface includes virtual object image designs, and content
from 3.5. Visual
the device Interface
information manual, as follows: The Inspection option, after the overlay of
virtual objects, the user can access speci-
– The application introduction includes a cover that presents the user with preliminary information on imple-
fic information for each valve by interacting
The application
menting of the Here,
the application. visualthe
interface
user hasinclu-
the option of choosing between an Inspection of valves and the
with the application. The user taps on the
des virtual object
Pre-installation Test. image designs, and con-
Tablet screen by selecting one of the valves
tentvirtual
– The from the device
objects information
are designed manual,
according as area of interest.
to the
augmented, thisinformation
opened aofnew
eachscreen
valve. with
follows:
– The presentation of content includes a cover which presents to the user
specific content. In the Pre-installation Test
4 RESULTS: The application tests make use of the scaleoption thetheuser
model of ANM has the option
device. During to
thechoose a
test, a Tablet
The application introduction includes a test which thealready
overlay of virtual
camera captures the scene, then compares the captured images to those stored in the objects has
Target Manager
cover that presents the user with preli- specific information regarding the selected
database. Once the Image Target is detected, the virtual content is augmented, positioned and rendered, as can
minary
be seen in Figureinformation
4. on implementing the test. This procedure can be seen in Figu-
application. Here, the user has the op- re 5. Figure 5(a) shows the test done using
tion of choosing between an Inspection the ANM scale model for the Inspection op-
of valves and the Pre-installation Test. tion; Figure 5(b) shows the specific content
generated after the user has selected one
The virtual objects are designed accor-
of the ROV panel valves; and Figure 5(c)
ding to the area of interest.
shows one of Pre-installation Test.
The presentation of content includes a
cover which presents to the user infor-
mation of each valve. 5. CONCLUSIONES

4. RESULTS Augmented Reality is a technology that ex-


pands
Fig. 4. Augmented Reality Experience: Real the
world current
view physical
+ virtual object. reality by ad-
ding real-time information with the direct
The application
The Inspection option, tests make
after the use of
overlay of virtual
the scale overlay
objects, the of aaccess
user can virtual world
specific through aformobile
information each valve
model of the ANM device. During the test,
by interacting with the application. The user taps on the device screen. In this study we presented
Tablet screen by selecting one of the valves augmented,
this opened a new screen with specific content.
a Tablet camera captures the scene, then In the Pre-installation Test option that
the main advantages the user
the has the option to
technology
choose a test which the overlay of virtual objects has specific information regarding the selected test.
compares the captured images to those al- can offer which includes providing the user
ready stored in the Target Manager data- with new tools for different processes and
This procedure can be seen in Figure 5. Figure 5(a) shows the test done using the ANM scale model for the
base. option;
Inspection Once Figure
the Image Targettheisspecific
5(b) shows detected, in various
content generated environments.
after the user has selected one of the ROV
panel valves; and Figure 5(c) shows one of Pre-installation Test.
A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D����� P��������
R�������� R���, D� M������ ��� P������� M�����
5 CONCLUSIONS: Augmented Reality is a technology that expands the current physical reality by adding
real-time information with the direct overlay of a virtual world through a mobile device screen. In this study we
presented the main advantages that the technology can o↵er which includes providing the user with new tools for
– The presentation of content includes a cover which presents to the user information of each valve.

4 RESULTS: The application tests make use of the scale model of the ANM device. During the test, a Tablet
camera captures the scene, then compares the captured images to those already stored in the Target Manager
C������� I������������
database. M���������,
Once the Image TargetV������ �, O������the
is detected, ���� - UMNG
virtual - F�������
content �� I��������� positioned and rendered, as can
is augmented, 41
be seen in Figure 4.

Figure 4: Augmented Reality


Fig. 4. Augmented RealityExperience: Real
Experience: Real worldworld
view + view
virtual+ virtual object..
object.

The Inspection option, after the overlay of virtual objects, the user can access specific information for each valve
First,
by augmented
interacting with thereality for mobile
application. The userdevices As to
taps on the Tablet future
screen directions,
by selecting one ofa the
second
valves phase has
augmented,
as well as the maintenance, operation and
this opened a new screen with specific content. In the been planned for extending and enhancing
Pre-installation Test option the user has the option to
choose a test which the overlay of virtual objects has specific information regarding the selected test.
installation manual of the ANM was stu- the application to more broadly support the
died,procedure
This regardingcan the area
be seen of interest.
in Figure 5. FigureNext,
5(a) showsinspection process
the test done andANM
using the pre-installation
scale model fortests
the
we defined the architecture for the imple- of ANM.
Inspection option; Figure 5(b) shows the specific content generated after the user has selected one of the ROV
mentation
panel of application
valves; and support
Figure 5(c) shows one offor insta-
Pre-installation Test.
llation of the ANM. Finally, we developed
5an CONCLUSIONS:
interactive AR application (app)istoa technology
Augmented Reality de- that expands the current physical reality by adding
monstrate the advantages and potential ap-
real-time information with the direct overlay of a virtual REFERENCIAS
world through a mobile device screen. In this study we
presented the main advantages that the technology can o↵er which includes providing the user with new tools for
plication of this technology in the context of
di↵erent processes and in various environments.
testing and preparation for installation of
the ANM. The tests were done in the field 1. Ababsa, F., Zendjebil, I., Didier, J., Pouderoux, J.,
and Vairon, J. Outdoor augmented reality system
using a scale model of the device. for geological applications. In Advanced Intelligent
Mechatronics (AIM), 2012 IEEE/ASME International
This project initially presented an applica- Conference on (July 2012), pp. 416–421.
tion based on AR for mobile devices, such
as a Tablet that facilitates access to devi- 2. Amin, D., and Govilkar, S. Comparative study of
ce information and guides the user through augmented reality sdk’s. International Journalon Compu-
tational Sciences & Applications (IJCSA) (2015).
inspection procedures and pre-installation
tests. The system work by recognizing an 3. armedia.it. Ar media sdk. http://www.armedia.it/.
area of interest that presents specific in-
4. Azuma, R. T. A survey of augmented reality. Pre-
formation according to the device manual. sence: Teleoperators and Virtual Environments (1997).
The use of AR appears to be advantageo- 5. Corona Arzola, C., and de la Fraga, L. Processing
us in this context, as it contributes posi- video frames in ipad for augmented reality appli-
tively to the inspection process and pre- cations. In Electronics, Communications and Com-
installation testing. It facilitates an unders- puters (CONIELECOMP), 2014 International Confe-
rence on (Feb 2014), pp. 155–159.
tanding of the device as well as the identifi-
cation of parts, which reduces the workload 6. Darling, J., Vanoni, D., Levy, T., and Kuester, F.
of the interpretative processing operator. Enhancing the digital heritage experience from field
to museum: User-centered system design of an aug-
mented reality tablet application for cultural herita-

P�������� A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D�����
R�������� R���, D� M������ ��� P������� M�����
42 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

ge. In Digital Heritage International Congress (Di- 18. SAC Cororatte. Árvore de Natal Molhada Hori-
gitalHeritage), 2013 (Oct 2013), vol. 1, pp. 453–453. zontal Tipo DL-GLL 2500M. Manual de manutenção,
operação e instalação, vol. 1 and 2. COOPER CAME-
7. Developer.vuforia.com. Vuforia library. RON and PETROBRAS, 2001.
http://developer.vuforia.com/library/.
19. Sumadio, D., and Rambli, D. Preliminary evalua-
8. Developer.vuforia.com. Vuforia sdk. tion on user acceptance of the augmented reality
http://developer.vuforia.com. use for education. In Computer Engineering and Ap-
plications (ICCEA), 2010 Second International Con-
9. Hahn, J. Mobile augmented reality applications ference on (March 2010), vol. 2, pp. 461–465.
for library services. New Library World 113, 9/10
(2012), 429–438. 20. t-immersion.com. D’fusion sdk.
http://www.t-immersion.com/products/dfusion-suite.
10. Hincapie, M., Caponio, A., Rios, H., and Mendivil,
E. An introduction to augmented reality with appli- 21. wikitude.com. Wikitude sdk.
cations in aeronautical maintenance. In Transparent http://www.wikitude.com/products/wikitude-sdk/.
Optical Networks (ICTON), 2011 13th International
Conference on (June 2011), pp. 1–4. 22. Xiao, C., and Lifeng, Z. Implementation of mobi-
le augmented reality based on vuforia and rawajali.
11. Hitl.washington.edu. Artoolkit sdk. In Software Engineering and Service Science (IC-
http://www.hitl.washington.edu/artoolkit/. SESS), 2014 5th IEEE International Conference on
(June 2014), pp. 912–915.
12. Ibañez, A. S., and Figueras, J. P. Vuforia v1.5
sdk: Analysis and evaluation of capabilities. Mas- 23. Zhang, Q., Chu, W., Ji, C., Ke, C., and Li, Y. An
ter’s thesis,Universitat Polit ?ecnica de Catalunya, implementation of generic augmented reality in mo-
2013. bile devices. In Information Technology and Artificial
Intelligence Conference (ITAIC), 2014 IEEE 7th Joint
13. Lamounier, E., Bucioli, A., Cardoso, A., Andrade, International (Dec 2014), pp. 555–558.
A., and Soares, A. On the use of augmented reality
techniques in learning and interpretation of cardio-
logic data. In Engineering in Medicine and Biology
Society (EMBC), 2010 Annual International Confe-
rence of the IEEE (Aug 2010), pp. 610–613.

14. Macchiarella, N., and Vincenzi, D. Augmented


reality in a learning paradigm for flight aerospace
maintenance training. In Digital Avionics Systems
Conference, 2004. DASC 04. The 23rd (Oct 2004),
vol. 1, pp. 5.D.1–5.1–9 Vol.1.

15. Marcelino De Oliveira, R., and Cavalcante de Oli-


veira, J. A kinect-based oil platform training applica-
tion. In Virtual and Augmented Reality (SVR), 2014
XVI Symposium on (May 2014), pp. 135–138.

16. Meda, P., Kumar, M., and Parupalli, R. Mobile


augmented reality application for telugu language
learning. In MOOC, Innovation and Technology in
Education (MITE), 2014 IEEE International Confe-
rence on (Dec 2014), pp. 183–186.

17. Metaio.com. Metaio sdk. https://www.metaio.com.

A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D����� P��������
R�������� R���, D� M������ ��� P������� M�����
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

COPEM: S������ �� ������������ ��


���������� ������ �� ���������
COPEM: C��������� B������� S����� B���� �� M�������

A����� E������ M���� V����1 , E����� L������� S����� B�����1 , C����� A������ R����
C������1 � W����� H������ S������ R��������1

Palabras clave:
Construcción de personajes, metadatos, puntos de anclaje, pivote.

Keywords:
Characters building, metadata, anchor point, pivot.

1
Grupo de investigación en Multimedia GIM, Programa de Ingeniería Multimedia, Universidad Militar
Nueva Granada, Bogotá, Colombia
44 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

Resumen

Las nuevas tecnologías en el área del arte y entretenimiento,


permiten la exploración de nuevas formas de construcción de
artefactos digitales, lo que permite la personalización de los
productos generados e igualmente la disminución de tiempo
y recursos. Este artículo propone una nueva forma de cons-
trucción de personajes, basado en un conjunto de gráficas de
partes que conforman el personaje asociadas mediante me-
tadatos, que al ser procesados, generan un personaje final,
acorde a las características dadas por el usuario.

Abstract

New technologies in the arts and entertainment areas allow


exploration of new forms of construction of digital artifacts.
These technologies allow customization of generated pro-
ducts and also the reduction of time and resources. This ar-
ticle proposes a new way for building characters, based on a
set of graphic parts that conform the character, these parts
were linked with metadata. When processed, this metadata
generates a final character, according to the characteristics
given by the user.

COPEM: S������ �� ������������ �� ���������� ������ �� ��������� P��������


M����, S�����, R���� � S������
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 45

genes, cada una con su respectiva descrip-


ción.

La creación de personajes digitales a par-


1. Introducción tir de partes, es un proceso que se usa en
la animación tipo “cut out”, en la cual se
realizan asociaciones entre ellas, y se ani-
Hoy en día, la construcción personalizada man mediante el uso de un punto de an-
de personajes para variados contextos, ha claje, creando así, un rig en dos dimensio-
tomado gran importancia, y en especial cuan- nes. Las entidades usadas para la anima-
do los medios tecnológicos han revolucio- ción cut out, actúan como marionetas, cuyo
nado la forma de su creación. Igualmente, movimiento depende de la rotación de par-
existen diferentes formas teóricas de crea- tes sobre un eje previamente seleccionado,
ción, en las que se encuentra la ilustración y generalmente ubicado en el punto de ar-
o su generación 3D. La creación persona- ticulación entre partes.
lizada de personajes ha sido visible en vi-
deojuegos, en los cuales el usuario tiene La información de estos puntos de articula-
control sobre sus características físicas, lo ción se puede especificar de diferentes ma-
cual le permite definir visualmente la per- neras, según Howe, una de ellas es conden-
sonalidad del personaje, y esto ayuda que sarla en un formato de contenido, conocido
el jugador se identifique más con su avatar, como metadato, éste proporciona informa-
y se mejore la adquisición de ciertas ha- ción acerca de la documentación, o de otros
bilidades y competencias durante la prác- datos dentro de un entorno [7]. Los meta-
tica del videojuego [6]. Pero para otro ti- datos son un conjunto de datos que consti-
po de producciones audiovisuales como las tuyen información estructurada y descrip-
animaciones, es imposible tener el control tiva sobre documentos, actualmente digi-
de la creación de este tipo de entidades, tales. Son generalmente archivos de tex-
y cada cambio en su caracterización ver- to que acompañan un archivo digital (DLO,
bal, incurre en todo un proceso de diseño e Document like Object), el cual puede ser
ilustración, lo cual consume mucho tiempo imagen, video, texto, etc, y son de mucha
y recursos. utilidad para la protección del material con
licencias y derechos de autor [10]. Los me-
La creación de un personaje mediante par- tadatos brindan apoyo en la búsqueda de
tes requiere de la generación previa de las contenido, facilitan el intercambio de datos,
mismas, las cuales deben guardar relación entregan información que pueda procesar
con el personaje final, lo que implica una contenido proveniente de una fuente exter-
generación de metadatos que permitan iden- na, catalogar información de recursos digi-
tificar a qué región pertenece dicha parte. tales, entre otros. Es por eso, que desde la
En la construcción de partes de personaje categorización de documentos físicos en bi-
se requiere caracterizar una base, que bajo bliotecas, hasta el manejo de los documen-
un formato de contenido permita una co- tos digitales en la actualidad, los metada-
rrecta clasificación, almacenamiento y pos- tos han sido de gran importancia en la pre-
terior recuperación, ya que cada personaje servación de colecciones digitales [10],[11].
se constituye por un conjunto de cinco imá-

P�������� COPEM: S������ �� ������������ �� ���������� ������ �� ���������


M����, S�����, R���� � S������
46 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

La estructura de los metadatos, está basa- métodos que permiten la construcción de


da en el manejo de elementos, organizados rostros mediante partes como ojos, nariz o
en atributos, propiedades, valores, descrip- boca, a partir de la descripción de informa-
tores o recursos, dependiendo del esquema ción como tamaño, posición o rotación [13].
o estándar usado. Existen diferentes esque- Por todo lo anterior, se propone una nue-
mas de metadatos, entre los que se encuen- va forma de construcción de personajes por
tran MPEG-7, IEEE LOM y DCMI, enfoca- partes, basado en metadatos, que contie-
dos al manejo de recursos digitales de di- nen una serie de características, haciéndo-
ferente naturaleza como multimedia, educa- se importante en procesos de previsualiza-
tiva y DLO respectivamente [5]. Dublin Co- ción de animaciones, o creación interactiva
re (DC) es un esquema de metadatos, que de personajes para historias, con el fin de
trabaja con la Iniciativa de Metadatos Du- facilitar su construcción y personalización,
blin Core (DCMI), la cual permite estructu- disminuyendo de esta manera tiempo y re-
rar de manera estandarizada la información cursos.
que se incluye en los metadatos de un re-
curso digital. La información que contienen
los metadatos con este estándar puede ser 1.1. Materiales y Métodos
representada en formato de texto o XML [2].

IEEE LOM (learning object metadata) es un La creación del sistema de construcción de


estándar fue creado con la intención de me- personajes basado en metadatos (COPEM)
jorar la descripción de material educativo, comprende de dos momentos, el primero,
y actualmente tiene 77 elementos descrip- “inline” que corresponde con la interacción
tores, de los cuales la mayoría no son uti- en tiempo real por parte del usuario. El se-
lizados, por lo cual ha sido muy criticado gundo momento, “offline”, corresponde a la
y no ha tenido buena acogida ya que, en- generación de la base de personajes y ca-
tre otras cosas, los elementos de la cate- racterización de metadatos. El momento in-
goría de uso educativo (la cual debe ser la line se compone de tres partes y una base
más importante), no son totalmente usados de almacenamiento, los cuales correspon-
[9]. MPEG-7 es un esquema de metadatos den a: la captura, la visualización y la aso-
basado en el DC, que permite describir re- ciación. El momento offline se compone de
cursos multimedia; audio, imagen, etc. Es- una base de almacenamiento. Como se ve
tá basado en el lenguaje de XML, usando en la figura 1, diagrama de diseño del sis-
descriptores para la organización de la in- tema COPEM.
formación. En su nivel más bajo, es posible
obtener toda la información que guarda en El componente de captura recibe los des-
sus descriptores y etiquetas, y en un nivel criptores del usuario, desde una selección
más alto, permite obtener información de tipo menú, los cuales se procesan mediante
semántica. [3]. la identificación en orden jerárquico de ca-
da una de las características seleccionadas,
El proceso de construir personajes digita- con el fin de iniciar una búsqueda que per-
les, basado en la selección de característi- mita identificar y recuperar el archivo de
cas no ha sido muy explorado, pero existen metadatos más parecido al requerimiento
del usuario, al igual que el nodo de perso-

COPEM: S������ �� ������������ �� ���������� ������ �� ��������� P��������


M����, S�����, R���� � S������
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 47

NP

Figura 1: Diagrama de diseño del sistema COPEM.

CARACTERÍSTICAS DE PERSONAJE
naje vinculado a dicho archivo, con el fin de GENERALES
utilizarlo en el módulo de asociación. Tipo de Ectomorfo Mesomorfo Endomorfo
Cuerpo
Raza Afroamericano Asiático Caucásico
Para que el anterior proceso se pueda lle- Color Piel-Negro Piel-Amarillo Piel-Blanco
var a término, se verifica el modelo de me- de Piel
Género Hombre Mujer
tadatos Dublin Core “DCMI” en el cual, se Tamaño Grande Mediano Pequeño
identifica que no están generadas las ca- (ancho, largo) (promedio) (delgado, corto)
ESPECÍFICAS
racterísticas asociadas a un personaje, por Forma
lo que se realiza un estudio previo que per- Ojos Ovalado Promedio Alargado
Nariz Aguileña Recta Respingada
mita generar la clasificación de caracterís- Cabello Lizo Rizado Ondulado
ticas del cuerpo humano, con el fin de iden- Orejas Angulares Promedio Redondas
Cara Redonda- Cuadrada Triangular
tificar las candidatas a datos base, y así Ovalada
poder generar el recurso de metadato. Co- Color
Ojos Negro Café Azul-Verde Miel
mo se ve en la Tabla 1. Características de Cabello Negro Castaño- Amarillo Gris-
personaje. Rojo Amarillo Blanco

Identificadas las características, se proce- Tabla 1: Características físicas de persona-


de a la generación del recurso de metadato jes.
incluyendo puntos de anclaje o pivotes, en-
tre otros, los cuales permiten la generación
de un personaje final. La tabla 2, Elemen- Paralelamente a la creación de los meta-
tos del metadato de acuerdo a necesidades datos, se generan las partes o nodos del
del proyecto COPEM, muestra cada carac- personaje, las cuales, deben ser previamen-
terística y una descripción del porqué de te planeadas para evitar inconsistencias y
cada una de ellas. errores en la asociación. Las partes bási-
cas que componen el cuerpo humano son:
cabeza, tronco, extremidades superiores y

P�������� COPEM: S������ �� ������������ �� ���������� ������ �� ���������


M����, S�����, R���� � S������
48 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

extremidades inferiores [12], y en el caso son los puntos de anclaje, que permiten la
de personajes por partes o marionetas, és- asociación de nodos padre y nodos hijos.
tas pueden ser divididas en tantos nodos
como se desee, según las necesidades del Nombre o título: Nombre de la parte.
Creador: Nombre del creador del metadato.
proyecto. Por ejemplo, en su proyecto de Fecha: Fecha de creación del metadato.
animación de personajes por el movimien- Editorial: Entidad que publica el proyecto.
Contribuyente: Dependencia encargada de realizar el pro-
to de la mano, Zhiqiang Luo y sus compa- yecto.
ñeros, dividieron su marioneta digital por: Descripción: Breve descripción del nodo y su relación en
el personaje.
cabeza, cuello, cadera, brazos y piernas, ya Edad: Edad del personaje: adulto, niño, anciano.
que usualmente se ignoran codos y rodillas Raza: Raza del personaje: afroamericano, asiático
o caucásico.
[8]. Tema o Género: Género del personaje, Hombre o mujer.
Tipo: Tipo de nodo ej: Padre, o hijo de torso, hijo
Para este proyecto, se separa el personaje de brazo izquierdo, etc.
Formato: Tipo de formato de imagen, en éste caso,
en 5 partes; cabeza, torso, brazo derecho, PNG.
brazo izquierdo y piernas, basado en las Identificador: Número que permite identificar si es pa-
dre, y el nivel de jerarquía al que corres-
partes que componen el cuerpo humano de ponde. (padre:0000,cabeza=1000, brazo iz-
la Tabla 1. Características físicas de perso- quierdo=2000, piernas=3000, brazo dere-
cho=4000).
naje. Ver Figura 2. Partes o nodos de per- Es parte de: El nombre del padre al cual está asociado el
sonaje. Las diferentes piezas, junto con sus nodo.
Tiene parte: Nodos que se desprenden de ésta parte ej:
metadatos asociados, son almacenadas en miembro superior izquierdo: brazo izquierdo,
un sistema de archivos para su posterior antebrazo izquierdo y mano izquierda.
Identificador de La página web (URI) a la cual pertenece la
consulta, el cual se crea previamente y se recurso: licencia del proyecto.
denomina el momento offline. Fuente: Nombre de la dependencia académica que
está llevando a cabo el proyecto.
Cobertura: Región a la que está destinada el proyecto,
La separación de las partes, se deriva del de acuerdo al alcance del recurso.
diseño preliminar del personaje completo. Derechos: Unidad académica, u organismo que desa-
rrolla el proyecto, y a la cual se le atribuyen
Se realiza la ilustración de un personaje los derechos de creación.
basado en las características escogidas de Tamaño del per- Grande (G), Mediano (M), Pequeño (P).
sonaje:
tamaño y forma, y se construyen una a una Color: Color de características físicas desde arriba
las partes requeridas por medio de un soft- hacia abajo: cabello, ojos, piel.
Forma: Forma de la parte específica. Ej: Cabello: li-
ware de ilustración vectorial como Adobe so, rizado, afro.
Illustrator CC. Tipo de cuerpo: Endomorfo (E), Ectomorfo (H), Mesomorfo
(M).
Punto de ancla- X1, Y1, en caso de existir más de un pun-
Las partes creadas son almacenadas de ma- je: to de anclaje, se almacenan de manera na-
nera individual, cuidando aspectos como el tural en el sentido de las manecillas del
reloj, iniciando desde las 12:00. Se se-
tamaño y formato de imagen. Se escoge el paran por punto y coma sin espacios ej:
tipo raster, ya que permite el manejo de pí- X1,Y1;X2,Y2;X3,Y3;X4,Y4.
Punto de ancla- X1,Y1 del padre.
xeles, y el formato de imagen PNG, gracias je objetivo:
a que contiene un canal alfa, que permite Tamaño de la Alto (H), Ancho (W).
imagen:
superponer los nodos, y su compresión no Punto de ancla- %X, %Y, Coordenada en porcentajes del punto
tiene pérdida de información. je en porcenta- de anclaje respecto a la imagen.
je:

Un elemento importante en la construcción Tabla 2: Elementos del metadato de acuer-


de los metadatos y las partes del personaje, do a necesidades del proyecto COPEM.

COPEM: S������ �� ������������ �� ���������� ������ �� ��������� P��������


M����, S�����, R���� � S������
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 49

Por lo que se debe definir la jerarquía de ubicación es central entre todas las partes,
nodos. Al definir las partes que funcionan y se convierte en el mejor referente para
como nodos padres, y aquellas que se aco- el posicionamiento de todos los nodos, la
plan como nodos hijos, se conoce la jerar- ubicación de estos se realiza en dirección
quía en su ubicación. De acuerdo con el de las manecillas del reloj como se ve en la
proceso de animación tipo cut out, se sa- Figura 3.
be que cada nodo debe estar ligado a uno
anterior o padre, el cual guía su movimien- La jerarquía de asociación de los nodos o
to. Así lo hace la herramienta de Adobe partes de imagen se realiza mediante un
Flash EDAP TOOLS, quienes en su plugin árbol, ver Figura 3, cuya estructura mues-
SMART MAGNET RIGS, crean rigs de ma- tra la organización basado en los puntos
rionetas digitales a partir de la asociación de anclaje con prioridad en los nodos pa-
de partes de personajes mediante el uso de dre. Teniendo la estructura jerárquica del
nodos padre y nodos hijos [4]. personaje, los metadatos y los nodos de
partes de personaje, pasa al componente
de asociación, el cual realiza el proceso de
Torso Cabeza Brazo
izquierdo
Piernas Brazo
derecho ubicación de cada nodo en un lienzo final,
iniciando desde el nodo padre seguido por
los hijos correspondientes.

El personaje generado, se guarda en un sis-


tema de archivos junto con su metadato con
el fin de poder hacer seguimiento y con-
Figura 2: Partes o nodos del personaje. trol de los diferentes nodos utilizados para
su composición. Finalmente, el componen-
El acoplamiento de nodos se realiza me- te de visualización permite identificar grá-
diante puntos de anclaje; el cual es una ficamente los nodos o partes del personaje
intersección entre los nodos, y el manejo escogidas por el usuario, al igual que el
de los gráficos; también es conocido como personaje generado luego del proceso de
punto de pivote, gracias a que es el punto asociación de cada nodo de la imagen al
sobre cual se asocia, rota, mueve o escala nodo padre de la imagen final.
un elemento [2]. Los puntos de anclaje son
escogidos de acuerdo a la región de inter-
sección entre partes, de esta forma, cada
nodo hijo tiene un punto de anclaje, y el pa- 2. RESULTADO Y ANÁLISIS
dre (torso), cuenta con 4 puntos de anclaje,
correspondientes a cabeza, brazo izquierdo,
piernas y brazo derecho. Los metadatos representan la composición
de un personaje final con cada una de sus
Se escoge el tronco o torso como nodo pa- características, lo que permite una compo-
dre, ya que es el elemento que contiene el sición final que involucra las partes más
mayor número de puntos de anclaje, lo cual significativas para la generación de perso-
indica que todas los nodos están asociados najes en 2D. Una parte del personaje puede
de una u otra forma a él, adicionalmente, su convertirse en un nodo padre, por tal moti-

P�������� COPEM: S������ �� ������������ �� ���������� ������ �� ���������


M����, S�����, R���� � S������
50 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

ECTOMORFO

Figura 3: Puntos de anclaje y su ubicación en el nodo padre, para estructura jerárquica del
personaje.

de metadato se basan en la sintaxis del DC-


MI, lo cual, lo hace extensible y fácil de
mantener; permitiendo su reutilización en
futuros proyectos. Igualmente se tiene en
cuenta los puntos de anclaje que permiten
la composición del personaje final. La tabla
3 presenta un ejemplo de estos metadatos.
Figura 4: Ejemplos de personaje totalmente
construido. La generación del personaje por partes re-
quiere de un proceso de ilustración, en el
que se analiza cada característica física de
vo las características específicas se deben la entidad (personaje), se desarrolla un di-
describir en el metadato con los nodos hijos seño preliminar, y se genera cada parte por
asociados. separado, generando puntos de anclaje acor-
El personaje final generado a lo largo de to- de entre el nodo padre y los nodos hijo, con
do el proceso requiere de sus propios meta- el fin de facilitar la asociación y su correcta
datos que permitan la identificación y tra- generación.
zabilidad de los nodos utilizados en el pro- El árbol de jerarquía permite facilitar la
ceso, con el cual se pueda recrear la cons- creación del nuevo personaje, en el orden
trucción del mismo. Los anteriores recursos

COPEM: S������ �� ������������ �� ���������� ������ �� ��������� P��������


M����, S�����, R���� � S������
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 51

Contenido Propiedad intelectual Instancia (artefacto digital)


Título Nariz Autor Fecha creación
Descripción Es una imagen de nariz Publicado por UMNG-SAMI Formato tamaño
Tipo Raza Latino Derechos UMNG Formato tipo png
Tipo somático — Colaborador Formato fuente ai
Tema Ceja Licencia copyright Identificador ID
Fuente SAMI-ING- INV-1773 Idioma Español
Relación con Hijo Cabeza Cobertura Colombia
Parte de Cabeza
Tamaño
Área activa
Punto anclaje
%Punto de anclaje
Ancho
Alto
Tamaño nariz longitud
Tamaño nariz dimensión
Color
Forma nariz

Tabla 3: Metadato general de parte de personaje (nariz).

establecido de los pivotes, y la identifica- La construcción de personajes está limita-


ción única de cada parte, garantizando la da al tamaño del repositorio de partes, por
generación acorde del personaje. Así mis- lo cual se deben aumentar en cantidad y
mo es de vital importancia las etiquetas de variedad, con el fin de diversificar los per-
tamaño, forma y color ya que permiten per- sonajes generados. La generación de cada
sonalizar el resultado. Los personajes ge- parte con sus respectivos puntos de ancla-
nerados (ver Figura 4), cumplen con las ex- je debe corresponder exactamente en los
pectativas del usuario en cuanto a las for- diferentes nodos con el fin de generar per-
mas definidas en los archivos de metadatos sonajes coherentes.
utilizados en el proceso de cada personaje
creado. Las partes son fácilmente intercam- La generación de árboles de nodos es un
biables los que demuestra una gran flexibi- proceso utilizado para estructurar datos, en
lidad en la generación. la construcción de entidades o gráficos com-
plejos compuestos por entidades más sim-
ples, de forma lógica y jerárquica. En el sis-
tema COPEM, la construcción de un árbol
3. CONCLUSIONES de nodos es de vital importancia para con-
trolar el orden jerárquico de la dependen-
cia y emparentamiento de cada nodo en el
Esta nueva forma de creación de personajes personaje completo.
mediante partes prediseñadas y basada en
metadatos, permite su construcción a gus- Los recursos de metadatos generados am-
to del usuario; la cuales sirven en procesos plía el estándar DCMI en cuanto a perso-
de previsualización de animaciones, o crea- najes, lo cual hace parte de un trabajo es-
ción interactiva de personajes para histo- tandarizado que aporta a la industria del
rias, con el fin de facilitar su construcción y arte, animación, entretenimiento, al sector
personalización, disminuyendo de esta ma- académico entre otros.
nera tiempo y recursos.

P�������� COPEM: S������ �� ������������ �� ���������� ������ �� ���������


M����, S�����, R���� � S������
52 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

AGRADECIMIENTOS The case of puppetry. Proceedings - 2010 Interna-


tional Conference on Cyberworlds, CW 2010, 46–52.
http://doi.org/10.1109/ CW.2010.24, 2010.
9. Marzal, M., García, Q., Calzada, J., & Cuevas A.
Este trabajo es financiado con recursos de
Desarrollo de un esquema de metadatos para la
la Vicerrectoría de Investigaciones de la Uni- descripción de recursos educativos: el perfil de la
versidad Militar Nueva Granada, en el pro- aplicación mimeta. 2006. Disponible en:
yecto INV-ING-1773, “Método computacio- http://redc.revistas.csic.es/ index.php/ redc/ article/
nal para la generación de personajes a par- view/ 308 /383. 2006
10. RODRIGUEZ, I.. Tesis de fin de carrera: Intro-
tir de características”, de 2015. Los autores
ducción a los principales estándares de metadatos
agradecen el apoyo brindado por la UMNG. usados en aplicaciones y proyectos de i+d+i, Es-
cuela Técnica Superior de Ingenieros, Sevilla. 2009.
11. RUIZ, A. & SALVADOR, A. Metadatos para la
preservación de colecciones digitales, 2005.
REFERENCIAS 12. SOBOTTA, J., PUTZ, R., & PUTZ, R. Atlas de
anatomía humana: Cabeza, cuello, miembro superior.
Vol. 1, Editorial Médica Panamericana, p.02. 2006.
1. AUTODESK. Autodesk Knowledge Network. 13. SAIRYO, K. Portrait illustration creation (56) Re-
http://knowledge.autodesk.com/ support/ 3ds-max/ ferences Cited SYSTEM, CHARACTER CREATION
learn-explore/ caas/ CloudHelp/ cloudhelp/ 2015/ ENU/ SYSTEM, AND CREATED PORTRAIT ILLUSTRA-
3DSMax/ files/ GUID- A4853FF5 -8657 -4ED0 -92E0- TION U S PATENT DOCUMENTS DISPLAY SYS-
98F4CFB445A3 -htm.html, 28 de Julio de 2015. TEM. US 8,600,101 B2. 2010.
2. CAPLAN, PRISCILLA. "You Call It Corn, We Call
It Syntax-Independent Metadata for Document-Like
Objects."The Public-Access Computer Systems Re-
view 6, no. 4, 1995: 19-23. Disponible en:
https://journals.tdl.org/ pacsr/ index.php/ pacsr/ ar-
ticle/ viewFile/ 599/ 5621, 1995.
3. DELCOR J. & PÉREZ V. Descripción, indexación,
búsqueda y adquisición de video mediante descrip-
tores MPEG-7. Disponible en:
https://upcommons.upc.edu/ bitstream/ handle/ 2099.1/
3855/ 54955-1.pdf?sequence=1
4. EDAP TOOLS, Smart magnet rigs [en línea], [fe-
cha de consulta: 5 de Julio 2015], base de datos de
código fuente de Smart magnet rigs, disponible en:
http://flash-powertools.com/ downloads/
https://github.com/ electric-dog/ EDAP- tools/ blob/
master/ src/
19 %20Smart %20Magnet %20Joint.jsfl
5. GHAVAM, A. ; STEINMETZ, R. Metadata Stan-
dards For Web-Based Resources. Multimedia, IEEE,
Volume:8 , Issue: 1. 2001
6. GUERRA, L & APPEL, A. Habilidades y Compe-
tencias Sociales en Juegos en Línea. International
Institute of Informarics and Systemics. 2008,
7. HOWE, D. FOLDIC. Free on-line dictionary of
computing. 1985. http://foldoc.org/metadata. 21 de
julio de 2015
8. LUO, Z., CHEN, I. M., YEO, S. H., LIN, C. C., & LI, T.
Y. Building hand motion-based character animation:

COPEM: S������ �� ������������ �� ���������� ������ �� ��������� P��������


M����, S�����, R���� � S������
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

P�������� �� ������ �� ����������� ��


���������� � ���������� ���������� ����
������������ ��������� �� ����������
N�������� T��������� C������ T����������� M���� P�������� ��� M��������� S��������
D������

C����� A������ R���� C������1 � P���� A����� D��� M�����1

Palabras clave:
Transmedia, modelo de transmisión, multimedia, dispositivo streaming, na-
rrativas.

Keywords:
Transmedia, transmission model, multimedia, streaming device, narratives.

1
Grupo de investigación en Multimedia GIM, Programa de Ingeniería Multimedia, Universidad Militar
Nueva Granada, Bogotá, Colombia
54 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

Resumen

Este artículo presenta el proceso investigativo para la im-


plementación de un prototipo que permite a los usuarios vi-
sualizar tres formatos distintos, los cuales se conectan entre
sí con el fin de crear una experiencia narrativa transmedia
desde un dispositivo streaming de multimedia para lo cual se
realizó una investigación sobre el fenómeno narrativo y de
contar historias conocido como Transmedia, donde el objetivo
fue determinar cómo debía desarrollarse el flujo narrativo del
proyecto y así ser adaptado al dispositivo escogido con el fin
de construir el prototipo de transmisión. Además se evaluó la
aceptación de dicho prototipo por parte de los usuarios.

Abstract

This article presents the researching process for the imple-


mentation of a prototype that allows users to visualize three
different formats, which are connected inwardly with the final
purpose of creating a transmedia narrative experience from a
multimedia streaming device for which an investigation has
been performed about the narrative phenomena and storyte-
lling known as Transmedia, where the objective is to determi-
ne how the narrative flux of the project should be developed
and thus being adapted to the selected device with the final
purpose of building the transmission prototype. Besides we
evaluate the acceptance of this prototype by the users.

P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ���������� P��������
R����, C. A. � D���, P. A.
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 55

telespectador pasa a ser un elemento activo


capaz de escoger aquello que realmente le
interesa y beneficiarse de nuevos servicios
ofrecidos a través de esta pantalla” [3]. Di-
1. INTRODUCCIÓN cha transformación ha abierto las puertas
para la creación de tecnologías que permi-
tan generar nuevas experiencias de inter-
La red transforma todo lo que toca, ha cam- acción.
biado la comunicación, a los consumidores
y a los medios; Las prácticas tradicionales Este artículo busca mostrar cómo se adaptó
utilizadas para difundir contenidos ya no un modelo Transmedia para la creación de
son suficientes para mantener la atención un prototipo funcional que pueda ser usado
de los usuarios, los cuales ya no consumen desde un dispositivo streaming de multime-
contenidos por un solo canal sino por múl- dia; Los dispositivos streaming son tecnolo-
tiples medios y formatos, por ello se deben gías que tienen como objetivo permitir que
plantear nuevas prácticas de difusión para un televisor sin la capacidad para conec-
que así nuestro contenido esté en la capa- tarse a Internet y que cuenta con una co-
cidad de adaptarse a los usuarios actuales. nexión HDMI pueda tener acceso a conte-
nidos bajo demanda por Internet, los cuales
¿Pero cómo hacer que nuestro contenido solo se encontraban disponibles para tele-
esté presente en varios medios al mismo visores que pueden conectarse a Internet
tiempo?, la respuesta a dicha pregunta exis- de forma independiente. Para el desarrollo
te desde hace ya un tiempo y se conoce co- del prototipo se optó por escoger el dispo-
mo Transmedia [1]; La Transmedia es “...un sitivo Google ChromeCast, el cual es eco-
modelo de producción de contenidos que se nómicamente asequible y su complejidad de
caracteriza por construir un relato en múlti- programación es idónea para la implemen-
ples medios o plataformas; una historia ini- tación de un prototipo a corto plazo.
cia en un libro, se amplía en una película y
se experimenta en un videojuego.” [2]. En la primera fase de implementación se
tomó como principal referente el sitio web
La Transmedia como modelo de producción de Netflix, éste ya cuenta con la posibili-
de contenidos para televisión en Colombia dad de conectar su sitio web con el dispo-
aún es un caso de estudio, es por esto que sitivo ChromeCast y a partir de dicha mo-
se decidió abordar una investigación acerca dalidad de interacción se desarrolló la pri-
de cómo nuevas tecnologías pueden aportar mera versión del prototipo la cual permitía
al desarrollo de modelos Transmedia para emparentar dos dispositivos, un dispositi-
contenidos visualizados a través de la tele- vo remitente y otro receptor; El remitente
visión. La televisión a nivel global ha sufrido enviaba rutas de acceso a videos, audios e
una transformación en donde muchos con- imágenes alojados en un servidor; El recep-
tenidos que anteriormente eran “broadcas- tor buscaba dichas rutas, cargaba el conte-
ting” es decir contenidos lineales no inter- nido y lo visualizaba en el televisor al que
activos, ahora permiten realizar un grado estaba conectado.
de interactividad dando lugar al concepto
de televisión interactiva o iTV en donde “El

P�������� P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ����������
R����, C. A. � D���, P. A.
56 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

En la segunda fase se analizó la estrategia Se hizo uso del dispositivo streaming de


de producción de contenidos transmedia en multimedia Google ChromeCast para la im-
donde “...las nuevas tecnologías ofrecen la plementación de un prototipo de aplicación
posibilidad de una narrativa que se cons- Chrome web para la transmisión de narra-
truye mediante órdenes de programación, tivas Transmedia que involucran el uso de
que enlazan o vinculan los contenidos ofre- video, audio e imagen dentro del desarrollo
cidos con otros contenidos; a su vez estos de su historia.
contenidos referenciados pueden remitir a
otros contenidos, en una especie de cadena
virtual sin fin.”[3], basados en dicha teoría 2.1. METODOLÓGIA
se desarrolló una historia que pudiera con-
tarse usando tres formatos distintos, envia- Primero se realizó una búsqueda y recopi-
dos por el dispositivo remitente y reprodu- lación de información bibliográfica, en ar-
cidos linealmente por el dispositivo recep- tículos y textos disponibles de forma elec-
tor. trónica. En esta etapa se abordaron temas
tales como: producción Transmedia, “Story-
En la última fase de implementación se vin-
telling” y televisión interactiva centrada a
cularon los contenidos creados para el pro-
contenidos disponibles en Internet[4,5]; En
yecto de narrativa Transmedia del semille-
donde se hace una descripción sobre ca-
ro de investigación MULTUS de la Univer-
da uno de los temas abordados, logrando
sidad Militar Nueva Granada denominado
identificar sus principales características.
“Proyecto Aliciá” con el prototipo desarro-
llado, en donde se logró comprobar que una Para el plan de desarrollo del prototipo se
narrativa Transmedia puede ser visualizada usó una metodología de trabajo ágil con
de forma coherente en un solo medio que el fin de ajustar el tiempo de desarrollo
permite usar distintos formatos entrelaza- al tiempo provisto para la culminación del
dos linealmente. proyecto, el cual era de 4 meses. Primero
se definió un “Product Backlog” el cual es
una lista ordenada de todo lo que podría
necesitarse en el desarrollo del mismo(Ver
2. DESARROLLO Figura 1).

Luego se determinó que etapas pasarían


a ser parte del “Release Backlog” el cual
engloba las necesarias y definitivas para
implementar el prototipo, en esta sección
se priorizaron las tareas a desarrollar y se
determinaron los tiempos de realización de
cada una de ellas.(Ver Figura 2).

En la figura 2 se puede apreciar que el


Figura 1: “Product Backlog”, lista ordenada tiempo que debía destinarse para el desa-
de todo lo podria necesitarse en el desarro- rrollo del prototipo serían 11 días y así el
llo. tiempo restante de los 4 meses del proyecto

P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ���������� P��������
R����, C. A. � D���, P. A.
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 57

Figura 2: “Release Backlog”, propuestas Figura 4: Modelo funcional, dinámica de


para el desarrollo formalizadas. narrativa transmedia desde el dispositivo
receptor.
se destinarían plenamente a trabajo inves-
tigativo. Como paso final para determinar La secuencia planteada en la figura 4 em-
las fases de implementación, se determina- pieza cuando el dispositivo remitente envía
ron tres “Sprints” o fases de desarrollo(Ver una orden de búsqueda de contenido, a lo
Figura 3). cual el dispositivo receptor responde bus-
cando el contenido en el servidor web en
donde se encuentran alojados todos los ar-
chivos, una vez completada la búsqueda el
dispositivo receptor usa la ruta que le ha
dado el servidor e inicia la reproducción li-
neal de los contenidos en el siguiente or-
den:

1. Archivo de video.

2. Archivo de audio.
Figura 3: ”Sprint´´, Tiempos y fases de
3. Archivo de imagen.
desarrollo.

2.2. MODELO PLANTEADO 2.3. PROGRAMACIÓN

El modelo base para la creación del pro- No se entrará en una descripción detallada
totipo busca teorizar cómo debe plantearse del código del programa dado que gran par-
la dinámica de visualización del contenido te del mismo se basa en las guías de desa-
una vez ya es buscado y cargado por el rrollo provistas por Google para la creación
dispositivo receptor. Para ello se diseñó un de una aplicación base para el dispositivo
esquema que explica cómo el contenido to- receptor y remitente; Sólo se tratarán los
ma un comportamiento Transmedia usando aspectos y algoritmos más relevantes del
los formatos disponibles y aceptados por el código con el fin de explicar su funcionali-
dispositivo ChromeCast (Ver Figura 4). dad.

P�������� P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ����������
R����, C. A. � D���, P. A.
58 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

Lo primero a tratar será el cómo se empa-


rentan el dispositivo remitente con el re-
ceptor, para ello se hizo uso del siguiente
fragmento de código en JavaScript el cual
hace parte del código principal de la apli-
cación remitente:

\scriptsize
/*Initialize application*/
if (!chrome.cast || !chrome.cast.isAvailable) {
setTimeout(initializeCastApi, 1000);
}

function initializeCastApi() {
var sessionRequest =
new chrome.cast.SessionRequest(applicationID);
var apiConfig =
new chrome.cast.ApiConfig(sessionRequest,
function sessionListener(session){
currentSession = session;
},
function receiverListener(device){
Figura 5: Registro fotográfico, conexión
if(device == chrome.cast. dispositivo remitente con el dispositivo re-
});
ReceiverAvailability.AVAILABLE){}
ceptor.
chrome.cast.initialize(apiConfig,
function onInitSuccess(){}, pectos a mejorar en la recolección de los
function onError(){});
} datos de retraso o recarga de los conteni-
dos por cuestiones de la conexión con la
que se está trabajando.
El código se encargará de buscar si se en-
cuentra disponible un ChromeCast en la red Partiendo de lo anterior, sí ambos dispositi-
WiFi en la que se encuentra conectado el vos se encuentran conectados a una red óp-
remitente, después cuando desde la apli- tima, se esperaría que el algoritmo calcula-
cación del dispositivo remitente se ordene rá el tiempo restante para auto-reproducir
conectar al dispositivo receptor, el dispo- la siguiente sección del contenido. El algo-
sitivo remitente enviará un “applicationID” ritmo se desarrolló en el lenguaje JavaS-
(que previamente se ha adquirido con Goo- cript para la aplicación del remitente de la
gle) al receptor el cual al identificar la ID siguiente manera:
ejecutará la aplicación del dispositivo re-
ceptor (Ver Figura 5).
\scriptsize
/*Autoplay Media*/
Un aspecto importante que presentó mu-
chos problemas al momento de su imple- function onPlayMedia(){
validator = true;
mentación fue el algoritmo usado para cal- Timer(t,validator);
cular la duración en segundos del conte- }

nido que se estuviera transmitiendo en el function Timer(time, val){


presente momento desde el dispositivo re- time = Math.floor(time);
if(val == true){
ceptor. Dicho algoritmo aún requiere as- myTimeOut = setTimeout(function(){

P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ���������� P��������
R����, C. A. � D���, P. A.
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 59

if(IdMedia == 1){ Como resultado de la implementación de


}
loadAudio();
los códigos se logró la visualización de los
else if(IdMedia == 2){ contenidos a través de la pantalla del tele-
}
loadImage();
visor (Ver Figura 6).
},
time);
}
}

La función “onPlayMedia” inicia un “timer”


que se encarga de cambiar a la siguien-
te sección del contenido una vez finalice el
contenido que actualmente se está repro-
duciendo; Al probar dicho fragmento de có-
digo se detectó que al parar el contenido,
el “time” no se detenía, ni se actualizaba
con los datos de la barra de progreso ya
fuera de audio o video.

Por lo anterior se planteó otra sección de


código que se comportara de forma cíclica,
de esa manera siempre que el usuario para Figura 6: Registro fotográfico, visualización
y reanuda el contenido, el “timer” se nutri- de contenidos.
ría de los datos de la barra de proceso su- Gracias al código anterior se logró aplicar
ministrados por el dispositivo receptor; El el modelo de contenidos Transmedia al dis-
fragmento de código quedó de la siguiente positivo streaming. Las otras secciones del
manera: aplicativo aun cuando son importantes, no
se tratarán en este artículo; Para entender
mejor el concepto de desarrollo se acon-
function onPlayingMedia(){
currentMediaDuration = seja consultar las guías de desarrollo para
currentMedia.media.duration; desarrolladores “Cast”.
currentMediaDuration =
Math.floor(currentMediaDuration);
t = currentMediaDuration * 1000;
errorTime = t * 0.03;
t = t + errorTime; 3. RESULTADOS
validator = true;
Timer(t,validator);
}

function onPauseMedia(c){
A continuación se enumeran los resultados
clearTimeout(myTimeOut); obtenidos del prototipo de aplicación de trans-
validator = false;
c = Math.floor(c);
misión de contenidos Transmedia en el dis-
c = c * 1000; positivo ChromeCast:
t = t - c;
t = Math.abs(t);
errorTime = t * 0.03;
t = t + errorTime;
1. Prototipo funcional de aplicativo para la
} visualización de narrativas Transmedia

P�������� P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ����������
R����, C. A. � D���, P. A.
60 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

para un dispositivo streaming de multi- AGRADECIMIENTOS


media denominado Google ChromeCast.

2. Adaptar sin problema la narrativa Trans- Este trabajo es financiado con recursos de
media trabajada desde el semillero MUL- la Vicerrectoría de Investigación de la Uni-
TUS de la Universidad Militar Nueva versidad Militar Nueva Granada, en el pro-
Granada denominado “Proyecto Alicia” yecto INV-ING-1763, “Identificación de ca-
a un nuevo tipo de medio de transmi- racterísticas de personajes a partir de una
sión. historia”, de 2015. Los autores agradecen el
apoyo brindado por la Universidad Militar
3. Planteamiento y comprobación de un mo-
Nueva Granada.
delo Transmedia para visualización de
contenidos en televisores no “smart”.

REFERENCIAS
4. CONCLUSIONES
1. Staffans, S.(2nd Ed.).(2011). One Year in Transme-
dia. Recuperado de http://es.slideshare.net/Simon99
El prototipo desarrollado proporciona las /one-year-in-transmedia
bases para la creación a futuro de una
plataforma que permita indexar múlti- 2. Gallego Aguilar, A. F. (2011). Diseño de Narrativas
ples proyectos Transmedia que puedan Transmedia: Guía de referencia para las industrias
creativas de países emergentes en el contexto de
ser visualizados en varios formatos con- la cibercultura. (Tesis inédita de maestría). Univer-
tinuos y narrativamente fluidos desde un sidad de Caldas, Manizales, Colombia.
televisor.
3. Acuña, F. - Caloguerea, A. (2012). Guía para la
Con el proyecto se consiguió compren- producción y distribución de contenidos transmedia
der el concepto de diseño Transmedia y para múltiples plataformas. Alameda 340, Santia-
go de Chile. Facultad de Comunicaciones, Pontificia
cómo este permite el desarrollo de nue- Universidad Católica de Chile.
vas formas de experiencia de usuario a
nivel narrativo, planteando no sólo la crea- 4. Aaron, M. (2009). Transmedia Storytelling in Tele-
ción de contenidos innovadores para los vision 2.0 Strategies for Developing Television Na-
rratives Across Media Platforms.
medios disponibles sino también la posi-
bilidad de creación de medios diseñados 5. Zingerle, A. - Kronman, L. (2011). Transmedia Story-
y desarrollados para un proyecto Trans- telling and Online Representations. Cyberworlds (CW),
media. International Conference.

Se logró evidenciar las posibilidades a


nivel de desarrollo Transmedia que per-
mite el dispositivo streaming de multi-
media Google Chromecast, el cual es-
tá en las capacidades no solo de acep-
tar nuevos modelos a nivel de entrete-
nimiento sino también modelos de otras
ramas del conocimiento.

P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ���������� P��������
R����, C. A. � D���, P. A.
T�������
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

I����������� �� VFX ���������


O����� H������1

Abstract
The art of visual effects grows more complex by the day, pus-
hing the boundaries of artists and technology to the limit with
each release of the next big film. This workshop will provide a
look into modern VFX workflows and how they apply to con-
temporary visual effects creation. The workshop will explore
the power of Houdini, the industry standard for demanding
FX tasks. We will also cover physical rendering workflows
utilising Renderman and finish up showcasing the power The
Foundry’s Nuke for 3d compositing approaches.

1
Media Design School, New Zealand
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

P���� T���
D���� M����� 1

Resumen
El taller de Paper toys da a conocer una especial estrategia
de invención y comunicación para desarrollar en proyectos de
diseño de juguetes, logotipos, campañas publicitarias, anima-
ción, entretenimiento, etc.?Es ciento por ciento práctico, sigue
todos los pasos de creación y armado de personajes en papel,
combina el dibujo de bocetación y el digital y pone en prác-
tica las capacidades de observación, abstracción, espaciales
y manuales.

1
Pontificia Universidad Javeriana, Facultad de Arquitectura y Diseño, Bogotá, Colombia
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

J���S����� � �� �������� �� ��� �����


A����� F������� Z���� M��������1 , A�������� S��������1 ,
T������ G�������1 � C����� S��� Q�������1

Resumen
El objetivo del taller es generar en los estudiantes curiosi-
dad sobre las herramientas y las posibilidades que permite el
desarrollo web, más específicamente, los lenguajes de progra-
mación relevantes para el mismo (HTML, CSS y JavaScript).
Se conoce como Internet de las Cosas (IoT, por sus siglas en
inglés) a todas aquellas tecnologías que permiten la interac-
ción entre internet y elementos disponibles en el plano físico,
ya sea mecánicos (como puertas, ventanas, cerraduras, etc),
eléctricos (luces, licuadoras, estufas, etc) e incluso electróni-
cos (televisores, radios, consolas de videojuegos, etc). Dispo-
sitivos tales como Arduino, Raspberry Pi, Intel Edison y otros,
permiten que este acercamiento sea accesible para cualquier
persona, haciendo que las posibilidades para conectar am-
bos mundos sean tan diversas como las ideas que en todas
partes del mundo ya se están desarrollando. Es nuestra res-
ponsabilidad como creadores de contenidos digitales acercar
a nuestros usuarios de una manera amigable, fluida y confia-
ble a las ideas que desarrollamos. Así pues, las experiencias
físicas que se conectan con lo virtual deben estar encami-
nadas a lograr un uso adecuado de nuestras tecnologías, de
la misma manera en que generemos satisfacción y gusto por
ellas. Mediante este taller, los estudiantes participan de una
experiencia interactiva, en donde exploraremos, a través de
un simple circuito elaborado con un Arduino, de qué manera
la experiencia de usuario juega un papel fundamental en la
conexión con estos dos mundos, como también veremos algu-
nas de las muchas posibilidades que las tecnologías web nos
abren para que seamos partícipes en la creación de conteni-
dos digitales relevantes y significativos para nuestro entorno.
1
Zemoga Inc., Wilton, CT, USA
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������

V������������ ���� �� �������� �� �����


S�������� S������� H��������1

Resumen
El auge de la Web 3.0, ha permitido en la última década la
generación de datos de forma rápida, variada y en grandes
volúmenes. Diferentes escenarios como la academia, la in-
dustria y la investigación no están exentos de este fenómeno.
Esto conlleva a que existan nuevas necesidades para el aná-
lisis y la toma de decisiones a partir de diferentes fuentes de
información o datos. De esta manera la Visualización Analíti-
ca surge como un área de estudio, que integra la visualización
científica, la computación, la generación de interfaces y la in-
teracción, para ayudar a diferentes actores como analistas,
investigadores y altos funcionarios a la toma de decisiones.
El taller de Visualización para el análisis de datos esta enfo-
cado a introducir el tema de Visualización Analítica, a partir
de un caso de estudio, para de forma práctica entender lo
valioso de incluir estas técnicas en los procesos de toma de
decisiones.

1
Grupo de Investigación ACCEDER, Facultad de Ingeniería, Universidad Militar Nueva Granada, Bogotá,
Colombia
MEMORIAS CONGRESO INTERNACIONAL MULTIMEDIA.
Volumen 3, 2013
ISSN (CD-ROM) 2346-3023
congresomultimedia.umng.edu.co
Programa de Ingeniería en Multimedia
Universidad Militar Nueva Granada
Bogotá, Colombia, Agosto de 2013

Los artículos y resúmenes publicados son responsabilidad de los autores y se pueden


reproducir citando la fuente. Los comentarios y comunicaciones relacionados con los
mismos, por favor enviarlos al correo electrónico: congresomultimedia@unimilitar.edu.co

Вам также может понравиться