Академический Документы
Профессиональный Документы
Культура Документы
INTERNACIONAL MULTIMEDIA.
Volumen 4, 2015
ISSN (CD-ROM) 2346-3023
���
ORGANIZACIÓN MEMORIAS CONGRESO INTERNACIONAL
UNIVERSIDAD MILITAR NUEVA GRANADA MULTIMEDIA
��
MEMORIAS CONGRESO INTERNACIONAL MULTIMEDIA.
Volumen 4, 2015
ISSN (CD-ROM) 2346-3023
congresomultimedia.umng.edu.co
Programa de Ingeniería en Multimedia
Universidad Militar Nueva Granada
Bogotá, Colombia, Octubre de 2015
�
reproducir citando la fuente. Los comentarios y comunicaciones relacionados con los
mismos, por favor enviarlos al correo electrónico: congresomultimedia@unimilitar.edu.co
��
Contenido
Editorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
C����������� ��������� 3
VFX Education and Production at Media Design School . . . . . . . . . . . . . . . . . 5
Interaction design for accessibility: from theory to practice . . . . . . . . . . . . . . . 9
Expressive Visual Speech: a Natural Way to Interact with Machines . . . . . . . . . 11
Hypercomputación Biológica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Deep Learning, aplicaciones en Multimedia . . . . . . . . . . . . . . . . . . . . . . . . 15
P�������� 17
Referenced localization method based on the recognition of key objects from a
gigital map . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Augmented reality applied for the inspection and pre-installation testing of under-
water oil production device. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
COPEM: Sistema de construcción de personajes basado en metadatos. . . . . . . . 43
Prototipo de modelo de transmisión de contenidos y narrativas transmedia. . . . . . 53
T������� 61
Introduction to VFX workflows . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Paper Toys . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
JavaScript y el internet de las cosas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Visualización para el análisis de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
te
tete
Editorial
xt te
xtxt o xt
oo
o
Apreciados Invitados
Es para mí un honor celebrar este acto de apertura del 4ô Congreso Internacional Multimedia
2015, celebrado por la facultad de ingeniería nuestra Universidad Militar Nueva Granada.
Como viene siendo habitual desde sus primeras versiones, el Congreso mantiene el propósito
de contribuir al intercambio de ideas y experiencias relacionadas con el desarrollo y la
investigación de aplicaciones multimedia. En esta ocasión serán participes de un programa
en el que, tanto en las conferencias principales como en las ponencias y comunicaciones de
las sesiones paralelas, presentarán avances referentes a:
1. Arte y diseño multimedia desde espacios y lenguajes interactivos que abordan y ex-
ploran diversas experiencias perceptuales desde el cine, la fotografía, sonido, háptica,
movimiento e interacción de los sentidos.
Este congreso sigue consolidando la UMNG como escenario pionero de grandes eventos
internacionales en multimedia el cual reúne a docentes, estudiantes, empresarios y comuni-
dad en general, permitiendo una integración y transferencia de conocimiento en el marco de
las ciencias tecnológicas y las tecnologías de la información, la comunicación, el diseño y el
arte, a través de talleres, conferencias, páneles y actividades que se realizarán de manera
simultánea de manera tal que se verán inmersos en un ambiente de aprendizaje colaborativo
y activo para explorar diversas mediaciones, recursos y estrategias tecnológicas.
Sean bienvenidos.
CONFERENCIAS PLENARIAS
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
Abstract
Media Design School is one of the primary educational pro-
viders for Visual Effects and Game Development education in
New Zealand. The school has seen growth over recent years,
both in size and academic offerings.
1
Media Design School, New Zealand
6 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
We believe we have successfully implemen- After completing their second year of study,
ted a method of educating students that students move into a new model of teaching
achieves both academic outcomes and pro- and learning for their third and final year.
vides the benefits of realistic working envi- This involves a lecture lead live action vfx
ronments. film production and a self-directed fully CG
production.
This approach has been applied to the re-
cent film production “Escargore”, and sub-
sequent film production projects (Fig. 1).
3. Academic Production
Approach
Our delivery of our curriculum in broken Shotgun provides students and lecturers ali-
down into three distinct parts - one for each ke with both a pipeline for film production
year of study. The first year is focused on and powerful web based management tools
– which aid efficiency and provide eviden- of what is required of them. They are equip-
ce of assessment. Some of these systems ped to proceed with making their own ani-
have been implemented in such a way that mated short film for their second produc-
they become a foundation to the student’s tion.
assessment. One such approach is the con-
cept of the EVERYDAY note. This is a sim-
ple message sent to the lecturers every mor-
ning answering 3 specific questions: 4. Assessment
5. Results
Abstract
Design for accessibility is the intervention into environments,
products and services which aims to ensure that anyone, in-
cluding future generations, regardless of age, gender, capaci-
ties or cultural background, can participate in social, econo-
mic, cultural and leisure activities with equal opportunities.
This is a broader definition and not always allows solving all
needs with a single solution that fits everyone. In this talk I
will present well-known design techniques and new interac-
tion paradigms that can be applied in the design of digital
interfaces in order to reach usability, accessibility and good
user experience as possible. Afterwards I will talk about our
current research projects involving older users, children with
down syndrome, autism and blind users. Such projects consist
of a multidisciplinary effort involving expertise from computer
graphics, artificial intelligence and human factors fields.
1
Instituto Computação, Universidade Federal Fluminense, Niterói, RJ, Brasil
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
Abstract
Human-computer interaction based on autonomous expressi-
ve virtual characters, or avatars, is an engaging way to inter-
act with the user. Autonomous expressive virtual characters
seek to reproduce the familiar face-to-face interaction mecha-
nisms we are used to. In this context, expressive visual speech
plays an important role. The interesting and challenging en-
deavor of implementing virtual agents capable of engaging
inface-to-face conversation with humans is the main topic of
this talk.
1
Departamento de Engenharia de Computação e Automação Industrial DCA / FEEC / UNICAMP - Brasil
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
H��������������� B��������
C����� E������ M��������
Resumen
La hipercomputación biológica es un área nueva de investi-
gación en ciencias de la complejidad que pone en diálogo a
las ciencias de la computación y la biología, las lógicas no-
clásicas y los avances en ingeniería, microbiología y teoría
de la evolución. El objetivo primero de investigación es aquí
el de elucidar la la lógica de los sistemas vivos; esto es, qué
hacen los sistemas vivos para ser tales. El autor afirma que
los sistemas vivos: a) no son una máquina, en ninguna acep-
ción de la palabra, y por tanto no pueden ser entendidos ni
a la manera de una Máquina de Turing de cualquier tipo, ni
tampoco, en términos de lógica, con base en la tesis Church-
Turing. Los sistema vivos procesan información de forma no-
algorítmica, un reto magnífico para la ingeniería en general.
El procesamiento de información por parte de los sistemas vi-
vos tiene lugar de dos formas simultáneas y paralelas: de un
lado procesan la información del entorno, y al mismo tiempo,
de otra parte, crean nueva información. Así, los sistemas vivos
no reaccionan al medioambiente, lo cual quiere significar que
no puedo ser entendidos a la manera de la mecánica clásica.
Sólo los cuerpos físicos reaccionan. La forma como “reaccio-
nan” los sistemas visos en creando nueva información o, lo que
es equivalente, creando nuevos mundos y relaciones, nuevas
dimensiones y posibilidades. La hipercomputación biológica
constituye una contribución en ingeniería y que conduce la
mirada desde la ingeniería clásica y convencional hacia la
ingeniería de sistemas complejos. Dicho en otras palabras, se
trata de “ingenieras” sistemas complejos, y sin la menor duda,
el más apasionante de los sistemas complejos es la vida. De
esta suerte, se plantea aquí un nuevo programa de investiga-
ción que apenas comienza en el mundo, no obstante algunos
conspicuos antecedentes.
1
Universidad del Rosario, Bogotá, Colombia
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
D��� L�������
� ��� ������������ �� M���������
J���� E. C������1
Resumen
En esta conferencia se presentó un nuevo concepto conocido
como deep learning (aprendizaje profundo), el cual consiste en
un conjunto de algoritmos de machine learning para modelar
abstracciones de alto nivel de los datos; por ejemplo, de seña-
les multimedia (imágenes, audio, texto y video). Deep learning
ha venido revolucionando en los últimos años a la comunidad
científica por las mejoras significativas que se han tenido en
tareas tales como la representación, clasificación y en ge-
neral, reconocimiento de patrones. Se presentaron ejemplos
de aplicación en ciencia e industria, recorriendo áreas tales
como procesamiento de imágenes, visión por computador, re-
conocimiento de audio, ecología computacional, entre otras.
Adicionalmente, se presentaron las perspectivas de este nue-
vo concepto y su potencial en la industria.
1
Laboratory for Advanced Computational Science and Engineering Research, Facultad de Ingeniería de
Sistemas, Universidad Antonio Nariño, Bogotá, Colombia
P��������
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
M���� F������� R�������� R���1 , J����� V������� F�������1 ��� A����� �� M������ N���2
Keywords:
Autonomous vehicles, Digital maps, Geographic databases, Referenced loca-
lization, Recognition of key objects.
Palabras clave:
Bases de datos geográficos, Localización referenciada, Mapas digitales, Re-
conocimiento de objetos clave, Vehículos Autónomos.
1
Department of Computational Mechanics, School of Mechanical Engineering, University of Campinas -
UNICAMP
2
Engineering Department - DEG, Federal University of Lavras - UFLA
20 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
Abstract
R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M�� P��������
R�������� R���, V������� F������� ��� �� M������ N���
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 21
Resumen
P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
22 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M�� P��������
R�������� R���, V������� F������� ��� �� M������ N���
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 23
P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
24 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
tures based on spatial OSM data [4]; loca- proposed method to assist in localization
lization tasks and planning trajectories in- [6]. The proposed RLM performs a more ac-
tegrated with geographic data [5] and po- curate estimation of the vehicle localization
sitioning systems for mobile devices [16]. based on the use of onboard sensors and
The OSM also enables integration with dif- the recognition of key objects.
ferent databases, such as PostgreSQL [15]
and Postgis [14] [26]. As shown in Figure 1, the RLM queries the
database to get the coordinates of the posi-
tion of a key object detected by the camera,
also use other sensors such as the laser to
obtain its position, and finally uses all the-
se information of positions with the GPS
3. OUR APPROACH data to estimate the vehicle localization.
R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M�� P��������
R�������� R���, V������� F������� ��� �� M������ N���
recognition of key objects.
As shown in Figure 1, the RLM queries the database to get the coordinates of the position of a key object detected
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 25
by the camera, also use other sensors such as the laser to obtain its position, and finally uses all these information
of positions with the GPS data to estimate the vehicle localization.
Figure
Fig. 1. Diagram 1: Diagram components:Proposal
components:Proposal of the referenced
of the referenced localization localization
method based on sensor method based
information on
and digital map.
sensor information and digital map.
This method is based on the idea of how people are located in an unknown environment, that is, when a person
is in an unfamiliar environment, identifies something that is recognized, so learning through this object where he
can be. The Step 1. Detection
proposal therefore of ais key object:
to use The vehi-
information providedreturns the right
by sensors, position
a vision systemin longitude
that has theandability to
identify keycle, which has a camera and a laser, ma-
objects environment, a simulation platform thatlatitude allows aofvirtual
the key object detected.
environment to create and interact
kes a route. Along the way a key object �,
with it, and a platform localization where will be stored allStep
which is known its exact position in latitude 3. Correction of vehicle
environmental geographic position: The
information on a digital
map. In this sense, the RLM is composed by a GPS position
and longitude coordinates, has to be detec- estimated
informationposition of theand
of latitude vehicle in rela-
longitude, a monocu-
lar camera that detects objects and a laser that provides the distance
ted by the camera in the area AC around tion to the keykey
of the object,
objectis obtained.
detected by With
thethe
camera [7].
the vehicle, as shown in Figure 2(a). Con- exact coordinates of the key object obtai-
The process is composed of three steps: The first step finds
sidering that laser sensors and camera are nedthefromkeythe database
object of the its
and obtain digital map,from the
distance
informationcalibrated
provided by at the
the laser.
sameThe seconda step
position, calculatescalculates
horizon- the position
the transformation between of the vehicle,
planar as
and geographical
coordinatestalin and
other to allow
vertical consultations
scanning in the by
is performed shown
geographic in Figure
database. 2(c).
The Thestep
third procedure is per-
estimates the vehicle
position in the
relation to the key object.
laser. When the camera identifies the formed again, where the point of geographic
key object in the environment, the laser re- coordinates is transformed to plane coordi-
turns the of
Step 1. Detection distance
a key in metersThe
object: between
vehicle,the nates
which has in meters
a camera and[2],a [17],
laser,[18].
makes a route. Along the
way a key key
objectobject and camera
r, which is knownposition.
its exactLater, the in latitude and longitude coordinates, has to be detected
position
distance
by the camera in thefrom
areatheAC keyaround
objecttheto the camera
vehicle, as shown in Figure 2(a). Considering that laser sensors and
camera areiscalibrated
transformed to the
at the same global metrica clearcut
position, horizontal and 3.2. Simulation
vertical scanning isscenario
performed by the laser. When
reference system.
the camera identifies the key object in the environment, the laser returns the distance in meters between the key
object and camera position. Later, the distance from the key object to the camera is transformed to the global
Step 2. Query in the database: The dis- The supervisory system of autonomous vehi-
metric clearcut reference system.
tance measurement from the key object to cle gets all the information being sent by si-
the camera, obtained in meters, is transfor- mulated sensors in the simulation platform.
med to the global reference system in geo- These data are processed and used for cer-
graphical coordinates given in latitude and tain purposes, according to the characteris-
longitude with respect to the world [2], [17], tics of each of the simulated sensors.
[18]. With the latitude and longitude data
obtained, a search to the database is made According to the RLM proposal and the di-
to find the same type of a key object that gital map database, the models of the key
stores the correct position in latitude and objects are aggregated in Gazebo [3] simu-
longitude, as shown in Figure 2(b). Once lation platform. The localization of each key
found matching information, the database object in Gazebo, retains the scale ratio of
the real world, and the position of each ob-
P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
made to find the same type of a key object that stores the correct position in latitude and longitude, as shown in
Figure 2(b). Once found matching information, the database returns the right position in longitude and latitude
of the key object detected.
26
Step 3. Correction of vehicle position: The estimated position of the vehicle in relation to the key object, is
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
obtained. With the exact coordinates of the key object obtained from the database of the digital map, calculates
the position of the vehicle, as shown in Figure 2(c). The procedure is performed again, where the point of
geographic coordinates is transformed to plane coordinates in meters [2], [17], [18].
r
Yo
Yo d
Xcam (Xr_star, Yr_star)
Laser Lat_p, Lon_p
(Xr_cam, Yr_cam)
Ycam Camera Query in the database (Xr_o, Yr_o)
(Xcar_m, Ycar_m)
Xcar object key corresponding
R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M�� P��������
R�������� R���, V������� F������� ��� �� M������ N���
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 27
P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
28 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
x,y,z,d lat,lon
Transformed
lat,lon meters
Xcar_o, Ycar_o
Xr_star, Yr_star
Transformation matrix
r Xo,Yo Transformation matrix
Xcar_o, Ycar_o
Xr_o, Yr_o
Xr_star, Yr_star
Transformed
meters lat,lon
Xcar_m, Ycar_m
Lat_p, Lon_p
Digital Map
Query database
Database
PSYCOPG2
Lat_star, Lon_star
longitude coordinates. With this information, it searches the database for a point that corresponds approximately
objects that are stored in the digital map its point closest to the approximate point
to a position of a key object that is stored. In order to do this procedure, it is necessary to create a connection
to thedatabase.
server maps [17] by Psycopg library. Then, through calculated.
consultationsNext,
SQL the data of Query
(Structured key object po- and
Language)
spatial processing PostGIS, searches to a keyof object sition found in the database will be retur-
Then calculates the transformation point with its point closest to the approximate point calculated.
Next, the data of key object position found in the database will beand
ned, the new
returned, andpoint L��_����,
the new point LatL��_����
star, Lon star
X �_�, Y �_� given in meters to latitude and in latitude and longitude coordinates is used
in latitude and longitude coordinates is used to calculate the position of the vehicle model.
longitude implementing the equations of pla- to calculate the position of the vehicle mo-
ne coordinate transformations to the geo-
According to Subsection 3.1, the point Lat star, Lon stardel. returning from database, must go through the trans-
graphical
formation coordinates
function of latitude[2],
and[17], [18]. This
longitude trans- to plane coordinates in meters [2], [17], [18]. With this
coordinates
formation
new point hasinbeen
obtained theXr
meters point
star,L��_�,
Y r star L��_� According
calculates the position oftothe Subsection
vehicle model,3.1, the point
resulting in the end-
that corresponds to the equivalent position L��_����, L��_���� returning
point Xcar m, Y car m. It is possible to see this last process along with the other processes in Figure from data-
4, which
of the key object in latitude and longitude base, must go through the
presents the complete overall scheme of RLM measures, where Xcar m, Y car m are the coordinates meters from transformation
coordinates.
the new With this
estimated position information,
of the vehicle type it with
sear-respectfunction of latitude
to the detected key and longitude coordina-
object.
ches the database for a point that corres- tes to plane coordinates in meters [2], [17],
ponds approximately
4 RESULTS: The results toby aRLM
position of a key
are shown in Figure[18]. Withthe
5, where thisrednew
line point obtained
represents in me- by a
data captured
object
simulated thatGPS
ideal is stored.
and theIncolor
order to blue
dots do this pro- the data
represent ters X �_����, by
estimated Y �_����
the RLM.calculates the posi-
cedure, it is necessary to create a connec- tion of the vehicle model, resulting in the
Tabletion to the server maps [17] by Psycopg li-
1 shows a section of the position obtained by the end- point
low-cost GPS, X ���_�,
the RLM and Y ���_�.
the idealIt GPS
is possible
for the route
brary.
straight from simulated autonomous vehicle. Summing up to thesee thisof
values last
theprocess
result ofalong
RLM with
error,the other
is presented in
Table 2. processes in Figure 4, which presents the
Then, through consultations SQL (Structu-
GPS low MLR complete GPS overall scheme of RLM measures,
ideal
red Query Language) and spatial proces- where X Lat
���_�, Y ���� are the coordinates
Lat Lon Lat Lon Lon
sing PostGIS, searches19.51878to a key object with
39.86435 16.51288 41.02807 16.09143 40.82829
12.57981 32.26034 16.51293 41.02804 16.45865 41.75915
R��������� L����������� M�����19.34276
B���� �� ��� R����������
43.31764 �� K�� O������
16.51191 ����16.82577
41.02849 � D������ M��
42.68991 P��������
R�������� R���, V������� F������� ��� �� M������
10.42489 N��� 16.51190
38.81772 41.02849 17.19308 43.62093
10.00823 43.00508 16.51095 41.02891 17.56011 44.55139
8.47390 43.25218 16.51078 41.02898 17.92728 45.48197
16.98883 39.51243 16.50980 41.02941 18.2944 46.41279
obtain the localization of the land vehicle model is e↵ective because the system resulted in an average estimation
error of 2m.
Error Meters
Maximum distance 7,6m
Minimum distance 0,5m
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� Mean distance 2,0m 29
Distance standard deviation 1,2m
Table 2. Position errors.
200
y [m]
4. RESULTS 150
100
dots blue represent the data estimated by Fig. 5. Results of the position estimated.
P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
30 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
the reference measurement, which means a 8. Laneurit, J., Blanc, C., Chapuis, R., and Trassou-
GPS that has no errors in its localization; daine, L. Multisensorial data fusion for global vehi-
the RLM procedure resulted in a maximum cle and obstacles absolute positioning. In Intelligent
Vehicles Symposium, 2003. Proceedings. IEEE (June
error of 7 � and a minimum error about 2003), pp. 138–143.
0.5 �, being the average error of 2m with a
standard deviation of about 1 �. 9. Leng, S.-S., and Gruyer, D. Merging lateral came-
ras information with proprioceptive sensors in vehi-
From the results obtained, it can be said cle location gives centimetric precision. Proceedings
of 18th International Technical Conference on the
that the proposed referenced localization
Enhanced Safety of Vehicles (ESV’2003) (2003).
method with digital maps to obtain the lo-
calization of the land vehicle model is ef- 10. Mattern, N., Schubert, R., and Wanielik, G. High-
fective because the system resulted in an accurate vehicle localization using digital maps and
coherency images. In Intelligent Vehicles Sympo-
average estimation error of 2 m.
sium (IV), 2010 IEEE (June 2010), pp. 462–469.
7. Jornal da Unicamp. Navegação sem condutor, mas 20. Tao, Z., Bonnifait, P., Fremont, V., and Ibanez-
segura. http://www.unicamp.br /unicamp /ju /616 Guzman, J. Mapping and localization using gps, lane
/navegacao- sem-condutor -mas-segura, Novembro markings and proprioceptive sensors. In Intelligent
2014.
R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M�� P��������
R�������� R���, V������� F������� ��� �� M������ N���
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 31
P�������� R��������� L����������� M����� B���� �� ��� R���������� �� K�� O������ ���� � D������ M��
R�������� R���, V������� F������� ��� �� M������ N���
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
M���� F������� R�������� R���1 , J��� M���� D� M������1 ��� J��� R������ P�������
M�����2
Keywords:
Augmented Reality, AR SDK’s, Vuforia SDK.
Palabras clave:
SDK de realidad aumentada, Realidad aumentada, Vuforia SDK.
1
Department of Computer Engineering and Industrial Automation, School of Electrical and Computer En-
gineering, University of Campinas - UNICAMP
2
Department of Energy, School of Mechanical Engineering, University of Campinas - UNICAMP
34 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
Abstract
Resumen
P�������� A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D�����
R�������� R���, D� M������ ��� P������� M�����
36 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D����� P��������
R�������� R���, D� M������ ��� P������� M�����
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 37
works by using a camera that captures real- functions such as recognition, tracking and
world information and recognizes an ob- rendering content, aimed at efficiently sup-
ject using image recognition software. Of- porting the development of AR applications
ten, specific images are used as markers, [2].
but could also be real objects or marker-
less. The result is a scene made up of the Based on the characteristics that these tools
real and virtual world that is presented to provide, SDKs for the development of this
the user via a display device [12]. project were studied based on the literatu-
re, and included: ARMedia [3]; Vuforia [8];
ARToolKit [11]; Metaio [17]; D’Fusion [20];
2.2.1. AR on Mobile Devices With rapid and Wikitude [21], all of which are available
growth in the development of mobile devi- for creating AR apps [2]. Table 1 presents a
ces, mobile applications are becoming re- comparison of each of the tools listed above
levant [22]. This growth also led to an in- [2].
crease in the researchers’ interest in deve- According to Table 1, the SDK that most
loping applications of AR. Mobile devices closely matches our project needs is Vufo-
have the necessary features to work with ria, because it is open-source and in free
AR, such as cameras, processors, accelero- distribution; supports the development of
meters, GPS and screens all in one porta- applications for Android; and allows for de-
ble package. Other more complex systems tection without markers. With respect to trac-
exist which can create a more complete ex- king, the SDK supports 2D and 3D objects
perience for the user: these systems make and, moreover, supports expanded tracking,
use of devices such as head-mounted dis- which allows continuous experience when
plays (HMD) and high-range sensors [10]. the object is not fully visible in the came-
Another feature is its accessibility to both ra’s field of view [2], [8].
consumers and developers [23].
P�������� A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D�����
R�������� R���, D� M������ ��� P������� M�����
38 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
The architecture is composed of a camera The following are subsections detail the tools
that captures the display frame and pas- and system used in the development and
ses the content to the tracker, then con- implementation of the application.
vert the image (the camera’s pixel format
[e.g., YUV12] is converted to a format suita-
ble for rendering [e.g., RGB565] in OpenGL
ES [OpenGL for Embedded Systems]); then
the tracker contains the computer vision al-
gorithms that detect and track objects in
real-world camera video frames; then the
video background renderer stores the ca-
mera image in the virtual object; and finally, 3.1. Mobile Device
the application code for each frame is pro- A Tablet Galaxy Tab S is used as the tar-
cessed, the virtual object is updated, and get application platform. The Tablet’s tech-
the result is the rendering of overlapping nical specifications are: Octa Core proces-
graphics [8]. sor (Quad 1.9 GHz + Quad 1.3 GHz); 3GB
of RAM; Android version 4.4.2 KitKat; and
8-megapixel camera.
A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D����� P��������
R�������� R���, D� M������ ��� P������� M�����
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 39
Figure 2: Vuforia’s target management system workspace. Image target with visible features.
Vuforia SDK can detect and track images fter completing the first step of Section 3.3,
that do not require special black- and-white according to the Vuforia workflow (see Fi-
regions (as with traditional markers or QR gure 3), the next step is integrating the in-
codes) in order to be recognized. The sys- formation in the application.
tem detects and tracks a number of patterns
based on the natural characteristics of Ima- This second step is represented by two main
ge Target itself in order to: distinguish the modules, ImageTarget and ImageTargetRen-
generated elements; and compare the ima- derer. The ImageTarget module includes XML
ge stored in a database with what is being files as well as textures of objects that are
captured by the camera [7], [22]. to be augmented. Here we find all of the
identified real-world objects that Vuforia can
The Image Targets are created using JPG detect and track. The ImageTargetRenderer
or PNG images in RGB or grayscale. The module, alternatively, renders the augmen-
images are later stored in an online data- ted objects. This is where the references
base that allows us to create and manage and state of augmented objects, along with
the Image Target, as well as upload, down- the matrix of position and orientation of the
P�������� A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D�����
R�������� R���, D� M������ ��� P������� M�����
40 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
objectobjects.
augmented (relative to isthe
This camera
where referenceand
the references fra-
state ofthe virtual objects,
augmented contentalong
is augmented, positio-
with the matrix of position
me) are located [7], [22].
and orientation of the object (relative to the camera ned and rendered, as can be seen in Figure
reference frame) are located [7], [22].
4.
3.5 Visual Interface: The application of the visual interface includes virtual object image designs, and content
from 3.5. Visual
the device Interface
information manual, as follows: The Inspection option, after the overlay of
virtual objects, the user can access speci-
– The application introduction includes a cover that presents the user with preliminary information on imple-
fic information for each valve by interacting
The application
menting of the Here,
the application. visualthe
interface
user hasinclu-
the option of choosing between an Inspection of valves and the
with the application. The user taps on the
des virtual object
Pre-installation Test. image designs, and con-
Tablet screen by selecting one of the valves
tentvirtual
– The from the device
objects information
are designed manual,
according as area of interest.
to the
augmented, thisinformation
opened aofnew
eachscreen
valve. with
follows:
– The presentation of content includes a cover which presents to the user
specific content. In the Pre-installation Test
4 RESULTS: The application tests make use of the scaleoption thetheuser
model of ANM has the option
device. During to
thechoose a
test, a Tablet
The application introduction includes a test which thealready
overlay of virtual
camera captures the scene, then compares the captured images to those stored in the objects has
Target Manager
cover that presents the user with preli- specific information regarding the selected
database. Once the Image Target is detected, the virtual content is augmented, positioned and rendered, as can
minary
be seen in Figureinformation
4. on implementing the test. This procedure can be seen in Figu-
application. Here, the user has the op- re 5. Figure 5(a) shows the test done using
tion of choosing between an Inspection the ANM scale model for the Inspection op-
of valves and the Pre-installation Test. tion; Figure 5(b) shows the specific content
generated after the user has selected one
The virtual objects are designed accor-
of the ROV panel valves; and Figure 5(c)
ding to the area of interest.
shows one of Pre-installation Test.
The presentation of content includes a
cover which presents to the user infor-
mation of each valve. 5. CONCLUSIONES
4 RESULTS: The application tests make use of the scale model of the ANM device. During the test, a Tablet
camera captures the scene, then compares the captured images to those already stored in the Target Manager
C������� I������������
database. M���������,
Once the Image TargetV������ �, O������the
is detected, ���� - UMNG
virtual - F�������
content �� I��������� positioned and rendered, as can
is augmented, 41
be seen in Figure 4.
The Inspection option, after the overlay of virtual objects, the user can access specific information for each valve
First,
by augmented
interacting with thereality for mobile
application. The userdevices As to
taps on the Tablet future
screen directions,
by selecting one ofa the
second
valves phase has
augmented,
as well as the maintenance, operation and
this opened a new screen with specific content. In the been planned for extending and enhancing
Pre-installation Test option the user has the option to
choose a test which the overlay of virtual objects has specific information regarding the selected test.
installation manual of the ANM was stu- the application to more broadly support the
died,procedure
This regardingcan the area
be seen of interest.
in Figure 5. FigureNext,
5(a) showsinspection process
the test done andANM
using the pre-installation
scale model fortests
the
we defined the architecture for the imple- of ANM.
Inspection option; Figure 5(b) shows the specific content generated after the user has selected one of the ROV
mentation
panel of application
valves; and support
Figure 5(c) shows one offor insta-
Pre-installation Test.
llation of the ANM. Finally, we developed
5an CONCLUSIONS:
interactive AR application (app)istoa technology
Augmented Reality de- that expands the current physical reality by adding
monstrate the advantages and potential ap-
real-time information with the direct overlay of a virtual REFERENCIAS
world through a mobile device screen. In this study we
presented the main advantages that the technology can o↵er which includes providing the user with new tools for
plication of this technology in the context of
di↵erent processes and in various environments.
testing and preparation for installation of
the ANM. The tests were done in the field 1. Ababsa, F., Zendjebil, I., Didier, J., Pouderoux, J.,
and Vairon, J. Outdoor augmented reality system
using a scale model of the device. for geological applications. In Advanced Intelligent
Mechatronics (AIM), 2012 IEEE/ASME International
This project initially presented an applica- Conference on (July 2012), pp. 416–421.
tion based on AR for mobile devices, such
as a Tablet that facilitates access to devi- 2. Amin, D., and Govilkar, S. Comparative study of
ce information and guides the user through augmented reality sdk’s. International Journalon Compu-
tational Sciences & Applications (IJCSA) (2015).
inspection procedures and pre-installation
tests. The system work by recognizing an 3. armedia.it. Ar media sdk. http://www.armedia.it/.
area of interest that presents specific in-
4. Azuma, R. T. A survey of augmented reality. Pre-
formation according to the device manual. sence: Teleoperators and Virtual Environments (1997).
The use of AR appears to be advantageo- 5. Corona Arzola, C., and de la Fraga, L. Processing
us in this context, as it contributes posi- video frames in ipad for augmented reality appli-
tively to the inspection process and pre- cations. In Electronics, Communications and Com-
installation testing. It facilitates an unders- puters (CONIELECOMP), 2014 International Confe-
rence on (Feb 2014), pp. 155–159.
tanding of the device as well as the identifi-
cation of parts, which reduces the workload 6. Darling, J., Vanoni, D., Levy, T., and Kuester, F.
of the interpretative processing operator. Enhancing the digital heritage experience from field
to museum: User-centered system design of an aug-
mented reality tablet application for cultural herita-
P�������� A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D�����
R�������� R���, D� M������ ��� P������� M�����
42 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
ge. In Digital Heritage International Congress (Di- 18. SAC Cororatte. Árvore de Natal Molhada Hori-
gitalHeritage), 2013 (Oct 2013), vol. 1, pp. 453–453. zontal Tipo DL-GLL 2500M. Manual de manutenção,
operação e instalação, vol. 1 and 2. COOPER CAME-
7. Developer.vuforia.com. Vuforia library. RON and PETROBRAS, 2001.
http://developer.vuforia.com/library/.
19. Sumadio, D., and Rambli, D. Preliminary evalua-
8. Developer.vuforia.com. Vuforia sdk. tion on user acceptance of the augmented reality
http://developer.vuforia.com. use for education. In Computer Engineering and Ap-
plications (ICCEA), 2010 Second International Con-
9. Hahn, J. Mobile augmented reality applications ference on (March 2010), vol. 2, pp. 461–465.
for library services. New Library World 113, 9/10
(2012), 429–438. 20. t-immersion.com. D’fusion sdk.
http://www.t-immersion.com/products/dfusion-suite.
10. Hincapie, M., Caponio, A., Rios, H., and Mendivil,
E. An introduction to augmented reality with appli- 21. wikitude.com. Wikitude sdk.
cations in aeronautical maintenance. In Transparent http://www.wikitude.com/products/wikitude-sdk/.
Optical Networks (ICTON), 2011 13th International
Conference on (June 2011), pp. 1–4. 22. Xiao, C., and Lifeng, Z. Implementation of mobi-
le augmented reality based on vuforia and rawajali.
11. Hitl.washington.edu. Artoolkit sdk. In Software Engineering and Service Science (IC-
http://www.hitl.washington.edu/artoolkit/. SESS), 2014 5th IEEE International Conference on
(June 2014), pp. 912–915.
12. Ibañez, A. S., and Figueras, J. P. Vuforia v1.5
sdk: Analysis and evaluation of capabilities. Mas- 23. Zhang, Q., Chu, W., Ji, C., Ke, C., and Li, Y. An
ter’s thesis,Universitat Polit ?ecnica de Catalunya, implementation of generic augmented reality in mo-
2013. bile devices. In Information Technology and Artificial
Intelligence Conference (ITAIC), 2014 IEEE 7th Joint
13. Lamounier, E., Bucioli, A., Cardoso, A., Andrade, International (Dec 2014), pp. 555–558.
A., and Soares, A. On the use of augmented reality
techniques in learning and interpretation of cardio-
logic data. In Engineering in Medicine and Biology
Society (EMBC), 2010 Annual International Confe-
rence of the IEEE (Aug 2010), pp. 610–613.
A�������� R������ A������ ��� ��� I��������� ��� P��-I����������� T������ �� U��������� O�� P��������� D����� P��������
R�������� R���, D� M������ ��� P������� M�����
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
A����� E������ M���� V����1 , E����� L������� S����� B�����1 , C����� A������ R����
C������1 � W����� H������ S������ R��������1
Palabras clave:
Construcción de personajes, metadatos, puntos de anclaje, pivote.
Keywords:
Characters building, metadata, anchor point, pivot.
1
Grupo de investigación en Multimedia GIM, Programa de Ingeniería Multimedia, Universidad Militar
Nueva Granada, Bogotá, Colombia
44 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
Resumen
Abstract
NP
CARACTERÍSTICAS DE PERSONAJE
naje vinculado a dicho archivo, con el fin de GENERALES
utilizarlo en el módulo de asociación. Tipo de Ectomorfo Mesomorfo Endomorfo
Cuerpo
Raza Afroamericano Asiático Caucásico
Para que el anterior proceso se pueda lle- Color Piel-Negro Piel-Amarillo Piel-Blanco
var a término, se verifica el modelo de me- de Piel
Género Hombre Mujer
tadatos Dublin Core “DCMI” en el cual, se Tamaño Grande Mediano Pequeño
identifica que no están generadas las ca- (ancho, largo) (promedio) (delgado, corto)
ESPECÍFICAS
racterísticas asociadas a un personaje, por Forma
lo que se realiza un estudio previo que per- Ojos Ovalado Promedio Alargado
Nariz Aguileña Recta Respingada
mita generar la clasificación de caracterís- Cabello Lizo Rizado Ondulado
ticas del cuerpo humano, con el fin de iden- Orejas Angulares Promedio Redondas
Cara Redonda- Cuadrada Triangular
tificar las candidatas a datos base, y así Ovalada
poder generar el recurso de metadato. Co- Color
Ojos Negro Café Azul-Verde Miel
mo se ve en la Tabla 1. Características de Cabello Negro Castaño- Amarillo Gris-
personaje. Rojo Amarillo Blanco
extremidades inferiores [12], y en el caso son los puntos de anclaje, que permiten la
de personajes por partes o marionetas, és- asociación de nodos padre y nodos hijos.
tas pueden ser divididas en tantos nodos
como se desee, según las necesidades del Nombre o título: Nombre de la parte.
Creador: Nombre del creador del metadato.
proyecto. Por ejemplo, en su proyecto de Fecha: Fecha de creación del metadato.
animación de personajes por el movimien- Editorial: Entidad que publica el proyecto.
Contribuyente: Dependencia encargada de realizar el pro-
to de la mano, Zhiqiang Luo y sus compa- yecto.
ñeros, dividieron su marioneta digital por: Descripción: Breve descripción del nodo y su relación en
el personaje.
cabeza, cuello, cadera, brazos y piernas, ya Edad: Edad del personaje: adulto, niño, anciano.
que usualmente se ignoran codos y rodillas Raza: Raza del personaje: afroamericano, asiático
o caucásico.
[8]. Tema o Género: Género del personaje, Hombre o mujer.
Tipo: Tipo de nodo ej: Padre, o hijo de torso, hijo
Para este proyecto, se separa el personaje de brazo izquierdo, etc.
Formato: Tipo de formato de imagen, en éste caso,
en 5 partes; cabeza, torso, brazo derecho, PNG.
brazo izquierdo y piernas, basado en las Identificador: Número que permite identificar si es pa-
dre, y el nivel de jerarquía al que corres-
partes que componen el cuerpo humano de ponde. (padre:0000,cabeza=1000, brazo iz-
la Tabla 1. Características físicas de perso- quierdo=2000, piernas=3000, brazo dere-
cho=4000).
naje. Ver Figura 2. Partes o nodos de per- Es parte de: El nombre del padre al cual está asociado el
sonaje. Las diferentes piezas, junto con sus nodo.
Tiene parte: Nodos que se desprenden de ésta parte ej:
metadatos asociados, son almacenadas en miembro superior izquierdo: brazo izquierdo,
un sistema de archivos para su posterior antebrazo izquierdo y mano izquierda.
Identificador de La página web (URI) a la cual pertenece la
consulta, el cual se crea previamente y se recurso: licencia del proyecto.
denomina el momento offline. Fuente: Nombre de la dependencia académica que
está llevando a cabo el proyecto.
Cobertura: Región a la que está destinada el proyecto,
La separación de las partes, se deriva del de acuerdo al alcance del recurso.
diseño preliminar del personaje completo. Derechos: Unidad académica, u organismo que desa-
rrolla el proyecto, y a la cual se le atribuyen
Se realiza la ilustración de un personaje los derechos de creación.
basado en las características escogidas de Tamaño del per- Grande (G), Mediano (M), Pequeño (P).
sonaje:
tamaño y forma, y se construyen una a una Color: Color de características físicas desde arriba
las partes requeridas por medio de un soft- hacia abajo: cabello, ojos, piel.
Forma: Forma de la parte específica. Ej: Cabello: li-
ware de ilustración vectorial como Adobe so, rizado, afro.
Illustrator CC. Tipo de cuerpo: Endomorfo (E), Ectomorfo (H), Mesomorfo
(M).
Punto de ancla- X1, Y1, en caso de existir más de un pun-
Las partes creadas son almacenadas de ma- je: to de anclaje, se almacenan de manera na-
nera individual, cuidando aspectos como el tural en el sentido de las manecillas del
reloj, iniciando desde las 12:00. Se se-
tamaño y formato de imagen. Se escoge el paran por punto y coma sin espacios ej:
tipo raster, ya que permite el manejo de pí- X1,Y1;X2,Y2;X3,Y3;X4,Y4.
Punto de ancla- X1,Y1 del padre.
xeles, y el formato de imagen PNG, gracias je objetivo:
a que contiene un canal alfa, que permite Tamaño de la Alto (H), Ancho (W).
imagen:
superponer los nodos, y su compresión no Punto de ancla- %X, %Y, Coordenada en porcentajes del punto
tiene pérdida de información. je en porcenta- de anclaje respecto a la imagen.
je:
Por lo que se debe definir la jerarquía de ubicación es central entre todas las partes,
nodos. Al definir las partes que funcionan y se convierte en el mejor referente para
como nodos padres, y aquellas que se aco- el posicionamiento de todos los nodos, la
plan como nodos hijos, se conoce la jerar- ubicación de estos se realiza en dirección
quía en su ubicación. De acuerdo con el de las manecillas del reloj como se ve en la
proceso de animación tipo cut out, se sa- Figura 3.
be que cada nodo debe estar ligado a uno
anterior o padre, el cual guía su movimien- La jerarquía de asociación de los nodos o
to. Así lo hace la herramienta de Adobe partes de imagen se realiza mediante un
Flash EDAP TOOLS, quienes en su plugin árbol, ver Figura 3, cuya estructura mues-
SMART MAGNET RIGS, crean rigs de ma- tra la organización basado en los puntos
rionetas digitales a partir de la asociación de anclaje con prioridad en los nodos pa-
de partes de personajes mediante el uso de dre. Teniendo la estructura jerárquica del
nodos padre y nodos hijos [4]. personaje, los metadatos y los nodos de
partes de personaje, pasa al componente
de asociación, el cual realiza el proceso de
Torso Cabeza Brazo
izquierdo
Piernas Brazo
derecho ubicación de cada nodo en un lienzo final,
iniciando desde el nodo padre seguido por
los hijos correspondientes.
ECTOMORFO
Figura 3: Puntos de anclaje y su ubicación en el nodo padre, para estructura jerárquica del
personaje.
Palabras clave:
Transmedia, modelo de transmisión, multimedia, dispositivo streaming, na-
rrativas.
Keywords:
Transmedia, transmission model, multimedia, streaming device, narratives.
1
Grupo de investigación en Multimedia GIM, Programa de Ingeniería Multimedia, Universidad Militar
Nueva Granada, Bogotá, Colombia
54 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
Resumen
Abstract
P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ���������� P��������
R����, C. A. � D���, P. A.
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 55
P�������� P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ����������
R����, C. A. � D���, P. A.
56 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ���������� P��������
R����, C. A. � D���, P. A.
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 57
1. Archivo de video.
2. Archivo de audio.
Figura 3: ”Sprint´´, Tiempos y fases de
3. Archivo de imagen.
desarrollo.
El modelo base para la creación del pro- No se entrará en una descripción detallada
totipo busca teorizar cómo debe plantearse del código del programa dado que gran par-
la dinámica de visualización del contenido te del mismo se basa en las guías de desa-
una vez ya es buscado y cargado por el rrollo provistas por Google para la creación
dispositivo receptor. Para ello se diseñó un de una aplicación base para el dispositivo
esquema que explica cómo el contenido to- receptor y remitente; Sólo se tratarán los
ma un comportamiento Transmedia usando aspectos y algoritmos más relevantes del
los formatos disponibles y aceptados por el código con el fin de explicar su funcionali-
dispositivo ChromeCast (Ver Figura 4). dad.
P�������� P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ����������
R����, C. A. � D���, P. A.
58 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
\scriptsize
/*Initialize application*/
if (!chrome.cast || !chrome.cast.isAvailable) {
setTimeout(initializeCastApi, 1000);
}
function initializeCastApi() {
var sessionRequest =
new chrome.cast.SessionRequest(applicationID);
var apiConfig =
new chrome.cast.ApiConfig(sessionRequest,
function sessionListener(session){
currentSession = session;
},
function receiverListener(device){
Figura 5: Registro fotográfico, conexión
if(device == chrome.cast. dispositivo remitente con el dispositivo re-
});
ReceiverAvailability.AVAILABLE){}
ceptor.
chrome.cast.initialize(apiConfig,
function onInitSuccess(){}, pectos a mejorar en la recolección de los
function onError(){});
} datos de retraso o recarga de los conteni-
dos por cuestiones de la conexión con la
que se está trabajando.
El código se encargará de buscar si se en-
cuentra disponible un ChromeCast en la red Partiendo de lo anterior, sí ambos dispositi-
WiFi en la que se encuentra conectado el vos se encuentran conectados a una red óp-
remitente, después cuando desde la apli- tima, se esperaría que el algoritmo calcula-
cación del dispositivo remitente se ordene rá el tiempo restante para auto-reproducir
conectar al dispositivo receptor, el dispo- la siguiente sección del contenido. El algo-
sitivo remitente enviará un “applicationID” ritmo se desarrolló en el lenguaje JavaS-
(que previamente se ha adquirido con Goo- cript para la aplicación del remitente de la
gle) al receptor el cual al identificar la ID siguiente manera:
ejecutará la aplicación del dispositivo re-
ceptor (Ver Figura 5).
\scriptsize
/*Autoplay Media*/
Un aspecto importante que presentó mu-
chos problemas al momento de su imple- function onPlayMedia(){
validator = true;
mentación fue el algoritmo usado para cal- Timer(t,validator);
cular la duración en segundos del conte- }
P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ���������� P��������
R����, C. A. � D���, P. A.
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I��������� 59
function onPauseMedia(c){
A continuación se enumeran los resultados
clearTimeout(myTimeOut); obtenidos del prototipo de aplicación de trans-
validator = false;
c = Math.floor(c);
misión de contenidos Transmedia en el dis-
c = c * 1000; positivo ChromeCast:
t = t - c;
t = Math.abs(t);
errorTime = t * 0.03;
t = t + errorTime;
1. Prototipo funcional de aplicativo para la
} visualización de narrativas Transmedia
P�������� P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ����������
R����, C. A. � D���, P. A.
60 C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
2. Adaptar sin problema la narrativa Trans- Este trabajo es financiado con recursos de
media trabajada desde el semillero MUL- la Vicerrectoría de Investigación de la Uni-
TUS de la Universidad Militar Nueva versidad Militar Nueva Granada, en el pro-
Granada denominado “Proyecto Alicia” yecto INV-ING-1763, “Identificación de ca-
a un nuevo tipo de medio de transmi- racterísticas de personajes a partir de una
sión. historia”, de 2015. Los autores agradecen el
apoyo brindado por la Universidad Militar
3. Planteamiento y comprobación de un mo-
Nueva Granada.
delo Transmedia para visualización de
contenidos en televisores no “smart”.
REFERENCIAS
4. CONCLUSIONES
1. Staffans, S.(2nd Ed.).(2011). One Year in Transme-
dia. Recuperado de http://es.slideshare.net/Simon99
El prototipo desarrollado proporciona las /one-year-in-transmedia
bases para la creación a futuro de una
plataforma que permita indexar múlti- 2. Gallego Aguilar, A. F. (2011). Diseño de Narrativas
ples proyectos Transmedia que puedan Transmedia: Guía de referencia para las industrias
creativas de países emergentes en el contexto de
ser visualizados en varios formatos con- la cibercultura. (Tesis inédita de maestría). Univer-
tinuos y narrativamente fluidos desde un sidad de Caldas, Manizales, Colombia.
televisor.
3. Acuña, F. - Caloguerea, A. (2012). Guía para la
Con el proyecto se consiguió compren- producción y distribución de contenidos transmedia
der el concepto de diseño Transmedia y para múltiples plataformas. Alameda 340, Santia-
go de Chile. Facultad de Comunicaciones, Pontificia
cómo este permite el desarrollo de nue- Universidad Católica de Chile.
vas formas de experiencia de usuario a
nivel narrativo, planteando no sólo la crea- 4. Aaron, M. (2009). Transmedia Storytelling in Tele-
ción de contenidos innovadores para los vision 2.0 Strategies for Developing Television Na-
rratives Across Media Platforms.
medios disponibles sino también la posi-
bilidad de creación de medios diseñados 5. Zingerle, A. - Kronman, L. (2011). Transmedia Story-
y desarrollados para un proyecto Trans- telling and Online Representations. Cyberworlds (CW),
media. International Conference.
P�������� �� ������ �� ����������� �� ���������� � ���������� ���������� ���� ������������ ��������� �� ���������� P��������
R����, C. A. � D���, P. A.
T�������
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
Abstract
The art of visual effects grows more complex by the day, pus-
hing the boundaries of artists and technology to the limit with
each release of the next big film. This workshop will provide a
look into modern VFX workflows and how they apply to con-
temporary visual effects creation. The workshop will explore
the power of Houdini, the industry standard for demanding
FX tasks. We will also cover physical rendering workflows
utilising Renderman and finish up showcasing the power The
Foundry’s Nuke for 3d compositing approaches.
1
Media Design School, New Zealand
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
P���� T���
D���� M����� 1
Resumen
El taller de Paper toys da a conocer una especial estrategia
de invención y comunicación para desarrollar en proyectos de
diseño de juguetes, logotipos, campañas publicitarias, anima-
ción, entretenimiento, etc.?Es ciento por ciento práctico, sigue
todos los pasos de creación y armado de personajes en papel,
combina el dibujo de bocetación y el digital y pone en prác-
tica las capacidades de observación, abstracción, espaciales
y manuales.
1
Pontificia Universidad Javeriana, Facultad de Arquitectura y Diseño, Bogotá, Colombia
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
Resumen
El objetivo del taller es generar en los estudiantes curiosi-
dad sobre las herramientas y las posibilidades que permite el
desarrollo web, más específicamente, los lenguajes de progra-
mación relevantes para el mismo (HTML, CSS y JavaScript).
Se conoce como Internet de las Cosas (IoT, por sus siglas en
inglés) a todas aquellas tecnologías que permiten la interac-
ción entre internet y elementos disponibles en el plano físico,
ya sea mecánicos (como puertas, ventanas, cerraduras, etc),
eléctricos (luces, licuadoras, estufas, etc) e incluso electróni-
cos (televisores, radios, consolas de videojuegos, etc). Dispo-
sitivos tales como Arduino, Raspberry Pi, Intel Edison y otros,
permiten que este acercamiento sea accesible para cualquier
persona, haciendo que las posibilidades para conectar am-
bos mundos sean tan diversas como las ideas que en todas
partes del mundo ya se están desarrollando. Es nuestra res-
ponsabilidad como creadores de contenidos digitales acercar
a nuestros usuarios de una manera amigable, fluida y confia-
ble a las ideas que desarrollamos. Así pues, las experiencias
físicas que se conectan con lo virtual deben estar encami-
nadas a lograr un uso adecuado de nuestras tecnologías, de
la misma manera en que generemos satisfacción y gusto por
ellas. Mediante este taller, los estudiantes participan de una
experiencia interactiva, en donde exploraremos, a través de
un simple circuito elaborado con un Arduino, de qué manera
la experiencia de usuario juega un papel fundamental en la
conexión con estos dos mundos, como también veremos algu-
nas de las muchas posibilidades que las tecnologías web nos
abren para que seamos partícipes en la creación de conteni-
dos digitales relevantes y significativos para nuestro entorno.
1
Zemoga Inc., Wilton, CT, USA
C������� I������������ M���������, V������ �, O������ ���� - UMNG - F������� �� I���������
Resumen
El auge de la Web 3.0, ha permitido en la última década la
generación de datos de forma rápida, variada y en grandes
volúmenes. Diferentes escenarios como la academia, la in-
dustria y la investigación no están exentos de este fenómeno.
Esto conlleva a que existan nuevas necesidades para el aná-
lisis y la toma de decisiones a partir de diferentes fuentes de
información o datos. De esta manera la Visualización Analíti-
ca surge como un área de estudio, que integra la visualización
científica, la computación, la generación de interfaces y la in-
teracción, para ayudar a diferentes actores como analistas,
investigadores y altos funcionarios a la toma de decisiones.
El taller de Visualización para el análisis de datos esta enfo-
cado a introducir el tema de Visualización Analítica, a partir
de un caso de estudio, para de forma práctica entender lo
valioso de incluir estas técnicas en los procesos de toma de
decisiones.
1
Grupo de Investigación ACCEDER, Facultad de Ingeniería, Universidad Militar Nueva Granada, Bogotá,
Colombia
MEMORIAS CONGRESO INTERNACIONAL MULTIMEDIA.
Volumen 3, 2013
ISSN (CD-ROM) 2346-3023
congresomultimedia.umng.edu.co
Programa de Ingeniería en Multimedia
Universidad Militar Nueva Granada
Bogotá, Colombia, Agosto de 2013