Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 44

Realidad virtual y

aumentada
PID_00194192

Francisco Ramos
CC-BY-NC-ND • PID_00194192 Realidad virtual y aumentada

Los textos e imágenes publicados en esta obra están sujetos –excepto que se indique lo contrario– a una licencia de
Reconocimiento-NoComercial-SinObraDerivada (BY-NC-ND) v.3.0 España de Creative Commons. Podéis copiarlos, distribuirlos
y transmitirlos públicamente siempre que citéis el autor y la fuente (FUOC. Fundación para la Universitat Oberta de Catalunya),
no hagáis de ellos un uso comercial y ni obra derivada. La licencia completa se puede consultar en http://creativecommons.org/
licenses/by-nc-nd/3.0/es/legalcode.es
CC-BY-NC-ND • PID_00194192 Realidad virtual y aumentada

Índice

Introducción............................................................................................... 5

1. Caracterización de un sistema de realidad virtual................... 9


1.1. Introducción ................................................................................ 9
1.2. Caracterización ............................................................................ 10
1.2.1. Interactividad ................................................................. 10
1.2.2. Ilusión de realidad ......................................................... 11
1.2.3. Tridimensionalidad ........................................................ 12
1.2.4. Capacidad de síntesis .................................................... 12
1.3. Arquitectura de un sistema de realidad virtual ........................... 13
1.4. Dispositivos de salida .................................................................. 14
1.4.1. Dispositivos de salida para sistemas inmersivos ............ 14
1.4.2. Dispositivo de salida para sistemas proyectivos ............ 15
1.4.3. Nuevas tendencias ......................................................... 16
1.4.4. Técnicas de estereoscopia .............................................. 16
1.4.5. Otros ............................................................................... 16
1.5. Dispositivos de entrada ............................................................... 17
1.5.1. Localización ................................................................... 17
1.5.2. Control ........................................................................... 17
1.5.3. Nuevas tendencias ......................................................... 18
1.6. Secuencia de tareas de un sistema de realidad virtual ................ 18
1.7. Tendencias futuras ...................................................................... 19

2. Técnicas de visualización................................................................. 23
2.1. El pipeline gráfico ....................................................................... 23
2.1.1. Arquitectura ................................................................... 23
2.1.2. Funcionamiento ............................................................. 25
2.1.3. Consideraciones ............................................................. 26
2.2. Librerías de programación de gráficos por ordenador ................ 27
2.2.1. Direct X .......................................................................... 27
2.2.2. OpenGL .......................................................................... 28

3. Técnicas de seguimiento e interacción........................................ 30


3.1. Introducción ................................................................................ 30
3.2. Taxonomía ................................................................................... 31
3.3. Sistemas basados en sensores ...................................................... 31
3.3.1. Sensores mecánicos ........................................................ 32
3.3.2. Sensores inerciales ......................................................... 32
3.3.3. Sensores acústicos .......................................................... 33
3.3.4. Sensores magnéticos ...................................................... 33
3.3.5. Sensores ópticos ............................................................. 33
CC-BY-NC-ND • PID_00194192 Realidad virtual y aumentada

3.3.6. Sensores de radio y microondas .................................... 34


3.4. Sistemas basados en visión ......................................................... 34

4. Caracterización de un sistema de realidad aumentada........... 36


4.1. Introducción ................................................................................ 36
4.2. Caracterización ............................................................................ 37
4.2.1. Aumentación visual, auditiva y táctil ........................... 38
4.2.2. Portabilidad .................................................................... 39
4.3. Registro: problemática y errores ................................................. 39
4.4. Localización ................................................................................. 40
4.5. Aplicaciones ................................................................................. 40
4.5.1. Medicina ........................................................................ 40
4.5.2. Reparación y mantenimiento ........................................ 41
4.5.3. Anotación ....................................................................... 41
4.5.4. Planificación de tareas de robots ................................... 41
4.5.5. Entretenimiento y publicidad ....................................... 42
4.6. Tendencias futuras ...................................................................... 42
CC-BY-NC-ND • PID_00194192 5 Realidad virtual y aumentada

Introducción

1)�Definiciones

a)�Realidad�virtual

Un sistema de realidad virtual es aquel que proporciona al usuario la experien-


cia de estar inmerso en un entorno sintético. La realidad virtual también se
caracteriza por ofrecer la ilusión de participación en este entorno sintético, en
lugar de ofrecer simplemente una observación externa de este. Es decir, es una
experiencia inmersiva y multisensorial.

En otras palabras, es un sistema interactivo que permite sintetizar un


mundo tridimensional creando en el usuario la ilusión de realidad.

Más formalmente, la realidad virtual es un concepto que se aplica a entornos


de simulación por ordenador que pueden crear la sensaciónde�presencia�fí-
sica en lugares existentes y/o imaginarios.

Actualmente, la mayoría de los entornos de realidad virtual implementan sis-


temas de experiencia visual en pantallas estándar de ordenador o mediante
dispositivos estereoscópicos, aunque también existen sistemas que incorporan
más información sensorial con el uso de altavoces o micrófonos, por ejemplo.
Últimamente, han aparecido sistemas de realidad virtual que incluyen infor-
mación táctil en aplicaciones como videojuegos. Por otro lado, tal y como se
ha comentado, la realidad virtual también contempla la interacción con los
mundos virtuales, lo que permite que los usuarios experimenten una inmer-
sión mayor gracias a la utilización de dispositivos de entrada estándar, como
el ratón o el teclado, o incluso dispositivos más avanzados, como guantes o
cintas de correr especialmente diseñadas para interactuar con estos sistemas.

Los entornos virtuales pueden ser generados para crear una experiencia realis-
ta o totalmente imaginaria, como ocurre en los simuladores de los coches de
fórmula 1 o en los videojuegos futuristas, respectivamente. Por otra parte, la
creación de un entorno virtual con el máximo realismo es actualmente una
línea de investigación. Esto se debe principalmente a las limitaciones tecno-
lógicas actuales en cuanto a ancho de banda en las comunicaciones, resolu-
ción de las imágenes y capacidad de procesamiento. No obstante, la tecnología
avanza muy rápidamente y cada vez se obtienen mejores resultados.

b)�Realidad�aumentada
CC-BY-NC-ND • PID_00194192 6 Realidad virtual y aumentada

La realidad aumentada trata de “aumentar” el mundo real con informa-


ción virtual para mejorar el conocimiento y las sensaciones del usuario.

Combina elementos virtuales con el mundo real. Hay tres características fun-
damentales y comunes en los sistemas de realidad aumentada:

1) la combinación del entorno del mundo real con elementos generados por
ordenador,
2) la interactividad en tiempo real y
3) escenas en 3D.

Llegados a este punto, podemos decir que la principal diferencia entre la reali-
dad virtual y la realidad aumentada es que en la primera el mundo real es sus-
tituido por otro simulado y en la segunda la vista de la realidad es modificada
mediante el ordenador, proporcionando una percepción mejorada de esta.

Normalmente, el proceso de aumentación es en tiempo real y se produce en


un contexto determinado. Con la ayuda de la tecnología, la información del
mundo real que el usuario está viendo se ve complementada con información
artificial que se superpone a ella.

Actualmente, la realidad aumentada es un campo de investigación muy activo.


La investigación actual se centra principalmente en la combinación de escenas
o imágenes generadas por ordenador con vídeos en tiempo real como vía de
mejora de percepción del mundo real. La tecnología de realidad aumentada
incluye dispositivos de visualización, como cascos montados en la cabeza y
pantallas de mezcla óptica, así como construcción de entornos mediante di-
ferentes tipos de sensores y actuadores.

c)�Realidad�mezclada

El término realidad mezclada, podéis ver la figura 1, fue definido por Paul Mil- Lectura recomendada
gram y Fumio Kishino en 1994, quienes describían la realidad mezclada como
P.�Milgram;�A.�F.�Kishino
un espacio continuo que va desde el entorno real hasta el entorno virtual. (1994). Taxonomy of Mixed
Dentro de este intervalo podemos encontrar la realidad aumentada, más cerca Reality Visual Displays IEICE
Transactions on Information
del entorno real, y la virtualidad aumentada, más cerca del entorno virtual. and Systems (núm. 12, pág.
1321-1329). E77-D.
CC-BY-NC-ND • PID_00194192 7 Realidad virtual y aumentada

Figura 1. Realidad mezclada como un espacio continuo

2)�Problemática�común

En la figura 2 se presenta un diagrama de bloques en el que se intenta repre-


sentar las partes que intervienen en la implementación de un sistema de reali-
dad virtual y de realidad aumentada. Según el tipo de sistema que finalmente
se lleva a cabo, determinados elementos pueden desaparecer. Esta figura ser-
virá de esquema para explicar las diferentes partes de este material.

Figura 2. Esquema de un sistema de realidad virtual y de realidad aumentada

3)�Organización�de�los�contenidos

El contenido de este módulo está dividido en varias partes.

Después de la introducción, en el apartado 1, veremos una caracterización de


un sistema de realidad virtual, sus funciones, su arquitectura, los dispositivos
básicos que intervienen en él y sus aplicaciones.
CC-BY-NC-ND • PID_00194192 8 Realidad virtual y aumentada

El apartado 2 tratará sobre las técnicas de visualización actuales, con una ex-
plicación del pipeline gráfico actual y las dos librerías de programación de grá-
ficos por ordenador más populares: OpenGL y DirectX.

En el apartado 3 profundizaremos en las técnicas de seguimiento e interacción


repasando diferentes tipos de sistemas que se utilizan actualmente.

Posteriormente, caracterizaremos los sistemas de realidad aumentada y estu-


diaremos la problemática particular de estos sistemas.
CC-BY-NC-ND • PID_00194192 9 Realidad virtual y aumentada

1. Caracterización de un sistema de realidad virtual

1.1. Introducción

En la figura 3 podemos ver un esquema representativo de los bloques opera-


tivos que intervienen en un sistema de realidad virtual. Podemos observar el
modelado, que representa los objetos 3D que formarán parte del mundo vir-
tual. Este mundo, compuesto por objetos estáticos y dinámicos, se presenta al
usuario, quien podrá interactuar con el mundo cambiando el flujo de infor-
mación que recibe.

Figura 3. Bloque funcional de un sistema de realidad virtual

Por ejemplo, en la figura 4, se muestra una captura de un videojuego funcio-


nando en un dispositivo móvil (GT Racing: Motor Academy). Los videojuegos
son ejemplos clásicos de sistemas de realidad virtual, aunque van apareciendo
progresivamente videojuegos que podemos clasificar como sistemas de reali-
dad aumentada.

En la figura que nos ocupa podemos observar árboles, montañas, coches, es decir, ele-
mentos de la escena 3D que se han diseñado y creado previamente, es lo que denomina-
mos modelado. Todos estos elementos se disponen en el mundo virtual y se les asigna un
comportamiento, que puede ser estático (árboles, montañas) o dinámico (coches, públi-
co animando). Posteriormente, se presenta al usuario una determinada vista de la escena
mediante un dispositivo de visualización, en este caso un móvil. En este momento el
usuario puede interactuar con el mundo y cambiar el comportamiento de ciertos obje-
tos, como el coche. Estos cambios se gestionan en el mundo virtual y el usuario recibe
finalmente la respuesta a su interacción.

Es importante enfatizar que lo que se ha descrito es un breve resumen de todo


lo que sucede en un sistema de realidad.
CC-BY-NC-ND • PID_00194192 10 Realidad virtual y aumentada

Figura 4. Aplicación representativa de un sistema de realidad virtual

Videojuego de carreras en un dispositivo móvil.

1.2. Caracterización

Un sistema de realidad virtual presenta varias características que hay que defi-
nir y explicar. En este apartado se definirán algunos conceptos muy importan-
tes en sistemas de realidad virtual y, como se verá posteriormente, en sistemas
de realidad aumentada.

1.2.1. Interactividad

Formalmente, la interactividad es la capacidad de un elemento para cambiar


el flujo de información que proporciona un sistema (podéis ver la figura 5).
Hay que aclarar que la interactividad es una cualidad, y es independiente de
que se utilice o no.

Por ejemplo, un videojuego es interactivo independientemente de que un usuario juegue


o no.

Tal y como se definió en la introducción, el usuario debe poder actuar sobre el


entorno virtual. Estas interacciones se producen haciendo uso de los periféri-
cos de entrada, también conocidos como sensores.
CC-BY-NC-ND • PID_00194192 11 Realidad virtual y aumentada

Figura 5. Interacción de usuarios con un videojuego

A medida que interactúan, cambia el flujo de información que reciben.

1.2.2. Ilusión de realidad

El usuario ha de sentir la sensación de inmersión en el sistema de realidad


virtual, es decir, debe percibir la ilusión de que está viviendo una realidad. Esta
ilusión de realidad, aparte de los factores fisiológicos y psicológicos, se intenta
obtener mediante el uso de periféricos de salida. Un ejemplo de periférico de
salida es la CAVE (podéis ver la figura 6).

Figura 6. Usuario integrado en un dispositivo de tipo CAVE (cave automatic virtual environment)
CC-BY-NC-ND • PID_00194192 12 Realidad virtual y aumentada

1.2.3. Tridimensionalidad

Los objetos se representan en tres dimensiones (podéis ver la figura 7), ya sean
objetos estáticos de la escena o dinámicos. Esto supone una fase previa de mo-
delado que es muy importante para dotar de realismo la escena que se quiere
representar.

Figura 7. Escena 3D interactiva creada con 3D Studio e integrada utilizando el motor de juegos
Ogre3D

1.2.4. Capacidad de síntesis

Las imágenes que recibe finalmente el usuario se generan en tiempo real a Seguimiento
partir de una representación del mundo virtual que varía según la posición y
El proceso de saber cuál es la
orientación de este (podéis ver la figura 8). posición y la orientación del
usuario se conoce con el nom-
bre de seguimiento.
CC-BY-NC-ND • PID_00194192 13 Realidad virtual y aumentada

Figura 8. Usuario navegando en un mundo virtual mediante una interfaz táctil

1.3. Arquitectura de un sistema de realidad virtual

En la figura 9 se puede observar la arquitectura típica de un sistema de realidad


virtual. Como ya se ha comentado anteriormente, fundamentalmente, tene-
mos el modelado –que se compone de los elementos 3D que formarán parte
de la escena–, los sensores (o también llamados dispositivos de entrada), que
permitirán la interacción y navegación por el mundo virtual, y los efectores (o
dispositivos de salida), que facilitarán la inmersión del usuario. En general, los
efectores presentan al usuario el entorno virtual, de manera visual, auditiva,
táctil, etc. Por otra parte, los sensores permiten localizar al usuario o usuarios
y a la vez, que este o estos controlen la aplicación y puedan navegar por ella.

En los siguientes apartados presentaremos los diferentes dispositivos de entra-


da y salida para este tipo de sistemas.
CC-BY-NC-ND • PID_00194192 14 Realidad virtual y aumentada

Figura 9. Arquitectura de un sistema de realidad virtual

1.4. Dispositivos de salida

En este apartado trataremos los dispositivos de salida más comunes de los sis-
temas de realidad virtual, aunque también pueden intervenir en un sistema
de realidad aumentada.

1.4.1. Dispositivos de salida para sistemas inmersivos

Los sistemas inmersivos de realidad virtual con frecuencia se relacionan en un


ambiente tridimensional creado por ordenador, el cual se manipula mediante
diferentes dispositivos periféricos que capturan la posición y rotación de dife-
rentes partes del cuerpo humano.

Un ejemplo de ello son los videocascos (podéis ver la figura 10). Estos aíslan
al usuario del mundo real, dando una mayor sensación de realidad a la simu-
lación. Así, los videocascos aumentan la sensación de inmersión dentro del
mundo virtual, pero, por contra, dificultan las acciones del usuario, puesto que
impiden la visión del mundo real y, puntualmente, producen fatiga y mareos.
CC-BY-NC-ND • PID_00194192 15 Realidad virtual y aumentada

Figura 10. Dispositivo de salida inmersivo: videocasco

Fuente: http://www.flickr.com/photos/31274959@N08/3214982429/

1.4.2. Dispositivo de salida para sistemas proyectivos

Los sistemas proyectivos, también conocidos como no�inmersivos, utilizan


el ordenador y nos ofrecen la posibilidad de interactuar en tiempo real con
el mundo virtual sin la necesidad de dispositivos adicionales, más allá de los
típicos de un ordenador.

Estos sistemas ofrecen un nuevo mundo mediante una ventana de entorno de


escritorio. Este enfoque tiene varias ventajas sobre el enfoque inmersivo, como
son el bajo coste y la fácil y rápida aceptación de los usuarios. Los dispositivos
inmersivos son de alto coste y, generalmente, el usuario prefiere manipular el
ambiente virtual por medio de dispositivos familiares, como son el teclado de
ordenador y el ratón, en lugar de cascos pesados o guantes.

El alto precio de los dispositivos inmersivos ha generalizado el uso de ambien-


tes virtuales fáciles de manipular por medio de dispositivos más sencillos, co-
mo es el importante negocio de las videoconsolas o los juegos en los que nu-
merosos usuarios interactúan a través de Internet. En Internet es donde nace
VRML, que es un estándar técnico para la creación de estos mundos virtua-
les no inmersivos compatibles con navegadores web. Este lenguaje provee un
conjunto de primitivas para el modelado tridimensional y permite dar com-
portamiento a los objetos y asignar diferentes animaciones que pueden ser
activadas por los usuarios.
CC-BY-NC-ND • PID_00194192 16 Realidad virtual y aumentada

1.4.3. Nuevas tendencias

En la actualidad, existen nuevos dispositivos que eliminan las desventajas de


los anteriores mediante el uso de estereoscopia, que trataremos en el siguiente
apartado, y de localización. Dos ejemplos de esto son los que se muestran en
la figura 11: sistemas de panorama y un sistema CAVE.

Figura 11

De izquierda a derecha, sistema CAVE y panorama.

1.4.4. Técnicas de estereoscopia

Las técnicas de estereoscopia generan una imagen para cada ojo del usuario
(podéis ver la figura 12). Esto permite ver el mundo en 3D reforzando la sen-
sación de realidad. En general, crea la ilusión de profundidad en una imagen.
Esta ilusión de profundidad en una fotografía, película u otra imagen bidi-
mensional es creada presentando una imagen ligeramente diferente para cada
ojo, como sucede en nuestra manera habitual de recoger la realidad.

Figura 12

De izquierda a derecha. Imagen estereoscópica, la parte roja va al ojo izquierdo y la parte azul al derecho. Usuario utilizando
gafas estereoscópicas en un entorno virtual.

1.4.5. Otros

En esta categoría se clasifican los dispositivos especializados que pueden com-


pletar la información visual y auditiva. Son ejemplos de ello las plataformas
móviles y los dispositivos táctiles, también conocidos como hápticos. La tec-
nología háptica está ganando aceptación como parte de los sistemas de reali-
dad virtual, añadiendo el sentido del tacto a las soluciones que típicamente
han sido únicamente de visualización. Actualmente, se está trabajando mucho
en este campo y se están desarrollando sistemas con interfaces hápticas para el
modelado 3D, proporcionando al diseñador la experiencia visual de modelar
interactivamente.
CC-BY-NC-ND • PID_00194192 17 Realidad virtual y aumentada

1.5. Dispositivos de entrada

Los dispositivos de entrada, en los sistemas de realidad virtual, tienen dos fun-
ciones principales:

• transmitir órdenes al sistema de manera voluntaria y


• solicitar información de manera automática.

Las características distintivas que proporcionan las últimas tecnologías son la


localización del usuario y el control.

1.5.1. Localización

Los dispositivos de localización permiten calcular la posición y orientación de


los objetos en el espacio tridimensional a partir de la posición y orientación
del usuario.

En general, se aplican de cuatro modos:

• detección de la orientación del observador,


• detección de la posición del observador,
• control de la aplicación y
• digitalización de objetos.

1.5.2. Control

Los dispositivos de control permiten al usuario controlar la aplicación e inter-


actuar con el mundo virtual.

Se pueden dividir en tres categorías:

• navegación,
• interacción y
• manipulación.

Existen muchos dispositivos pertenecientes a cada categoría. Incluso hay dis-


positivos que pertenecen a dos categorías, como los electroguantes (o wired glo-
ves) de la figura 13. Dentro de estas categorías podemos clasificar los siguientes
dispositivos:

• ratones,
• joysticks,
• sistemas biométricos para medir las señales generadas por el cuerpo hu-
mano,
• sensores específicos para simuladores de vuelos, de coches, etc.
CC-BY-NC-ND • PID_00194192 18 Realidad virtual y aumentada

Figura 13. Electroguantes o wired gloves

Fuente: http://www.flickr.com/photos/darkphibre/227765144/

1.5.3. Nuevas tendencias

Progresivamente van apareciendo en el mercado otros tipos de dispositivos


que tienen funciones muy variadas, como la adquisición de datos y el reco-
nocimiento de órdenes habladas, el reconocimiento de imágenes para el re-
conocimiento óptico de gestos, los controladores de fuerza y giro, similares
al joystick, pero con retroalimentación cinestésica force-feedback (podéis ver la
figura 14), etc.

Figura 14. Sistema de realidad virtual que utiliza un dispositivo de entrada con controlador de
fuerza y giro

1.6. Secuencia de tareas de un sistema de realidad virtual

Un sistema de realidad virtual debe realizar una serie de tareas, unas sencillas
y otras complejas. A continuación, se dará una secuencia�típica de un sistema
de este tipo. La secuencia de acciones se plantea a alto nivel, es decir, todas
implican acciones más complejas. Aun así, el objetivo es proporcionar una
visión global de estas tareas. Por tanto, podemos secuenciar las tareas de este
modo:
CC-BY-NC-ND • PID_00194192 19 Realidad virtual y aumentada

1) Captura de las acciones del usuario.


2) Lectura de los sensores externos (dispositivos de entrada).
3) Cálculo de la posición y la orientación del usuario.
4) Evaluar el comportamiento de los objetos.
5) Calcular las interacciones entre los objetos.
6) Actualizar el estado de los objetos.
7) Síntesis gráfica del entorno.
8) Actuación sobre los efectores (dispositivos de salida).
9) Volver a la tarea 1.

1.7. Tendencias futuras

El concepto de realidad virtual no es nuevo y ya hace mucho tiempo que se


definió. Hasta hace muy poco, estos sistemas se han dedicado a la simulación
y al entrenamiento. Hoy en día, la clave de la popularización de los sistemas
de realidad virtual es su aplicabilidad. Podemos encontrar muchos tipos de
aplicaciones y a continuación detallamos algunas.

1)�Arquitectura. Una de las aplicaciones más obvias de la realidad virtual es


la navegación en entornos arquitectónicos. Estos tipos de aplicación permiten
al usuario explorar una escena 3D en tiempo real, mostrando exactamente
aquello que el usuario quiere inspeccionar bajo demanda.

Figura 15
Web recomendada

Navegación en una aplica-


ción de arquitectura: http://
www.cs.unc.edu/walk/

Fuente: Cortesía de la escuela de arte de la Universidad de Carolina

2)�Visualización. Las aplicaciones de visualización se parecen mucho al pro-


totipo de navegación de las aplicaciones de arquitectura. De hecho, podemos
ver la navegación para entornos arquitectónicos como un tipo particular de las
CC-BY-NC-ND • PID_00194192 20 Realidad virtual y aumentada

aplicaciones de visualización. La realidad virtual muestra su potencial cuando


se visualizan datos complejos que tienen información de volumen o incluso
en datos abstractos que son multidimensionales (podéis ver la figura 16).

Figura 16. Aplicación de visualización

3)�Entretenimiento. Otro caso muy destacado de uso de la realidad virtual


lo podemos encontrar en el mercado del entretenimiento. En la actualidad,
es la mayor aplicación en términos de rentabilidad financiera. Muchas empre-
sas están produciendo videojuegos que utilizan los principios de la realidad
virtual. El mercado de usuarios potenciales es enorme y explica por qué estos
tipos de aplicaciones son tan importantes.

4)�Producción�industrial. El uso de la realidad virtual en el área de produc-


ción industrial de coches incluye la simulación del túnel de viento, muy uti-
lizado en los prototipos de fórmula 1 y de aerodinámica. Otros usos son los
que se muestran en la figura 17, como estudios de ergonomía. Los diseñadores
son capaces de probar la ubicación de varios componentes dentro del coche,
de modo que el conductor pueda acceder y manipular fácilmente todos los
controles que lo rodean. Este tipo de prototipado virtual es un método muy
eficiente y barato para crear pruebas y ajustar los detalles de fabricación antes
de la producción física.
CC-BY-NC-ND • PID_00194192 21 Realidad virtual y aumentada

Figura 17. Estudio ergonómico en la producción de coches

Fuente: Michigan Virtual Reality Lab. http://www-vrl.umich.edu/project/automotive/ Michigan Virtual Reality Lab

5)�Realidad�aumentada. Estos tipos de aplicaciones tienen un potencial muy


grande, puesto que incorporan un valor añadido a los problemas comerciales
actuales. Un sistema de realidad aumentada, al contrario que uno de realidad
virtual, está construido para mezclar el mundo virtual con el real que rodea
al usuario. En la figura 18 podemos ver cómo un usuario puede utilizar un
sistema de realidad aumentada para informarse mejor de ciertos productos, e
incluso para comprar. Esta nueva tendencia, la realidad aumentada, la veremos
en el apartado 4 de este módulo.

Figura 18. Ejemplo de compra en línea utilizando un sistema de realidad aumentada


Otros sectores de
aplicación

Otros sectores en los que se


ha aplicado con éxito la reali-
dad virtual son el arte, la edu-
cación, el entrenamiento y la
medicina.

Fuente: Layar. http://www.layar.com

Un aspecto predominante en estas aplicaciones es el hecho de que todas in-


tentan mejorar un sistema que ya está funcionando en su área de aplicación.
El uso de la realidad virtual es efectivo cuando aporta algún aspecto nuevo,
cuando añade valor a la experiencia global, manteniendo la viabilidad y utili-
dad del producto, lo que es, en general, una recomendación válida para cual-
quier sistema de realidad virtual.
CC-BY-NC-ND • PID_00194192 22 Realidad virtual y aumentada

Para que una aplicación de realidad virtual tenga éxito, debe añadir con-
tenido a la información presentada al usuario.

Muy a menudo, podemos observar aplicaciones de realidad virtual muy po-


bres, centradas solo en impresionar visualmente al usuario con colores y ani-
maciones. La mayoría de las veces, estos sistemas tienen una vida corta pues-
to que no fueron creados para resolver un determinado problema, sino para
impresionar con la tecnología.

Así pues, es importante plantearse ciertas cuestiones antes de emprender el


desarrollo de una aplicación de realidad virtual; cuestiones como: ¿cómo me-
jora mi aplicación si utilizo técnicas de realidad virtual en lugar de otros mé-
todos? o ¿es la realidad virtual la mejor manera de manipular mis datos?

Contestar a estas cuestiones no resulta siempre trivial. Muchas veces, los gráfi-
cos en dos dimensiones, o incluso el texto, pueden ser la mejor manera de co-
municar una determinada información. Las aplicaciones que manipulan vo-
lúmenes, espacios o que requieren que el usuario se oriente en un ambiente
volumétrico son buenas candidatas a ser creadas a partir de los principios de
la realidad virtual.
CC-BY-NC-ND • PID_00194192 23 Realidad virtual y aumentada

2. Técnicas de visualización

2.1. El pipeline gráfico

En este apartado se presenta lo que se considera el componente principal de


la visualización de gráficos en tiempo real o, lo que es lo mismo, el pipeline
gráfico.

La principal función del pipeline gráfico es generar, o renderizar, una


imagen 2D a partir de una cámara virtual, objetos 3D, fuentes de luz,
texturas, etc. Así, el pipeline gráfico es la herramienta fundamental para
la visualización de gráficos en tiempo real.

Las ubicaciones y formas de los objetos en la imagen están determinadas por


su geometría, características del entorno y ubicación de la cámara en este en-
torno. La apariencia de los objetos viene dada por el material que los compo-
ne, fuentes de luz y texturas.

2.1.1. Arquitectura

En el mundo físico, el concepto de pipeline está presente de muchos modos,


desde las líneas de ensamblaje de una fábrica hasta los ascensores de una es-
tación de esquí. El mismo principio se aplica al pipeline gráfico.

Para entender el concepto de pipeline, usaremos el ejemplo de un oleoducto (oil pipeline).


En este pipeline, el aceite no puede pasar de la primera fase o etapa a la segunda hasta que
el aceite que está en la segunda fase pase a la tercera, y así sucesivamente. Esto implica
que la velocidad del pipeline está determinada por la fase más lenta, independientemente
de la rapidez de las demás fases.

Actualmente, se intenta que las fases de un pipeline sean independientes para que se
puedan ejecutar en paralelo, y no secuencialmente. No obstante, si todas las fases de un
pipeline se pueden ejecutar en paralelo, hecho no siempre posible, el tiempo que tarda
el pipeline en ejecutarse entero vendrá determinado por el tiempo de la fase más lenta.

Por ejemplo, si la fase de colocación de volantes en una línea de montaje de coches dura
tres minutos y el resto de las etapas dos minutos, el rendimiento máximo al que puede
llegar este sistema es el de producir un coche cada tres minutos, y las otras etapas estarán
paradas durante un minuto mientras la fase de colocación del volante acaba. En este
pipeline en particular, la fase de colocación del volante se considera el cuello de botella
(bottleneck), puesto que determina la velocidad de la producción entera.

Figura 19. Construcción básica del pipeline gráfico formado por tres fases:
aplicación, geometría y rasterizador

Cada fase incluye un pipeline propio.


CC-BY-NC-ND • PID_00194192 24 Realidad virtual y aumentada

Este tipo de construcción de pipeline también se puede encontrar en el con-


texto de los gráficos por ordenador en tiempo real. En la figura 19 se muestra
una división a alto nivel del pipeline de visualización en tiempo real (real-time
rendering pipeline) en tres etapas conceptuales:

• aplicación,
• geometría y
• rasterizador.

Esta estructura es básica y se utiliza en las aplicaciones de gráficos por orde-


nador en tiempo real como las comentadas en los apartados anteriores. Nor-
malmente, cada una de estas fases contiene un pipeline propio, que incluye
subetapas.

(1)
Como ya hemos señalado, es la etapa�de�pipeline más lenta la que determina Los fotogramas por segundo
(fps) se utilizan para expresar el
la velocidad del pipeline. En el caso del pipeline gráfico, la fase más lenta de-
rendimiento medio durante un
termina la velocidad de visualización (rendering speed), la ratio de actualización cierto tiempo. El hercio se utiliza
más para el hardware, como pan-
de las imágenes en el dispositivo de visualización. Esta velocidad se puede ex- tallas, y tiene una ratio fija.
presar en fotogramas por segundo (fps), es decir, número de imágenes visuali-
zadas por segundo, aunque también se puede representar en hercios1 (Hz), que Tiempo de generación de
una imagen
es simplemente la notación por 1/segundos, la frecuencia de actualización.
El tiempo que una aplicación
utiliza para generar una ima-
Siguiendo la figura 19, tal y como informa el nombre, la etapa�de�aplicación la gen puede variar sustancial-
gestiona la aplicación y, por lo tanto, la implementa el software que se ejecuta mente, puesto que se ve direc-
tamente afectado por la com-
en las CPU de propósito general. Normalmente, estas CPU incluyen múltiples plejidad de los cálculos realiza-
dos en cada fotograma.
núcleos (cores) que tienen la capacidad de procesar muchos hilos de ejecución
en paralelo. Esto permite que las CPU ejecuten eficientemente la amplia va-
riedad de tareas que son responsabilidad de la etapa de aplicación. Tareas que se ejecutan en
la CPU

La siguiente etapa es la de geometría, que gestiona las transformaciones, pro- Tradicionalmente, algunas de
estas tareas que se ejecutan en
yecciones, etc. Esta etapa calcula qué se visualizará, cómo y dónde se debería la CPU incluyen la detección
visualizar. La etapa de geometría se procesa, normalmente, en una unidad de de colisiones, algoritmos de
aceleración, animación, simu-
procesamiento gráfico (GPU, podéis ver la figura 20) que contiene muchos laciones físicas y otras muchas,
dependiendo del tipo de apli-
núcleos programables y hardware para operaciones fijas. Finalmente, la etapa cación.
de rasterización renderiza una imagen utilizando los datos que las etapas ante-
riores han generado y también procesa cálculos a nivel de píxel, si se requiere.
CC-BY-NC-ND • PID_00194192 25 Realidad virtual y aumentada

Figura 20. Modelo de GPU: NVidia GeForce GTX 560

Cada fase incluye un pipeline propio.


Fuente: http://www.flickr.com/photos/nvidia/5710631809

2.1.2. Funcionamiento

Los puntos, las líneas y los triángulos son las primitivas de dibujado que com-
ponen los modelos u objetos que renderizar. Supongamos que tenemos una
aplicación interactiva de CAD (computer aided design) y que el usuario está exa-
minando el diseño (o modelo) de un dispositivo móvil. Ahora seguiremos este
modelo por el pipeline gráfico, descrito anteriormente, que consiste en tres
etapas: aplicación, geometría y rasterización. La escena se renderiza con pers-
pectiva en una ventana de la pantalla. En este ejemplo, el modelo del teléfono
incluye líneas y triángulos. Algunos de los triángulos están texturizados con
una imagen 2D para representar el teclado y la pantalla.

1)�Aplicación

Las aplicaciones CAD permiten al usuario seleccionar y mover partes del mo-
delo.

• Por ejemplo, el usuario podría seleccionar la parte superior del teléfono y entonces
mover el ratón para rotarlo. La etapa de aplicación debe informar del movimiento
del ratón al sistema gráfico.

• Otro ejemplo podría ser el movimiento de una cámara a lo largo de una ruta prede-
finida para mostrar el teléfono desde diferentes puntos de vista. Los parámetros de
la cámara, como la posición y la dirección de la vista, deben ser actualizados por
la aplicación. Por cada fotograma que renderizar, la etapa de aplicación informa de
la posición de la cámara, iluminación y primitivas del modelo a la siguiente etapa:
geometría.
CC-BY-NC-ND • PID_00194192 26 Realidad virtual y aumentada

Las operaciones de posicionamiento, rotación y escala se llevan a cabo me-


diante el uso de operaciones básicas de álgebra, como pueden ser la multipli-
cación de vectores y matrices. En esta etapa, aplicación, se calculan los valores
de posicionamiento, rotación y escala que tendrá la matriz de transformación.

2)�Geometría

En esta etapa, la geometría del objeto se transforma multiplicando sus vérti-


ces y normales, que son vectores, por la matriz de transformación calculada
en la etapa anterior. Una vez posicionados todos los objetos, se procesan sus
vértices utilizando las propiedades del material y condiciones de iluminación.
Después se produce la proyección, transformando el objeto a un espacio cúbi-
co de una unidad. Todas las primitivas fuera de este espacio se descartan. Los
vértices se mapean a una ventana de la pantalla. Posteriormente, se procesan
las operaciones a nivel de polígono y el resultado se envía al rasterizador.

3)�Rasterización

En esta etapa, las primitivas se rasterizan, es decir, se convierten en píxeles en


la ventana de la pantalla. Cada línea y triángulo visible de cada objeto entra
al rasterizador, preparado por la conversión. Aquellos triángulos que tienen
asociada una textura se renderizan con esta textura aplicada. Cada objeto se
procesa y la imagen final se muestra en pantalla.

2.1.3. Consideraciones

Este pipeline gráfico es el resultado de años de evolución de las API y del hard- Lecturas recomendadas
ware gráfico en el ámbito de las aplicaciones de visualización en tiempo real
Robert�L.�Cook;�Loren�Car-
(real-time rendering applications). Es importante destacar que no es el único pi- penter;�Edwin�Catmull
peline gráfico. Los pipelines gráficos off-line han evolucionado mucho. El pro- (1987). “The Reyes image
rendering architecture”. SIG-
ceso de renderización para la producción de películas se lleva a cabo con otros GRAPH Comput. Graph. (vol.
4, núm. 21, agosto, pág.
tipos de pipelines.
95-102).
Eric�Tabellion;�Arnauld�La-
Durante muchos años, para los desarrolladores de aplicaciones la única ma- morlette (2004). “An appro-
ximate global illumination
nera de utilizar el proceso descrito anteriormente fue mediante el pipeline�de system for computer gene-
rated films”. En: Joe Marks
función�fija disponible en la API gráfica en uso. (ed.). Papers (SIGGRAPH ’04,
pág. 469-476). Nueva York:
ACM.

El nombre de pipeline de función fija proviene del hecho de que el


hardware gráfico que lo implementa está formado por elementos que no Ejemplo
pueden ser programados de manera flexible. Algunas partes se pueden
El último ejemplo de una má-
activar o desactivar pero no es posible crear programas para controlar el quina de función fija es la Wii
orden en el que las funciones se aplican en las etapas. de Nintendo.
CC-BY-NC-ND • PID_00194192 27 Realidad virtual y aumentada

Las GPU programables hacen posible determinar exactamente las operaciones


que hay que aplicar en diferentes etapas del pipeline. Aunque el estudio del
pipeline de función fija es interesante para conocer aspectos básicos del pipe-
line, los nuevos desarrollos y tendencias apuntan a las GPU programables.

2.2. Librerías de programación de gráficos por ordenador

2.2.1. Direct X

Microsoft DirectX es una colección de interfaces de programación de aplica-


ciones (API) para gestionar tareas relacionadas con multimedia, especialmen-
te, videojuegos y vídeo, en las plataformas Microsoft (podéis ver la figura 21).

Originalmente, los nombres de estas API empezaban por Direct, como


Direct3D, DirectDraw, DirectMusic, DirectPlay, DirectSound, etc.

El nombre de DirectX fue creado como un término para referirse a todas


estas API y pronto fue adoptado como nombre general de esta colección
de API.

Posteriormente, cuando Microsoft empezó a desarrollar una videoconsola, la


X se utilizó como base del nombre de esta: Xbox, indicando que estaba basa-
da en tecnología DirectX. La API de gráficos 3D dentro de DirectX se deno-
mina Direct3D y se utiliza mucho en el desarrollo de videojuegos para plata-
formas Microsoft: Windows, Xbox y Xbox 360. Direct3D también se utiliza
por otras aplicaciones software de visualización y gráficos, como aplicaciones
CAD/CAM.

Para los programadores esta librería gráfica ofrece varios beneficios. Al poder
hacer uso de estas librerías, que son una colección de archivos DLL, los desa-
rrolladores no han de tomar en consideración todas las variables del entorno
donde se estaría ejecutando la aplicación. Por ejemplo, el desarrollador no tie-
ne que saber qué tarjeta gráfica o de audio tiene el usuario en el ordenador.
DirectX es una capa intermedia que lleva toda la comunicación entre la apli-
cación y los componentes del ordenador.

DirectX incluye los siguientes componentes:

• DirectDraw - Gráficos 2D
• Direct3D - Gráficos 3D
• DirectSound - Sonido 2D
• DirectSound3D - Sonido 3D
• DirectMusic - Música
• DirectPlay - Red/Multiusuario
CC-BY-NC-ND • PID_00194192 28 Realidad virtual y aumentada

• DirectInput - Hardware de entrada, como el teclado, ratón, controles de


juegos, etc.

Figura 21. Personajes de videojuego renderizados con DirectX 10 y 11, respectivamente

2.2.2. OpenGL

El desarrollo de OpenGL fue iniciado por Silicon Graphics. OpenGL es una


librería formada por aproximadamente más de un centenar de mandos. Entre
las principales acciones que podemos realizar mediante mandos OpenGL se
incluyen la especificación de los objetos y las operaciones necesarias para pro-
ducir aplicaciones interactivas en 3D.

OpenGL se ha diseñado de manera independiente al hardware para ser imple-


mentado sobre diferentes plataformas (Windows, Unix, etc.). Por este motivo,
no hay mandos para ejecutar tareas como la gestión de ventanas o la lectura
de datos de entrada del usuario. OpenGL tampoco provee de pedidos de alto
nivel para describir modelos 3D. El modelo se debe construir a partir de pri-
mitivas geométricas simples, como puntos, líneas y polígonos.

OpenGL dispone de un conjunto de órdenes potente pero simple, que puede


utilizar para crear órdenes de dibujo de más alto nivel. Se han desarrollado
diferentes librerías que aumentan la potencia de OpenGL:

• OpenGL Utility Library (GLU). Contiene rutinas que utilizan mandos Observación
OpenGL a bajo nivel para ejecutar tareas como inicializar matrices de es-
Cabe señalar que no hay nin-
pecificación de vistas, proyecciones, etc. gún coste para el desarrollo de
una aplicación que utiliza la
API OpenGL.
• OpenGL Utility Toolkit (GLUT). Como se ha indicado antes, OpenGL no
provee funcionalidades para gestionar ventanas ni leer datos de un teclado
o ratón. Para solucionarlo, surgen librerías como GLUT, dependientes del
sistema operativo.
CC-BY-NC-ND • PID_00194192 29 Realidad virtual y aumentada

• The OpenGL Programming Guide Auxiliary Library fue desarrollada como


apoyo didáctico del libro OpenGL Programming Guide, facilitando la imple-
mentación de ejemplos simples de programación en OpenGL.
CC-BY-NC-ND • PID_00194192 30 Realidad virtual y aumentada

3. Técnicas de seguimiento e interacción

3.1. Introducción

Los dispositivos de seguimiento son componentes intrínsecos de cualquier sis-


tema de realidad virtual. Estos dispositivos se comunican con la unidad de
procesamiento del sistema, informándola de la orientación del punto de vista
del usuario. En los sistemas que permiten al usuario moverse dentro de un
espacio físico, los dispositivos de seguimiento detectan dónde está el usuario,
la dirección del movimiento y su velocidad.

Figura 22. Detección de seis grados de libertad (6-DOF)

Se utilizan varios tipos de sistemas de seguimiento en los sistemas de realidad


virtual, pero todos ellos tienen algunas cosas en común. Se pueden detectar
seis grados de libertad (6-DOF), que son: la posición del objeto dentro de las
coordenadas X, Y y Z de un espacio y la orientación del objeto, donde la orien-
tación incluye tres ángulos de un espacio 3D, como se muestra en la figura 22.

Desde la perspectiva del usuario, esto significa que cuando se utiliza un HMD
(casco montado en la cabeza), la vista cambia cuando se mira hacia arriba,
abajo, izquierda y derecha. También cambia si se inclina la cabeza en un án-
gulo o se mueve la cabeza hacia delante o hacia atrás sin cambiar el ángulo de
la vista. El dispositivo de la HMD informa a la etapa de aplicación dónde se
está mirando, y la CPU envía las imágenes correctas a las pantallas de la HMD.
CC-BY-NC-ND • PID_00194192 31 Realidad virtual y aumentada

Cada sistema de seguimiento tiene un dispositivo que genera una señal (por
ejemplo, emisor), un sensor que detecta la señal y una unidad de control que
procesa la señal y envía la información a la etapa de aplicación. Algunos sis-
temas requieren que se conecte el sensor al usuario (o al equipo del usuario).
En este tipo de sistema, se colocan los emisores de señal en puntos fijos del
entorno. Algunos sistemas están al revés, con el usuario llevando los emisores
mientras está rodeado por sensores colocados dentro del entorno, como sería
el caso del casco.

3.2. Taxonomía

Los sistemas de seguimiento se pueden clasificar según consideremos el tipo


de entorno o la tecnología. Según el tipo de entorno pueden ser interiores o
exteriores, y según la tecnología pueden ser basados en sensores o en visión.
En la tabla 1 se puede ver un resumen de esto.

En las siguientes secciones analizaremos los sistemas según la perspectiva de


la tecnología, es decir, según si están basados en sensores o en visión.

3.3. Sistemas basados en sensores

Los sistemas basados en sensores pueden utilizar varias tecnologías y muy a


menudo se clasifican según la tecnología empleada. Las tecnologías más habi-
tuales utilizadas en los sensores son: mecánicas, inerciales, acústicas, magné-
ticas, ópticas y basadas en radio o microondas.

El punto fuerte de estos sistemas es la elevada precisión que ofrecen,


pero también tienen una serie de desventajas, como la necesidad de
realizar una instalación normalmente costosa y compleja, la limitación
en el rango de seguimiento y las posibles interferencias que se puedan
producir.

Además, pocos sistemas con sensores tienen aplicación en entornos exteriores.


CC-BY-NC-ND • PID_00194192 32 Realidad virtual y aumentada

3.3.1. Sensores mecánicos

Se podría decir que es el enfoque más simple conceptualmente; los sensores


mecánicos suelen implicar algún tipo de vinculación física directa entre el
objetivo y el entorno.

El enfoque típico consiste en una serie articulada de dos o más piezas


mecánicas rígidas interconectadas con transductores electromecánicos,
como por ejemplo potenciómetros o encoders. A medida que el objeti-
vo se mueve, la serie articulada cambia la forma y los transductores se
mueven en consecuencia.

Con el uso de un conocimiento a priori sobre las piezas rígidas mecánicas


y mediciones en línea de los transductores, se puede estimar la posición del
objetivo en el entorno.

Este enfoque puede proporcionar estimaciones muy precisas y exactas en


cuanto a un solo objetivo, pero solo durante un relativo pequeño rango de
movimiento.

3.3.2. Sensores inerciales

Los sistemas de navegación inercial (INS) se generalizaron para los barcos, sub-
marinos y aviones en la década de los cincuenta, antes de que la realidad vir-
tual o los gráficos por ordenador fueran concebidos, pero fueron de las últimas
tecnologías que se adoptaron como dispositivos de entrada de los sistemas
gráficos. La razón es sencilla: un INS contiene giroscopios de alta precisión
que pesan�demasiado como para ser conectados al cuerpo de una persona.
Hasta la llegada de los sistemas microelectrónicos en la década de los noventa
no empezó el desarrollo de los dispositivos de entrada inerciales (podéis ver
la figura 23).

Figura 23. Sistema de navegación inercial para submarinos de la empresa SAGEM


CC-BY-NC-ND • PID_00194192 33 Realidad virtual y aumentada

Hoy en día, los sensores inerciales son completamente autónomos, por lo que
no es necesario instalar emisores, ya que son capaces de emitir la información.
Además, no son sensibles a las interferencias electromagnéticas o al ruido am-
biente.

3.3.3. Sensores acústicos

Los sistemas acústicos utilizan la transmisión y la detección de ondas sonoras.


Todos los sistemas acústicos comerciales funcionan midiendo el tiempo de la
duración del vuelo de un breve pulso ultrasónico desde el emisor y el receptor,
donde el usuario es el emisor o el receptor.

3.3.4. Sensores magnéticos

Los sistemas magnéticos se basan en mediciones del vector del campo magné-
tico al sensor, utilizando magnetómetros o la corriente inducida en una bobi-
na electromagnética cuando un cambio en el campo magnético pasa a través
de la bobina. Tres sensores magnéticos ortogonalmente orientados en un sen-
sor único pueden proporcionar un vector 3D que indica la orientación de la
unidad respecto al entorno (podéis ver la figura 24).

Figura 24. Sensor electromagnético en un sistema de inyección

3.3.5. Sensores ópticos

Los sistemas ópticos se basan en mediciones de la luz reflejada o emitida. Es-


tos sistemas, inevitablemente, tienen dos componentes: fuentes de luz y sen-
sores ópticos. Las fuentes de luz podrían ser objetos pasivos que reflejan la luz
ambiente o dispositivos activos que emiten luz generada internamente. Ejem-
plos de fuentes de luz pasivas incluyen las superficies naturales en el entorno.
Ejemplos de fuentes de luz activas incluyen diodos emisores de luz (LED), láser
o simples bombillas.
CC-BY-NC-ND • PID_00194192 34 Realidad virtual y aumentada

Figura 25. Sensor óptico en un producto de la empresa Hy-BIRD

3.3.6. Sensores de radio y microondas

La radio y las microondas no se han explotado mucho en el seguimiento de


movimiento humano, pero son ampliamente utilizadas en sistemas de nave-
gación y varios sistemas de ayuda de aterrizaje en aeropuerto s y sistemas de
radar. Estas tecnologías también han empezado a ser utilizadas en sistemas
de posicionamiento local que encuentran productos con etiquetas de radio-
frecuencia en almacenes u hospitales, es decir, podrían ser utilizados para los
sistemas de seguimiento de movimiento humano en el futuro a medida que
mejora la precisión y la tecnología se hace más pequeña y barata.

3.4. Sistemas basados en visión

Estos sistemas se basan en la detección de características de la imagen. Son


sistemas que actualmente están desarrollándose a gran velocidad, tienen un
bajo coste y pueden operar tanto en entornos interiores como exteriores con
preparación o sin ella.

En función del entorno se pueden clasificar en entornos preparados y entornos


no preparados. En los entornos preparados se añade un conjunto predefinido
de marcadores que facilita la estimación de la posición (podéis ver la figura 26).
CC-BY-NC-ND • PID_00194192 35 Realidad virtual y aumentada

Figura 26. Sistema con marcadores


CC-BY-NC-ND • PID_00194192 36 Realidad virtual y aumentada

4. Caracterización de un sistema de realidad


aumentada

4.1. Introducción

Los videojuegos nos han entretenido durante casi treinta años. Desde que
Pong se introdujo en las máquinas recreativas en la década de los setenta, los
gráficos de ordenador se han vuelto mucho más sofisticados, tanto es así que
los gráficos están empujando las barreras del realismo fotográfico. Actualmen-
te, una nueva tecnología, denominada realidad�aumentada, difumina la lí-
nea entre lo que es real y lo que es generado por ordenador mediante la mejora
de lo que vemos, oímos, tocamos y olemos.

En el espectro entre la realidad virtual, que crea entornos inmersivos


generados por ordenador, y el mundo real, la realidad aumentada está
más cerca del mundo real.

La realidad aumentada añade gráficos, sonidos, feedback táctil y olor al mundo


natural. En este sentido, tanto los videojuegos como los teléfonos móviles es-
tán impulsando el desarrollo de la realidad aumentada. Todo el mundo, desde
los turistas a los soldados, hasta alguien que busca la parada de metro más cer-
cana pueden ahora beneficiarse de la capacidad de colocar gráficos generados
por ordenador en su campo de visión.

La realidad aumentada está cambiando el modo como vemos el mundo –o al


menos la manera como sus usuarios ven el mundo. Si nos imaginamos andan-
do o conduciendo con pantallas de realidad aumentada, aparecerán gráficos
informativos en nuestro campo de visión. Estas informaciones se actualizarán
continuamente para reflejar los movimientos de nuestra cabeza. Dispositivos
y aplicaciones similares a esta ya existen, sobre todo en los teléfonos inteli-
gentes, como el iPhone (podéis ver la figura 27).
CC-BY-NC-ND • PID_00194192 37 Realidad virtual y aumentada

Figura 27

El sistema de realidad aumentada SixthSense permite proyectar un teclado del teléfono a la mano y el teléfono de un amigo –
sin sacar el teléfono de su bolsillo.

4.2. Caracterización

La idea básica de la realidad aumentada consiste en superponer gráficos, audio


y otras mejoras sensoriales en un entorno real en tiempo real.

Lecturas recomendadas
Más formalmente, la realidad aumentada es una variación del concepto
de entorno virtual, o realidad virtual. R.�T.�Azuma (agosto, 1997).
“A Survey of Augmented
Reality”. Presence: Teleopera-
tors and Virtual Environments
(vol. 4, núm. 6).
El entorno es real y se aumenta incluyendo elementos virtuales, como texto,
R.�T.�Azuma;�Y.�Baillot;�R.
gráficos 2D, objetos 3D, sonidos, percepciones táctiles, etc., es decir, la realidad Behringer;�S.�Laborable;�S.
aumentada trata de aumentar el entorno del mundo real con información vir- Julier;�B.�MacIntyre (2001).
“Recent Advances in Aug-
tual para mejorar el conocimiento y las sensaciones del usuario. En resumen, mented Reality”. Computers
Graphics (noviembre).
combina elementos virtuales con elementos del mundo real. Hay tres caracte-
rísticas fundamentales y comunes en los sistemas de realidad aumentada:

• la combinación del entorno del mundo real con elementos generados por
ordenador,
• la interactividad en tiempo real y
• las escenas en 3D (podéis ver la figura 28).

La vista de la realidad se modifica por ordenador, proporcionando una percep-


ción mejorada de la realidad. Por el contrario, la realidad virtual sustituye el
mundo real por uno simulado.
CC-BY-NC-ND • PID_00194192 38 Realidad virtual y aumentada

Figura 28. Sistema de realidad aumentada en un dispositivo móvil: App Wikitude en un iPhone
4

4.2.1. Aumentación visual, auditiva y táctil

La aumentación consiste en incrementar las sensaciones percibidas por el


usuario en cualquiera de sus sentidos. La aumentación visual es la más habi-
tual, aunque existe también la auditiva, donde se añaden o eliminan sonidos
en el entorno, o la táctil, donde se utilizan guantes con almohadillas de pre-
sión (podéis ver la figura 29).

Figura 29. Sistema de realidad aumentada con aumentación táctil

Además, la aumentación visual puede presentar dos tipos de mezcla: óptica y


de vídeo. Por una parte, la mezcla óptica consiste en utilizar visiocascos trans-
parentes. La imagen real se visualiza directamente y se mezcla con las imáge-
nes sintéticas mediante combinadores específicos (podéis ver la figura 30). Por
otra parte, en la mezcla de vídeo, el entorno real se añade por medio de una o
dos cámaras, y se mezcla el vídeo obtenido con las imágenes sintéticas (podéis
ver la figura 31).
CC-BY-NC-ND • PID_00194192 39 Realidad virtual y aumentada

Figura 30. Aumentación visual con mezcla óptica

Figura 31. Aumentación visual con mezcla de vídeo

4.2.2. Portabilidad

Algunas aplicaciones de realidad aumentada requieren que el usuario pueda


desplazarse en entornos amplios, esto implica el diseño de sistemas de poco
peso y altas prestaciones, aunque pueden tener una dificultad añadida si se
requiere comunicación.

Dependiendo de la aplicación, también se pueden presentar necesidades de


ajuste de enfoque y de contraste.

4.3. Registro: problemática y errores

En un entorno de realidad aumentada, los objetos reales y virtuales se deben


alinear entre sí de manera correcta, pero esto no es fácil y a menudo se tienen
problemas perceptivos y cinemáticos. Los problemas que se producen se pue-
den clasificar en estáticos y dinámicos.
CC-BY-NC-ND • PID_00194192 40 Realidad virtual y aumentada

• Clasificamos en errores estáticos en el registro los debidos a distorsiones


ópticas, errores de localización, errores de alineación de componentes y
utilización de parámetros de visión incorrectas.

• Los errores dinámicos son aquellos debidos a retrasos en el sistema: loca-


lización, comunicaciones, generador de la escena, etc.

Para mejorar el sistema de registro se utilizan técnicas complementarias basa-


das en visión. De este modo, podemos apoyarnos en la imagen real para ajustar
el proceso de registro. Habitualmente mediante la inclusión de marcas en el
entorno (entornos controlados o preparados), esto permite registros precisos,
con errores inferiores a un píxel de resolución.

4.4. Localización

En un sistema de realidad aumentada es necesario localizar al observador. Pa-


ra realizar un registro correcto, hay que conocer la posición y dirección de
observación del usuario en el entorno real. El uso de técnicas de seguimiento
híbridas (sensores magnéticos, ópticos, sistemas GPS, etc.) facilita mucho esta
tarea. El problema es más importante cuando se opera en un entorno amplio
y no preparado. Actualmente, existe un esfuerzo comercial para minimizar los
retardos producidos por los sensores de localización.

4.5. Aplicaciones

A continuación detallamos aplicaciones de los sistemas de realidad aumenta-


da.

4.5.1. Medicina

Se basan en utilizar datos procedentes de sensores no invasivos (resonancia


magnética, tomografía, ultrasonidos, etc.) y superponer una visualización 3D
de los datos sobre el paciente real; en la figura 32 se pueden observar dos
ejemplos.

Figura 31. Aplicación de realidad aumentada en medicina


CC-BY-NC-ND • PID_00194192 41 Realidad virtual y aumentada

4.5.2. Reparación y mantenimiento

Inclusión de instrucciones paso a paso, como gráficos 3D superpuestos al ob-


jeto que reparar. Resulta muy útil para la visualización de objetos "no visi-
bles" (instalaciones eléctricas, sistemas de tuberías, etc.). En la figura 33 se pue-
den observar dos ejemplos.

Figura 33. Aplicación de realidad aumentada en reparación y mantenimiento

4.5.3. Anotación

Consiste en mostrar información procedente de una base de datos que está


asociada a un objeto real que el usuario está observando. La información su-
ministrada suele presentarse como texto o gráficos simples. En la figura 34 se
pueden observar dos ejemplos.

Figura 34. Aplicación de realidad aumentada con anotaciones

4.5.4. Planificación de tareas de robots

En la teleoperación de robots, el usuario controla una versión virtual del ro-


bot en tiempo real. Posteriormente, cuando el usuario está seguro de que los
comandos son correctos, estos se ejecutan en el robot real. En la figura 35 se
puede observar un ejemplo.
CC-BY-NC-ND • PID_00194192 42 Realidad virtual y aumentada

Figura 35. Aplicación de realidad aumentada en teleoperación de robots

4.5.5. Entretenimiento y publicidad

Un ejemplo de este ámbito es la inclusión de información en transmisiones


deportivas y la superposición de elementos publicitarios en imagen real. En la
figura 35 se pueden observar tres ejemplos de ello.

Figura 36. Aplicación de realidad aumentada en entretenimiento y publicidad

4.6. Tendencias futuras

En la actualidad hay varias líneas que se están mejorando, y que son:

• El uso de sistemas de localización híbridos (por ejemplo, sensores ópticos,


magnéticos, etc.) con amplia cobertura.

• Mejora en las técnicas de síntesis de imágenes en tiempo real.

• Estudios perceptuales y psicosociales.

• Ropa inteligente (wearable computing). Por ejemplo, el uso de una camise-


ta que permita aumentar la realidad incluyendo información extra. Este
podría ser el caso de unos zapatos a los que se les pueda indicar una ruta.
De esta manera, sabiendo dónde está el usuario y dónde está el destino
gracias al uso de información GPS, los zapatos podrían guiar al usuario in-
CC-BY-NC-ND • PID_00194192 43 Realidad virtual y aumentada

dicándole si tiene que ir hacia la derecha o hacia la izquierda mediante vi-


braciones en el pie correspondiente a la dirección hacia la que ha de girar.

• Diseño de interfaces de usuario para diferentes tipos de dispositivos.

• Énfasis en el desarrollo y la implantación de aplicaciones finales realmente


operativas.

También podría gustarte