Tecnologia

Los dispositivos de realidad aumentada normalmente constan de unos cascos o gafas y un sistema de visualización para mostrar al usuario la información virtual que se añade a la real. El "headset" lleva incorporado sistemas de GPS, necesarios para poder localizar con precisión la situación del usuario

Los dos principales sistemas de visualización empleados son la pantalla óptica transparente y la pantalla de mezcla de imágenes. Tanto uno como el otro usan imágenes virtuales que se muestran al usuario mezcladas con la realidad o bien proyectadas directamente en la pantalla.

Los Sistemas de realidad aumentada modernos utilizan una o más de las siguientes tecnologías: cámaras digitales, sensores ópticos, acelerómetros, GPS, giroscopios, brújulas de estado sólido, RFID, etc. El hardware de procesamiento de sonido podría ser incluido en los sistemas de realidad aumentada. Los Sistemas de cámaras basadas en realidad aumentada requieren de una unidad CPU potente y gran cantidad de memoria RAM para procesar imágenes de dichas cámaras. La combinación de todos estos elementos se da a menudo en los smartphones modernos, que los convierten en una posible plataforma de realidad aumentada.

Software

Para fusiones coherentes de imágenes del mundo real, obtenidas con cámara, e imágenes virtuales en 3D, las imágenes virtuales deben atribuirse a lugares del mundo real. Ese mundo real debe ser situado, a partir de imágenes de la cámara, en un sistema de coordenadas. Dicho proceso se denomina registro de imágenes. Este proceso usa diferentes métodos de visión por ordenador, en su mayoría relacionados con el seguimiento de vídeo. Muchos métodos de visión por ordenador de realidad aumentada se heredan de forma similar de los métodos de odometría visual.

Por lo general, los métodos constan de dos partes. En la primera etapa se puede utilizar la detección de esquinas, la detección de Blob, la detección de bordes, de umbral y los métodos de procesado de imágenes. En la segunda etapa el sistema de coordenadas del mundo real es restaurado a partir de los datos obtenidos en la primera etapa. Algunos métodos asumen los objetos conocidos con la geometría 3D (o marcadores fiduciarios) presentes en la escena y hacen uso de esos datos. En algunos de esos casos, toda la estructura de la escena 3D debe ser calculada de antemano. Si no hay ningún supuesto acerca de la geometría 3D se estructura a partir de los métodos de movimiento. Los métodos utilizados en la segunda etapa incluyen geometría proyectiva (epipolar), paquete de ajuste, la representación de la rotación con el mapa exponencial, filtro de Kalman y filtros de partículas.

Herramientas de realidad aumentada para diseñadores (DART)

Las herramientas de realidad aumentada para diseñadores (The Designer’s Augmented Reality Toolkit, DART) es un sistema de programación que fue creado por el Laboratorio de Entornos Aumentados del Instituto de Tecnología de Georgia, para ayudar a los diseñadores a visualizar la mezcla de los objetos reales y virtuales. Proporciona un conjunto de herramientas para los diseñadores: extensiones para el Macromedia Director (herramienta para crear juegos, simulaciones y aplicaciones multimedia) que permiten coordinar objetos en 3D, vídeo, sonido e información de seguimiento de objetos de realidad aumentada.

Software libre para realidad aumentada

ARToolKit biblioteca GNU GPL que permite la creación de aplicaciones de realidad aumentada, desarrollado originalmente por Hirokazu Kato en 19993​ y fue publicado por el HIT Lab de la Universidad de Washington. Actualmente se mantiene como un proyecto de código abierto alojado en SourceForge con licencias comerciales disponibles en ARToolWorks.

ATOMIC Authoring Tool: es un software Multi-plataforma para la creación de aplicaciones de realidad aumentada, el cual es un Front end para la biblioteca ARToolKit. Fue desarrollado para los que no son programadores, y permite crear rápidamente pequeñas y sencillas aplicaciones de realidad aumentada. Se usa bajo la licencia GNU GPL.

ATOMIC Web Authoring Tool es un proyecto hijo de ATOMIC Authoring Tool que permite la creación de aplicaciones de realidad aumentada para exportarlas a cualquier sitio web. Es un Frontal para la biblioteca Flartoolkit. Se usa bajo la licencia GNU GPL.

Blender es un programa informático multiplataforma, dedicado especialmente al modelado, iluminación, renderizado, animación y creación de gráficos tridimensionales. También de composición digital utilizando la técnica procesal de nodos, edición de vídeo, escultura (incluye topología dinámica) y pintura digital. En Blender, además, se puede desarrollar vídeo juegos ya que posee un motor de juegos interno.

UNITY es un motor de videojuego multiplataforma creado por Unity Technologies. Unity está disponible como plataforma de desarrollo para Microsoft Windows, OS X y Linux. La plataforma de desarrollo tiene soporte de compilación con diferentes tipos de plataformas. A partir de su versión 5.4.0 ya no soporta el desarrollo de contenido para navegador a través de su plugin web, en su lugar se utiliza WebGL. Unity tiene dos versiones: Unity Professional (pro) y Unity Personal.

Técnicas de visualización

Existen tres técnicas principales para mostrar la realidad aumentada:

Gafas de realidad aumentada

Unas gafas de realidad aumentada (HMD) se utiliza para mostrar tanto las imágenes de los lugares del mundo físico y social donde se encuentra el usuario como los objetos virtuales sobre la vista actual. El HMD debe ser seguido con un sensor. Este seguimiento permite al sistema informático añadir la información virtual al mundo físico. La principal ventaja de la HMD para realidad aumentada es la integración de la información virtual dentro del mundo físico para el usuario. La información gráfica está condicionada a la vista de los usuarios.

Pantalla de mano

El dispositivo manual con realidad aumentada cuenta con un dispositivo informático que incorpora una pantalla pequeña que cabe en la mano de un usuario. Todas las soluciones utilizadas hasta la fecha por los diferentes dispositivos de mano han empleado técnicas de superposición sobre el video con la información gráfica. Inicialmente los dispositivos de mano empleaban sensores de seguimiento tales como brújulas digitales y GPS que añadían marcadores al video. Más tarde el uso de sistemas, como ARToolKit, nos permitían añadir información digital a las secuencias de video en tiempo real. Hoy en día los sistemas de visión como SLAM o PTAM son empleados para el seguimiento. La pantalla de mano promete ser el primer éxito comercial de las tecnologías de realidad aumentada. Sus dos principales ventajas son el carácter portátil de los dispositivos de mano y la posibilidad de ser aplicada en los teléfonos con cámara.

Proyección espacial

La realidad aumentada espacial (SAR) hace uso de proyectores digitales para mostrar información gráfica sobre los objetos físicos. La diferencia clave es que la pantalla está separada de los usuarios del sistema. Debido a que no hay una pantalla asociada a cada usuario, permite a grupos de usuarios utilizarlo a la vez y coordinar el trabajo entre ellos. SAR tiene varias ventajas sobre las tradicionales gafas colocadas en la cabeza y sobre las pantallas de mano. El usuario no está obligado a llevar el equipo encima ni a someterse al desgaste de la pantalla sobre los ojos. Esto hace del proyector espacial un buen candidato para el trabajo colaborativo, ya que los usuarios pueden verse las caras. El proyector espacial no está limitado por la resolución de la pantalla, que sí que afecta a los dispositivos anteriores. Un sistema de proyección permite incorporar más proyectores para ampliar el área de visualización. Los dispositivos portátiles tienen una pequeña ventana al mundo para representar la información virtual, en cambio en un sistema SAR puedes mostrar un mayor número de superficies virtuales a la vez en un entorno interior. Es una herramienta útil para el diseño, ya que permite visualizar una realidad que es tangible de forma pasiva.

Elementos de la realidad aumentada

Según Edgar Mozas Fenoll, para conseguir la superposición de elementos virtuales en la vista de un entorno físico, un sistema de realidad aumentada debe estar formado, por lo general, por los siguientes elementos:

Cámara.

Es el dispositivo que capta la imagen del mundo real. Puede ser la cámara web de la computadora o bien la cámara del teléfono inteligente o de la tableta.

Procesador. Es el elemento de hardware que combina la imagen con la información que debe sobreponer, es decir, el dispositivo que se usa.

Software.

Es el programa informático específico que gestiona el proceso.

Pantalla.

En ella se muestran combinados los elementos reales y virtuales.

Conexión a Internet.

Se utiliza para enviar la información del entorno real al servidor remoto y recuperar la información virtual asociada que se superpone.

Activador.

Es un elemento del mundo real que el software utiliza para reconocer el entorno físico y seleccionar la información virtual asociada que se debe añadir. Puede ser un código QR, un marcador, una imagen u objeto, la señal GPS enviada por el dispositivo, realidad aumentada incorporada en gafas (Google Glass) o en lentillas biónicas.

Todos los derechos reservados