Es un hecho que actualmente muchos actos cotidianos ya están mediados por la pantalla de nuestros dispositivos móviles. Resulta fácil imaginar las ventajas que la realidad mixta podría proporcionar en muchas de las tareas que ya llevamos a cabo en el día a día si existiera una forma de poder experimentar esta realidad de un modo más transparente, en vez de sujetarla con las manos a un palmo de la cara y dentro de un trozo de cristal de cinco pulgadas, como sucede ahora.
En los últimos años, especialmente a partir de las expectativas generadas en los medios de comunicación por los anuncios sucesivos de los lanzamientos de Google Glass, Oculus Rift, HTC Vive y Microsoft Hololens, se ha popularizado el paradigma de la realidad mixta asociada a un HMD. El futuro de las interfaces en este campo, sin embargo, posiblemente no pase por los cascos. Tal y como ya sucedió con Glass, estos dispositivos pueden tener mucho recorrido en entornos profesionales y como herramienta en tareas concretas, pero el gran público podría ser reticente a usarlos de forma habitual. No parece realista esperar que el uso de los HMD tal y como los conocemos hoy en día, se generalice al mismo nivel que lo han hecho los teléfonos móviles o las tablets. En general, con algunas excepciones (por ejemplo, gafas ligeras como las Vaunt), los HMD todavía son artefactos poco discretos e incómodos de usar mucho rato seguido.
Sin descartar a la larga la miniaturización de los HMD hasta reducirlos a gafas corrientes, la investigación actual en el campo de la visualización, los wearables y las interfaces persona-máquina nos pueden dar algunas pistas de cómo podrían ser los futuros interfaces de realidad mixta. Aquí apuntamos algunas:
Superficies texturadas de ultrasonidos: un equipo de la Universidad de Tokio presentó en el SIGGRAPH 2015 un dispositivo llamado Haptoclone [1], que permitía vivir experiencias telehápticas, es decir, experimentar de forma táctil manifestaciones virtuales de objetos físicos que se encontraban a cierta distancia. El dispositivo estaba dividido en dos áreas de trabajo y desde cada una, por medio de un sistema de espejos, se podía ver qué objeto físico había en la otra área. Mediante una Kinect, cada objeto era topografiado y su volumetría era traducida en intensidad de ultrasonidos emitidos al área contraria. El resultado era que si en un área depositábamos un objeto, en la otra no solo veíamos una réplica o clon visual, sino que además podíamos tocarlo y nuestra presión sobre el objeto clonado era ejercida sobre el objeto físico, que se encontraba en la otra área. Dos años más tarde, en 2017, un equipo de la Universidad de Glasgow publicó un artículo [2] donde presentaba su investigación sobre un dispositivo háptico experimental también basado en ultrasonidos. Este dispositivo permitía generar un plano invisible en el aire que podía ser percibido con el tacto y texturado de forma controlada. Estos experimentos apuntan a la posibilidad de que en el futuro sea posible interaccionar directa y físicamente con objetos virtuales mediante clones hápticos, y también, con un entorno virtual, sentir e intervenir físicamente en entornos físicos remotos y a la vez ser nosotros mismos sentidos y mediados remotamente.
En el año 2008, un equipo de investigación de la Universidad de Washington produjo lentillas de realidad aumentada [3] equipadas con un circuito y un LED. El objetivo era conseguir visores en contacto con el ojo que proporcionaran información superpuesta a la imagen que recibimos del mundo físico, es decir, una interfaz de realidad aumentada. Ocho años más tarde, en 2016, Samsung, Sony y Google patentaron lentillas electrónicas con varias funcionalidades; por ejemplo, fotografiar lo que vemos, y que podían ser controladas parpadeando [4]. En 2017, la empresa Innovega anunciaba un nuevo producto llamado eMacula [5], unas gafas ligeras que proyectan imágenes sobre lentes de contacto para conseguir llenar todo el campo de visión, no solo un pequeño fragmento, como ocurre con la mayoría de las gafas inteligentes. El mismo año, la compañía Omega buscaba inversores para explorar las posibilidades de trabajar con lentillas de realidad aumentada implantadas quirúrgicamente. No era un producto pensado para gente joven, sino que se orientaba a las personas de más de setenta años, franja de edad en la que ya es habitual la implantación quirúrgica de lentillas para resolver las cataratas [6]. En estos casos, se pretendía integrar dentro de la propia mirada un sistema de visualización de información, pero la investigación en interfaces más invasivas también se orienta a posibilitar que la información digital fluya más directamente entre nuestra mente y el entorno físico. Por ejemplo, en el caso del control mental de prótesis motorizadas, cuando lesiones o enfermedades inmovilizan el propio cuerpo.
Algunas aproximaciones utilizan implantes cerebrales para controlar dispositivos robóticos con el pensamiento [7] y otras directamente se dirigen a conseguir dispositivos inalámbricos lo suficientemente pequeños como para introducirse en el cuerpo y convertirse en agente activo en nervios, músculos y tejidos en general. La Universidad de Berkeley presentó en 2016 unos dispositivos de estas características llamados polvos neuronales (neural dusts) [8]. Estos avances abren la puerta a conseguir en el futuro formas de interacción con los objetos virtuales sin necesidad de controladores físicos, y simultáneamente, conseguir una forma de interacción con los objetos físicos diferente a como la conocemos ahora. Están en marcha desde hace años investigaciones sobre la comunicación directa entre el sistema nervioso y los sistemas digitales, y como parte de esta investigación se llevan a cabo experimentos que implican el diseño de nuevos dispositivos potencialmente útiles en el futuro como nuevas interfaces. En 2016, un equipo de la Universidad Harvard publicó un artículo en The Nature [9] en el que presentó uno de estos nuevos dispositivos, un circuito formado por una red de hilos conductores tan delgada y flexible que podía ser inyectada dentro del cerebro, rodear las neuronas y proporcionar señales eléctricas a un ordenador transmitiendo la actividad cerebral. Los autores imaginaban que el dispositivo, aún en una fase experimental muy inicial con ratones, podría ser bidireccional y obtener información neuronal, pero también influir en la actividad neuronal. El mismo año, científicos de la Universidad de Melbourne anunciaban que habían probado con éxito una alternativa no quirúrgica a los implantes cerebrales que permitía captar la actividad eléctrica del cerebro y que podía ser usada para controlar prótesis con el pensamiento [10]. En 2017, se anunciaba la creación de una nueva empresa, llamada Neuralink, fundada por Elon Musk (cofundador de PayPal, SpaceX y Tesla Motors, entre otros), dedicada a crear nuevos implantes cerebrales (neural laces) para uso médico, pero también para proporcionar «superpoderes» a la gente sana [11]. No parece casual que, simultáneamente, Homo Deus, de Yuval N. Harari, vendiera millones de ejemplares en todo el mundo anunciando el advenimiento de una élite con capacidades sobrehumanas. Sean como sean las futuras interfaces, es casi seguro que posibilitarán una relación mucho más íntima entre los humanos y la tecnología, entre la experiencia del mundo físico y el procesamiento digital de la información, redefiniendo la propia noción de la humanidad tal y como la conocemos hoy en día.