Interacción Natural

Interacción Física a Través del Cuerpo

Laura Cortés-Rico (Universidad Militar Nueva Granada)

Andrés Rodríguez (Universidad Nacional de La Plata)

Wilson J. Sarmiento (Universidad Militar Nueva Granada)

Resumen

Una de las tendencias en desarrollo en los sistemas interactivos es la incorporación de más partes del cuerpo involucradas en la interacción. En la base de este camino está, por un lado, la búsqueda de interacciones más naturales o intuitivas que se consigue por un mejor aprovechamiento de la habilidad del usuario en el uso de su propio cuerpo. Por otro lado, el reconocimiento de que una mayor corporeización física de las interacciones es la otra cara inevitable de esa moneda. En este capítulo presentamos una introducción a los fundamentos teóricos de tres tipos de interacciones naturales que involucran el cuerpo: las interfaces hápticas para estimular el tacto, las tangibles para facilitar la manipulación de los bits y las vestibles para “llevar puesta” la interacción. Presentamos un caso de estudio sobre herramientas para la creación de interfaces textiles desarrollado en la Universidad Militar de Nueva Granada. Cerramos el capítulo con nuestras conclusiones sobre este escenario de interacción natural con mayor interacción física a través del cuerpo y de los desafíos y tendencias que se presentan.

1. Introducción

El desarrollo de la Interacción Persona Ordenador, o Humano-Computador, ha avanzado hacia una integración creciente de mayores dimensiones corporales. Esta tendencia ha perseguido, entre otros objetivos, la obtención de una interacción más intuitiva y natural con los dispositivos informáticos. Varios investigadores han planteado que la noción de corporización (embodiment, en inglés) es central en esta trayectoria de la interacción. No se trata sólo de incluir cada vez más la realidad física en la forma de interactuar con computadoras, es una forma de considerar en qué consiste el propio hecho de interactuar. Es acerca del hecho de que las cosas están corporizadas en el mundo y los modos en los cuales la realidad depende de esa incorporación (ver por ejemplo (Dourish, 2004) ).

A partir del programa de la computación ubicua (Weiser, 1991) se desarrollaron líneas de trabajo para alcanzar la idea de un contexto completamente impregnado de computación. En la medida que la computación se difunde e integra al mismo tejido del entorno, la noción de “interfaz” se convierte en problemática. La computación ya no está localizada en un solo lugar, por lo tanto es necesario que las interfaces “desaparezcan” o se integren en todos los objetos (en este planteo está la base de la noción de interacción natural).

Entre las aproximaciones a una interacción natural y corporizada que se desarrollaron en estas décadas, podemos señalar las tres que se incluyen en este capítulo: interacciones hápticas, tangibles y vestibles.

Las interacciones hápticas buscan una mayor inclusión de la modalidad sensorial táctil en la interacción con computadoras, involucrando de manera programada todas las capacidades y limitaciones del tacto de las personas. Diferentes dispositivos se han desarrollado en este campo desde mitad del siglo XX, desde los que estimulan únicamente la piel a través de vibraciones hasta los sistemas con retroalimentación de fuerzas sobre el cuerpo (L. Jones, 2018).

Las interfaces tangibles de usuario (TUI) se refieren al uso de objetos físicos como medios de interacción entre personas e información digital (Ishii, 2008a). Si bien la interacción con los bits involucra siempre objetos físicos como el teclado, el ratón, la pantalla o un micrófono la diferencia fundamental es que en las TUI los objetos involucrados representan la información digital de una manera tangible y proveen a los usuarios la posibilidad de sentir y manipular los datos.

Las interacciones vestibles son las que se obtienen con dispositivos que deben ser llevados sobre el cuerpo, lo que incluye al menos tres tipos de dispositivos: a) los relojes inteligentes, pulseras fitness, audífonos y joyas interactivas; b), la ropa inteligente (Smart Clothes) y todo lo relacionado con textiles electrónicos; c) dispositivos especializados de interacción como los cascos de realidad virtual y realidad aumentada.

Este capítulo se organiza en tres secciones luego de esta introducción. Primero, describimos las interacciones hápticas, tangibles y vestibles, con sus fundamentos teóricos introductorios. Luego presentamos como caso de estudio la descripción de Soft2Soft, un conjunto de herramientas para la creación de interfaces textiles desarrollado por el grupo de investigación en multimedia (GIM), de la Universidad Militar Nueva Granada, en conjunto con la colectividad Artesanal Tecnológica (AT). Finalmente, incluimos algunas conclusiones sobre estas nuevas posibilidades de interacción natural y algunos escenarios de futuros posibles.

2. Fundamentos Teóricos

2.1 Interfaces hápticas

La palabra háptica (relacionado con el sentido del tacto o lo que se puede tocar) fue introducida a principios del siglo XX en trabajos de psicología experimental que buscaban comprender la percepción y manipulación del tacto humano. Con contribuciones desde la fisiología y luego las ciencias cognitivas y neurociencias, los investigadores generaron un cuerpo de conocimientos sobre la percepción táctil que se construye con información de estímulos sobre la piel (exterocepción), del movimiento y fuerzas sobre el cuerpo (propiocepción) y los órganos internos (interocepción). Hoy, el mismo vocablo háptica, designa también la creación de tecnologías interactivas que estimulan de manera programada las capacidades táctiles de las personas (L. A. Jones, 2018).

Los sentidos del tacto han estado presentes en el diseño de sistemas interactivos casi desde que comenzó a explorarse el uso de electricidad en máquinas (Parisi, 2018). Sin embargo, sólo a mitad del siglo XX gracias a los conocimientos de la percepción táctil comenzaron a desarrollarse diversas máquinas para aprovecharlos. En la década de 1990 comenzaron a organizarse laboratorios en universidades y empresas focalizados tanto en el desarrollo de máquinas como en el software y hardware de control que dieron origen a las primeras interfaces hápticas (Srinivasan & Basdogan, 1997).

Las interfaces hápticas establecen un contacto físico con el cuerpo humano con el propósito de intercambiar (medir y mostrar) información con el sistema somatosensorial humano. En general, las interfaces hápticas tienen dos funciones básicas: medir la pose (posición, orientación) y/o fuerzas de contacto de cualquier parte del cuerpo del usuario y presentar la reacción táctil calculada para una escena con objetos virtuales “tocables” (rigidez , rugosidad, fricción, etc.). Las interfaces hápticas se suelen dividir en dos categorías: dispositivos anclados con retroalimentación de fuerza (GFF, por sus siglas en inglés) y ​​dispositivos táctiles. Los dispositivos GFF presentan al usuario fuerza y​/o torsión y permiten a los usuarios sentir fuerza resistiva, fricción, aspereza, etc. Los dispositivos táctiles presentan vibración, temperatura, presión, etc. en la piel humana y muestran texturas de un objeto virtual o proporcionan información como mostrar dirección, leer texto, mostrar distancia, etc. (Kuchenbecker, 2018). Si bien, la presentación al usuario de las reacciones calculadas recibe el nombre de “renderizado háptico”, a diferencia de los gráficos por computadora, el comportamiento de la interacción háptica es bidireccional, debido al flujo de energía e información en ambas direcciones desde el usuario a la interfaz háptica y viceversa (Salisbury et al., 2004).

El primer dispositivo GFF presentado fue el Phantom diseñado por Massie y Salisbury (Massie et al., 1994). Consistía en un efector que el usuario movía con un dedo y le ofrecía resistencia para generar la sensación propioceptiva y kinestésica de estar efectivamente manipulando el modelo que se presentaba en pantalla. Son numerosos los desarrollos de sistemas basados en retroalimentación de fuerza, tanto en formato GFF como exoesqueletos desarrollados desde entonces.

Las interfaces táctiles han utilizado mayoritariamente la estimulación por vibración. Tras décadas de uso como mecanismo de notificación en localizadores, se incorporaron en mandos controladores de consolas de videojuegos (Willumsen & Jacevic, 2019) y en teléfonos móviles (Maclean, 2008). Con motores pequeños controlados con precisión, los diseñadores generan señales vibratorias que simulan las sensaciones producidas al presionar botones y presionar teclas. Otras interfaces táctiles utilizan estímulos eléctricos y térmicos. Recientemente, se han comenzado a desarrollar estímulos mediante ultrasonido para la llamada háptica “sin contacto” (Arafsha et al., 2015).

Además de las industrias del entretenimiento, las interfaces hápticas están cada vez más presentes en industrias como la automotriz, médica o logística.

2.2 Interfaces tangibles de usuario (TUI)

Las interfaces tangibles de usuario (TUI) se refieren al uso de objetos físicos como medios de interacción entre personas e información digital (Ishii, 2008b). Si bien la interacción con los bits se da siempre a través de objetos físicos; por ejemplo, el teclado, el ratón y la pantalla, la diferencia fundamental es que en las TUI los objetos son de uso más cotidiano, tienen valor cultural y se adaptan a la forma en que las personas naturalmente los usamos (Figura 1). De acuerdo con Shaer y Hornecker (2009), son aquellas que permiten representar tangiblemente la información digital y proveen a los usuarios la posibilidad de, literalmente, sentir y manipular los datos.

Figura 1. Ejemplo de TUI: CalaITU, utilizada en la representación computacional de puntadas de calado; una forma tradicional de bordado elaborada en Cartago, Colombia. Tomada de (González Rivera et al., 2016)

El estudio de las TUI inicia a mediados de los 90s en el laboratorio Tangible Media Group del Instituto Tecnológico de Massachussets (MIT), a cargo del profesor Hiroshi Ishii (Ishii, 2008a). Desde ese momento son múltiples los laboratorios, grupos de investigación y empresas que han desarrollado formas de abordarlas. Por ejemplo, se clasifican según 1) su forma de construcción (Shaer, 2009): superficies interactivas, bloques constructivos, o Token And Constraint -TAC- (Shaer et al., 2004); 2) según el tipo de objetos físicos (Holmquist et al., 1999): contenedores, tokens o herramientas; 3a) según la proximidad entre el estímulo y la respuesta, embodiment (Fishkin, 2004): completo, cercano, ambiental o distante; o 3b) según la metáfora que emplean (Fishkin, 2004): ninguna, de verbo, de sustantivo, ambas o completo.

Así mismo, se hace uso de tecnologías y herramientas diversas en el desarrollo de TUI en múltiples campos de aplicación. Entre las tecnologías más usadas están la visión por computador (ej. (Marco, 2013)), la computación física (ej. (Cano et al., 2019)), las pantallas capacitivas (ej. (González Rivera et al., 2016)), y la identificación por radiofrecuencia, RFID. Actualmente, las TUI se aplican en todos los sectores; por ejemplo, con propósitos educativos, de entretenimiento, cultural y patrimonial, en museos de divulgación científica, en mercadeo, e incluso en medicina.

El concepto de TUI ha evolucionado; de acuerdo con sus creadores, a futuro dispondremos de formas de interacción que usen materiales inteligentes y programables cuyas propiedades, como la forma o la consistencia, puedan transformarse y reconfigurarse tan dinámicamente como los pixeles en la pantalla. Estas interacciones se conciben bidireccionales; es decir, el estado digital del sistema también refleja las propiedades de los materiales según la forma en que sean manipulados y modificados. Estas nuevas interacciones las denominan átomos radicales (Ishii et al., 2012).

2.3 Interacción vestible

En pocas palabras, un dispositivo usable o vestible (del inglés wearable) es aquel que debe ser llevado sobre el cuerpo para ser usado. Esta definición se ajusta a una variada gama de posibilidades como accesorios interactivos, ropa inteligente, y dispositivos especializados como cascos de realidad virtual, diademas de interacción cerebro-computador y dispositivos para reconocimiento de gestos o emociones como guantes, pulseras y brazaletes. De igual forma, las posibilidades de aplicación es amplia, entre la cuales se resalta la salud y el telecuidado, las tecnologías asistenciales, la educación, la seguridad, el entretenimiento y los deportes (Ferreira et al. 2021; Motti 2020; Svertoka, Rusu-Casandra, y Marghescu 2020).

Es importante resaltar que la computación vestible ha evolucionado a la par con la computación misma. Si no limitamos el concepto de cómputo a la electrónica actual, los primeros dispositivos vestibles comercialmente exitosos fueron los relojes de bolsillo y su evolución en los relojes de pulsera (Darmwal 2015; Motti 2020). Incluso, algunos autores han documentado pequeños abacos, diseñados en China durante la dinastía Qing, para ser usados como anillos o colgados en cuello (Mann 2014; Motti 2020). En el contexto de la computación actual, algunas referencias señalan que el primer caso de computación móvil y vestible, fue un dispositivo que se operaba con el pie del usuario y fue usado para registrar eventos del juego de ruleta en casinos, en forma oculta (Mann 2014; Motti 2020; Thorp 1998). También es importante resaltar papel de Stephen Mann como uno de los pioneros en de la computación vestible, incluso le adjudica el término “Smart Clothes” (Mann 1996, 1997a), y su importante aporte, principalmente en el desarrollo de dispositivos vestibles para realidad aumentada (Mann 1996, 1997b; Starner et al. 1997). Con respecto a las aplicaciones prácticas, un punto histórico relevante es el desarrollo del marcapasos cardíaco, inicialmente con electrodos y batería externos, dado que es el primer dispositivo electromecánico de asistencia médica, implantado en usuario, autónomo y portable (Greatbatch y Holmes 1991).

Los retos de diseñar un vestible son varios, el tamaño, el manejo óptimo de la energía, los protocolos de comunicación, entre otros; pero se va enfatizar en los desafíos propios de la interacción con el usuario(Motti y Caine 2014; Yin et al. 2021). De forma general es necesario considerar que estos estos dispositivos están en contacto directo con nuestro cuerpo, de forma constante. Lo anterior constituye la interacción más íntima posible con un dispositivo, razón por la cual se han considerado como una de las alternativas más adecuadas para generar interacciones afectivas entre usuarios(Picard y Healey 1997). En ese contacto directo les estamos confiando a los vestibles acceso a la información más sensible de nosotros, la que nuestro cuerpo genera (Xue 2019). Por estos motivos, en el diseño de un vestible se debe considerar de forma prioritaria los aspectos éticos del manejo de información y del objetivo del dispositivo mismo, debe ser concepto rector que guíe los factores ergonómicos, de usabilidad, de portabilidad y de comunicación. Debido a la amplia diversidad de dispositivos, se presentan diferentes grados de interacción, lo que permite una clasificación en este sentido. Es así que se van a presentar los principales problemas y desafíos agrupados de esta forma (Motti 2020; Motti y Caine 2014; Yin et al. 2021).

El primer tipo de vestibles son aquellos dedicados principalmente a sensar al usuario o prestar una tarea muy específica, donde se espera que su presencia sobre el cuerpo sea percibida de forma mínima por el usuario. Para lograrlo tienen que ser ligeros y cómodos. Las pulseras fitness y las prendas inteligentes diseñadas para monitoreo y los auriculares manos libres son ejemplos característicos. En este tipo de dispositivos se debe diseñar una interacción básica, mediante luces, pulsaciones y vibraciones. También pueden incluir pequeñas pantallas táctiles que permitan realizar tareas básicas de consulta del estado. Estos vestibles requieren una conexión con un controlador (teléfono móvil o un computador) que permita su configuración y el acopio o transmisión de información. Es importante resaltar que preferiblemente el vestible debe ser autónomo y no requerir de una conexión constante y sincrónica con el controlador (Motti 2020; Motti y Caine 2014; Yin et al. 2021).

El segundo tipo de vestibles son aquellos diseñados para apoyar tareas interactivas. Aquí se incluyen pulseras, anillos y brazaletes diseñados para el reconocimiento de gestos, cascos de realidad virtual y aumentada, así como dispositivos para reconocer el estado del usuario para acciones interactivas, como los cascos de interacción cerebro-computador. En este caso el usuario no busca interactuar de forma directa con el vestible, lo que espera es que sea un medio que le permita tener mejor una experiencia de uso, por lo cual se debe diseñar para que sea cómodo pero el usuario debe ser consciente de la presencias del dispositivo sobre su cuerpo, debe ser consciente de que es una herramienta de interacción. Se han explorado estos vestible en interacción con videojuegos, reproductores de video, manejo presentaciones, tele-operación de vehículos no tripulados y en sistemas inmersivos se han probado como sustitutos para controles físicos en tareas de interacción 3D. Estos vertibles requieren conexión sincrónica y constante con un controlador, que es el sistema que ejecuta la aplicación con la cual se interactúa. No se debe caer en el error de pensar que el vestible es únicamente un disparador de comandos, se debe diseñar de forma adecuada la interacción con el vestible, que los gestos e intenciones del usuario sean adecuados y relacionados con la actividad que se está realizando (Motti 2020; Motti y Caine 2014; Yin et al. 2021).

El tercer tipo de vestibles son los que mayor grado de interacción tiene, son dispositivos de propósito general, que brinda al usuario un conjunto amplio de funcionalidades, que pueden ser ampliadas y ajustadas a sus necesidades, incluso desarrolladas por terceros. Los relojes inteligentes son el ejemplo más representativo. En este caso los desafíos de interacción son más complejos, debido a que el vestible es un sistema de cómputo autónomo. Se genera entonces la necesidad de guías de diseño para el desarrollo de aplicaciones por terceros, que permitan al usuario tener un marco de interacción común, las cuales deben incluir aspectos como el tamaño de pantalla, manejo de sensores, comunicación con otros dispositivos, entre otras. Por último es necesario aclarar que algunos cascos y gafas de realidad virtual y aumentada hacen parte tipo de dispositivos, como es el caso de las google glass, o los nuevos headset que están saliendo al mercado, que son en todo sentido de la palabra sistemas de cómputo autónomos (Motti 2020; Motti y Caine 2014; Yin et al. 2021).

3. Caso de Estudio

En este espacio presentamos el caso de Soft2Soft[1] (Melo Betancurt et al., 2021), un conjunto de herramientas para la creación de interfaces textiles desarrollado por el grupo de investigación en multimedia (GIM), de la Universidad Militar Nueva Granada, en conjunto con la colectividad Artesanal Tecnológica (AT). Las interfaces textiles son aquellas que hacen uso de materialidades como hilos, lanas, telas, agujas, tijeras, etc., para comunicar a las personas con la información digital. Estas interfaces pueden ser utilizadas en otras formas de interfaz como en vestibles, a través de la creación de piezas que se pueden poner sobre el cuerpo, o no-vestibles como interfaces tangibles, de manera que se pueden desarrollar objetos con materiales textiles que se utilicen para la interacción con la información digital.

Soft2Soft incluye una biblioteca para Arduino, una de las plataformas de desarrollo para sistemas embebidos más utilizadas en el mundo, así como documentación y ejemplos para soportar su uso. Fue desarrollada en Colombia, motivada desde el diseño participativo de algunos proyectos de AT, con artesanas de diversas regiones del país. En este sentido, busca motivar el desarrollo de sistemas computacionales interactivos que combinan saberes asociados a la computación con saberes tradicionales textiles. Esta motivación se concretó de diversas formas en el conjunto de herramientas: 1) poniendo a disposición todas las funcionalidades de la biblioteca, documentación y ejemplos tanto en español como en inglés, buscando incrementar su uso local en Colombia, 2) utilizando nombres y metáforas textiles, 3) tomando como punto de partida el diseño participativo y el diálogo de saberes entre tecnologías digitales y textiles.

El diseño de la biblioteca ha sido de arriba hacia abajo (top-down). Inicialmente, se especificaron una serie de gestos textiles, como una forma de representar las suaves conexiones humanas con lo textil -de allí el primer “Soft” del nombre-; a partir de estos gestos, se definieron acciones, y posteriormente se analizó cada una para diseñar cómo se podrían identificar digitalmente, primero desde el hardware, y luego desde el software -razón del segundo “Soft” del nombre-. El gesto textil se entiende como una forma no verbal de interacción humano-computador a través de las manos, usando materialidades textiles, y que implica intencionalidad; una forma de expresar sentimientos, ideas o pensamientos. Por otro lado, la acción se refiere a la forma en que las manos interactúan con las materialidades textiles; por ejemplo, para despegar un velcro. La Tabla 1 presenta los gestos y acciones que definieron Soft2Soft.

Gesto Acción Materialidad
Juntar Abrochar/Desabrochar Botón
Subir/Bajar Cremallera
Pegar/Despegar Velcro
Poner/Quitar Alfiler
Sentir Acariciar Tela
Pellizcar Tela
Elaborar (Crafting) Enhebrar/Desenhebrar Aguja
Atravesar Textil con Aguja
Deshilar Textil
Hacer un nudo Hilo/Lana
Remendar Zurcir Hilo

Tabla 1. Gestos, acciones y materialidades textiles especificadas en el conjunto de herramientas Soft2Soft.

Para el reconocimiento técnico de las acciones, a nivel de software, la biblioteca provee una serie de abstracciones como objetos de alto nivel; por ejemplo, “Cremallera”. Estos objetos incluyen propiedades configurables como el número de dientes de la cremallera o su longitud, y funciones para evaluar el estado del objeto como si la cremallera ha sido subida o bajada. A nivel de hardware, el conjunto de herramientas incluye una guía sobre cómo se pueden elaborar (bordar, unir, coser, conectar). Por ejemplo, cómo utilizar hilo conductor para modificar el estado eléctrico de la interfaz textil si un botón es abrochado o desabrochado (Figura 2).

Figura 2. Diferentes estilos de botones textiles con los que se pueden detectar las acciones de abrochar y desabrochar.

La biblioteca se construyó haciendo uso de elementos textiles presentes en interfaces vestibles y no vestibles. Incluye seis clases para representarlos: Botón, Velcro, Cremallera, Tela, Aguja y Lana; cada una conteniendo métodos asociados a las acciones (ej. aborcharBoton(), subirCremallera(), pellizcarTela()), y propiedades tales como el pin utilizado o el estado del elemento de acuerdo con la acción.

Teniendo a disposición este conjunto de herramientas es posible desarrollar artefactos diversos. Por ejemplo, se pueden realizar vestibles, uno de los usos más comunes de lo textil por su suavidad y adaptabilidad al cuerpo. Para ejemplificar este tipo de uso, se presenta una chaqueta que ha sido extendida digitalmente (Figura 3). A través de acciones como pellizcarla, subir o bajar la cremallera, abrochar o desabrochar sus botones, se modifica su estado digital y esta modificación es procesada por una Arduino Lilypad. Este procesamiento puede derivar en acciones que son llevadas a actuadores como luces, sonidos, o movimientos.

Figura 3. Chaqueta interactiva en donde las acciones textiles (subir/bajar cremallera, abrochar/desabrochar botones, etc.) son usadas como interfaz con datos digitales procesados en una Arduino Lilypad.

La librería Soft2SoftAsí también se puede utilizar en el desarrollo interfaces no vestibles, como las interfaces tangibles. Un ejemplo de este tipo de interfaz, es precisamente como un objeto interactivo para enseñar a realizar puntadas de bordado. En este caso, se hace uso de Soft2Soft para detectar que una aguja atraviesa un sector de un dechado (nombre que se le da a un muestrario de puntadas), y el microcontrolador se conecta con un dispositivo móvil a través de bluetooth para que se despliegue el proceso de realización de la puntada por medio de un video (Figura 4).

Figura 4. Interfaz tangible para explicar el proceso de realización de diferentes puntadas de bordado. Cuando la aguja atraviesa la puntada, en el celular se despliega un video del proceso.

4. Conclusiones

El principal objetivo de la interacción natural es transferir los mecanismos que usamos cotidianamente para interactuar con el entorno, incluyendo a nuestro pares, a la interacción de un usuario con sistemas y dispositivos computacionales. Considerando que la relación de nuestro cuerpo con el entorno es fundamental en las acciones que realizamos, se han propuesto distintos modelos que se centran en los fenómenos corporales cómo principal mecanismo de interacción. Es así que este capítulo presentó los tres principales modelos de interacción a través de nuestro cuerpo: la interacción háptica, la interfaces tangibles y la interacción con dispositivos vestible. De forma general podemos concluir que las posibilidades de interacción que provee nuestro cuerpo son tan diversas y complejas que permite distintos niveles y modalidades de interacción, como gestos, toques, vibraciones, movimientos, entre otras. Sin embargo, involucrar nuestro cuerpo como instrumento de interacción con un sistema computacional propone desafíos y riesgos que se deben considerar en el diseño de estas interfaces.

En el caso de estudio presentado se evidencia la gran gama de posibilidades de interacción que podemos tener con un elemento textil, interacciones en el entorno natural como abrochar un botón, subir una cremallera o pellizcar la tela. Ahí surge el primer desafío, en cómo transferir esas acciones naturales en eventos computacionales puedan ser usados en procesos interactivos. Afortunadamente, el actual desarrollo de la electrónica y la computación ha puesto a disposición múltiples herramientas de desarrollo modulares, como las usadas en la librería Soft2Soft. Eso no quiere decir que los problemas técnicos están totalmente superados, sensores y actuadores más pequeños y precisos, textiles electrónicos inteligentes, sistemas de batería más eficientes, son parte de los objetivos de la agenda en investigación de los próximos años.

Un segundo desafío que podemos resaltar es el diseño de la interacción corporal, donde existen dos rutas posibles. La primera, presentada en el caso de estudio, es el mapeo directo de la acción corporal a la interfaz. En esta ruta es relevante comprender los elementos corporales, extrayendo las acciones fundamentales, facilitando su desarrollo. La segunda ruta de diseño es el uso de abstracciones o metáforas. Por ejemplo, se puede emplear un sistema vibrotáctil en la yema de los dedos para generar la sensación de que se está tomando un objeto con la mano en un sistema de realidad virtual. Pero, el mismo sistema vibrotáctil puede ser usado para generar alarmas de colisión de un vehículo teleoperado con gestos de la mano. El uso de metáforas permite extender la interacción más allá de nuestras actuales experiencias, proponiendo nuevos modelos de interacción. Sin embargo, se debe ser cuidadoso en su diseño, haciendo un balance entre interfaces novedosas muy difíciles de comprender e interfaces ampliamente conocidas pero limitadas.

Por último, se vuelve a hacer énfasis que la interacción corporal involucra una relación íntima entre la interfaz y usuario, que implica el desafío de equilibrar entre los objetivos éticos y pragmáticos de la iteración. Estas interfaces están en contacto directo con nuestro cuerpo, con nuestra piel, incluso con nuestros órganos; pueden acceder a nuestra información más íntima, que incluso nosotros mismos desconocemos, pueden estimularnos y generar sensaciones que solo atribuímos a las relaciones personales. Actualmente hay prototipos de pantallas embebidas en lentes de contacto, implantes subdérmicos para interacción, prendas íntimas con sensores y actuadores, entonces es válido preguntar ¿cuál debe ser el límite de la interacción corporal? Es este punto donde el diseño de la interacción debe ser autocrítico, porque es posible afirmar que en la medida que la computación se difunde e integra al mismo tejido humano y de su entorno, la noción de “interfaz” se convierte en problemática, y puede transgredir la noción de “humanidad”.

Referencias

  • Arafsha, F., Zhang, L., Dong, H., & Saddik, A. E. (2015). Contactless haptic feedback: State of the art. 2015 IEEE International Symposium on Haptic, Audio and Visual Environments and Games (HAVE), 1-6. https://doi.org/10.1109/HAVE.2015.7359447
  • Cano, S., A., L. F., Collazos, C. A., Peñeñory, V. M., & Albiol, S. (2019). Internet of things in designing tangible interfaces for children with special needs. Proceedings of the 5th Workshop on ICTs for Improving Patients Rehabilitation Research Techniques, 92–100. https://doi.org/10.1145/3364138.3364160
  • Darmwal, Rahul. 2015. “Wrist Wars: Smart Watches vs Traditional Watches”. Telecom Business Review 8(1):69–79.
  • Dourish, P. (2004). Where the action is: The foundations of embodied interaction. MIT press.
  • Fishkin, K. P. (2004). A Taxonomy for and Analysis of Tangible Interfaces. Personal Ubiquitous Comput., 8(5), 347–358. https://doi.org/10.1007/s00779-004-0297-4
  • González Rivera, R. A., Cortés-Rico, L., Pérez-Bustos, T., & Franco-Avellaneda, M. (2016). Embroidering engineering: A case of embodied learning and design of a tangible user interface. Engineering Studies, 8(1), 48–65. https://doi.org/10.1080/19378629.2016.1170839
  • Greatbatch, W., y C. F. Holmes. 1991. “History of implantable devices”. IEEE Engineering in Medicine and Biology Magazine 10(3):38–41. doi: 10.1109/51.84185.
  • Holmquist, L. E., Redström, J., & Ljungstrand, P. (1999). Token-Based Acces to Digital Information. Proceedings of the 1st International Symposium on Handheld and Ubiquitous Computing, 234–245. http://dl.acm.org/citation.cfm?id=647985.743869
  • Ishii, H. (2008a). The Tangible User Interface and Its Evolution. Communications ACM, 51(6), 32-36. https://doi.org/10.1145/1349026.1349034
  • Ishii, H. (2008b). Tangible Bits: Beyond Pixels. Proceedings of the 2Nd International Conference on Tangible and Embedded Interaction, xv–xxv. https://doi.org/10.1145/1347390.1347392
  • Ishii, H., Lakatos, D., Bonanni, L., & Labrune, J.-B. (2012). Radical atoms: Beyond tangible bits, toward transformable materials. Interactions, 19(1), 38–51. https://doi.org/10.1145/2065327.2065337
  • Jones, L. A. (2018). Haptics. MIT Press Essential Knowledge series.
  • Kuchenbecker, K. J. (2018). Haptics and Haptic Interfaces. En M. H. Ang, O. Khatib, & B. Siciliano (Eds.), Encyclopedia of Robotics (pp. 1-9). Springer. https://doi.org/10.1007/978-3-642-41610-1_19-1
  • Mann, Steve. 1996. “Smart clothing: the shift to wearable computing”. Communications of the ACM 39(8):23–24. doi: 10.1145/232014.232021.
  • Mann, Steve. 1997a. “Smart Clothing: The Wearable Computer and Wearcam”. Personal Technologies 1(1):21–27. doi: 10.1007/BF01317885.
  • Mann, Steve. 1997b. “Wearable computing: a first step toward personal imaging”. Computer 30(2):25–32. doi: 10.1109/2.566147.
  • Mann, Steve. 2014. “Wearable Computing”. en The Encyclopedia of Human-Computer Interaction, 2nd Ed. Interaction Design Foundation.
  • Marco, J. (2013). ToyVision. Tabletop Tangible Toolkit. http://www.toyvision.org/
  • Massie, T. H., Salisbury, J. K., & others. (1994). The phantom haptic interface: A device for probing virtual objects. Proceedings of the ASME winter annual meeting, symposium on haptic interfaces for virtual environment and teleoperator systems, 55(1), 295-300.
  • Melo Betancurt, M. J., Rincón-Saavedra, Y., Cortés-Rico, L., & Rozo-Torres, A. (2021). Soft2Soft: Toolkit for the Digital Recognition of Textile Gestures. In C. Stephanidis, M. Antona, & S. Ntoa (Eds.), HCI International 2021—Posters (pp. 30–36). Springer International Publishing. https://doi.org/10.1007/978-3-030-78642-7_5
  • Motti, Vivian Genaro. 2020. “Wearable Interaction”. Pp. 81–107 en Wearable Interaction, Human–Computer Interaction Series, editado por V. G. Motti. Cham: Springer International Publishing.
  • Motti, Vivian Genaro, y Kelly Caine. 2014. “Human Factors Considerations in the Design of Wearable Devices”. Proceedings of the Human Factors and Ergonomics Society Annual Meeting 58(1):1820–24. doi: 10.1177/1541931214581381.
  • Parisi, D. (2018). Archaeologies of touch: Interfacing with haptics from electricity to computing. University of Minnesota Press.
  • Picard, R. W., y J. Healey. 1997. “Affective Wearables”. Personal Technologies 1(4):231–40. doi: 10.1007/BF01682026.
  • Salisbury, K., Conti, F., & Barbagli, F. (2004). Haptic rendering: Introductory concepts. IEEE computer graphics and applications, 24(2), 24-32.
  • Shaer, O. (2009). Tangible User Interfaces: Past, Present, and Future Directions. Foundations and Trends® in Human–Computer Interaction, 3(1–2), 1–137. https://doi.org/10.1561/1100000026
  • Shaer, O., Leland, N., Calvillo-Gamez, E. H., & Jacob, R. J. K. (2004). The TAC paradigm: Specifying tangible user interfaces. Personal Ubiquitous Comput., 8(5), 359–369. https://doi.org/10.1007/s00779-004-0298-3
  • Srinivasan, M. A., & Basdogan, C. (1997). Haptics in virtual environments: Taxonomy, research status, and challenges. Computers & Graphics, 21(4), 393-404.
  • Starner, Thad, Steve Mann, Bradley Rhodes, Jeffrey Levine, Jennifer Healey, Dana Kirsch, Rosalind W. Picard, y Alex Pentland. 1997. “Augmented Reality through Wearable Computing”. Presence: Teleoperators and Virtual Environments 6(4):386–98. doi: 10.1162/pres.1997.6.4.386.
  • Thorp, E. O. 1998. “The invention of the first wearable computer”. Pp. 4–8 en Digest of Papers. Second International Symposium on Wearable Computers (Cat. No.98EX215).
  • Weiser, M. (1991). The Computer for the 21 st Century. Scientific american, 265(3), 94-105.
  • Willumsen, E. C., & Jacevic, M. (2019). A Typology of Rumble. DiGRA ’19 – Proceedings of the 2019 DiGRA International Conference: Game, Play and the Emerging Ludo-Mix, 1-17. https://adk.elsevierpure.com/en/publications/a-typology-of-rumble
  • Xue, Yukang. 2019. “A Review on Intelligent Wearables: Uses and Risks”. Human Behavior and Emerging Technologies 1(4):287–94. doi: 10.1002/hbe2.173.
  • Yin, Ruiyang, Depeng Wang, Shufang Zhao, Zheng Lou, y Guozhen Shen. 2021. “Wearable Sensors-Enabled Human–Machine Interaction Systems: From Design to Application”. Advanced Functional Materials 31(11):2008936. doi: 10.1002/adfm.202008936.
  1. http://artesanaltecnologica.org/soft2soft-biblioteca-gestos-textiles/