Interfaz de Siri en iOS (Fuente: Apple)
Interfaz de Siri en iOS (Fuente: Apple)

Puentes tecnológicos: así solventamos el desafío de comunicarnos con las máquinas

En pocas décadas las máquinas han dejado de ser entes más o menos complejos para dar un salto cualitativo: convertirse en herramientas aptas para cualquier usuario. Y en ese cambio hay una necesidad pujante: hacerse entendibles y manejables.

 

Seguro que alguna vez un olor te ha recordado a un momento, o una canción a una persona. Los seres humanos nos relacionamos con el mundo que nos rodea a través de cinco sentidos y sobre ellos tejemos recuerdos que se vuelven a activar al repetir ese mismo estímulo. Aquel guiso de la abuela, aquel tema de tu juventud, el tacto de un muro…

Nuestra forma de entender el entorno es compleja y subjetiva. Tanto que añadimos significados y sentimientos a aquello que nuestros sensores captan. Hasta la reconstrucción que hace nuestro cerebro, por más que pensemos que es exacta, es una especie de rompecabezas no siempre exacto y muy manipulable.

A estas alturas de nuestra evolución sabemos que hay una gran parte de nuestra realidad que somos incapaces de captar por nosotros mismos. Hay sonidos que no percibimos y colores que no vemos. Hay gustos y olores que solo algunos pueden distinguir, y tactos que nuestras limitaciones físicas nos impiden conocer.

Algunos pocos animales pueden llegar a donde nosotros no, pero es solo a través de dispositivos tecnológicos complejos cuando podemos de verdad registrar y traducir esa parte imperceptible del mundo en códigos que sí podemos decodificar.

Aunque sabemos que nuestros receptores son limitados, los hemos usado como base para comunicarnos con nuestros alter ego tecnológicos. A fin de cuentas, es la única forma de percibir la realidad que conocemos. La misión parece sencilla, pero en realidad no lo es tanto: los primeros ordenadores, además de ser gigantes, carecían de herramientas con las que hacer posible la interacción. Muchos, de hecho, no tenían pantalla ni teclado.

¿Cómo entenderse con una máquina?

Aquellas primeras máquinas, nacidas en plena ebullición bélica, fueron meras herramientas de procesamiento: se usaban para encriptar y desencriptar mensajes del enemigo. Más tarde se usaron para almacenar y recuperar información, y poco a poco se entendió la necesidad de dotarles de puentes tecnológicos. No es que los ordenadores precisaran de un conocimiento del mundo como nosotros, sino que nosotros necesitábamos alguna manera de poder comunicarnos con ellos.

Así fueron naciendo instrumentos como la pantalla, a través de la cual ofrecer una representación visual reconocible de lo que contiene un ordenador. Al principio fue código hecho de letras; con el tiempo, iconos y posiciones dentro de carpetas. Una máquina es en realidad un conjunto de circuitos y cableado, pero crear una visualización de la información que contenía se tomó como una forma adecuada de poder comprender algo que ya no era físico, sino virtual.

También aparecieron, por tanto, los teclados, y hasta las impresoras y escáneres, que permitieron meter y sacar información. Eran puentes a través de los cuales lo virtual se podía hacer real sobre un papel, de la misma forma que algo físico podía digitalizarse a través de un escáner o un lector de almacenamiento físico, fuera un diskette, un CD o una unidad USB. Los sentidos de las máquinas, como los nuestros, servían para traducir información.

Dicho de otro modo, la evolución de los ordenadores ha ido de la mano con el desarrollo de nuestras formas de interacción con ellos. Y así ha sido hasta convertir el presente en un mundo de pantallas, donde ordenadores, tablets, móviles y weareables copan cada segundo de nuestra existencia. Nos informamos a través de ellos, nos relacionamos con otros a través de ellos y hasta decidimos nuestras acciones a través de ellos.

Quizá el primer gran dispositivo que ahondó en esta idea fue el ratón. Durante décadas ha sido nuestra extensión digital en un mundo virtual. Una mano con la que seleccionamos, cogemos, abrimos, movemos o cerramos. Según moviéramos nuestra mano agarrando esa caja, así se movería su representación pixelada dentro del ordenador. Steve Jobs supo ver lo revolucionario del invento en su visita al Xerox Parc, y seguramente por eso robó la idea para exprimirla en Apple.

En busca de una comunicación natural

Con el tiempo los ordenadores dejaron de ser algo reservado a labores complejas y acabaron haciéndose mainstream. Aparecieron las primeras reflexiones acerca de cómo sería una realidad virtual en el futuro o cómo se desarrollaría una inteligencia artificial todopoderosa. Pero antes de saltos tan gigantes llegó otro desarrollo revolucionario en nuestra forma de comunicarnos con los dispositivos: la interacción.

En teoría la base de nuestra comunicación descansa en obtener respuesta a acciones: si tocas el fuego, te quemas; si sonríes a alguien, te sonríen. Eso era fácil de trasladar a la lógica de las máquinas, incluso en ambos planos. Se trabajó, sobre todo, en la línea de reforzar acciones para sustituir la falta de inputs físicos.

Así, el sonido del papel al arrastrar un archivo a la papelera no solo confirmaba que la acción se había llevado a cabo con éxito, sino que también alertaba de que no había sido así en caso de que el usuario no lo escuchara. Lo mismo sucede con el sonido al enviar un mail. Acciones básicas que fueron los antepasados del doble check de WhatsApp.

En los móviles se desarrollaron las pantallas táctiles, y también el feedback háptico: cada acción devolvería una vibración mínima pero suficiente para confirmar la recepción del mensaje. Hasta los botones físicos se sustituyeron por acciones, como fue el caso de las últimas versiones del botón de inicio de los iPhone: en realidad la hendidura está soldada a la carcasa, no hay botón alguno, por más que la vibración simule la acción al tocarlo.

Los últimos años han traído un proceso acelerado de búsqueda de nuevas formas de comunicación, nuevos idiomas. Primero fue el reconocimiento de la huella dactilar y después, el reconocimiento facial. También se desarrollaron las primeras combinaciones de realidad y entorno virtual con la llegada y desarrollo de la realidad aumentada y los tímidos avances hacia la comercialización de la realidad virtual a través de gafas y apps especiales.

Llenando la casa de ‘oídos’

La última gran tendencia ahonda, sin embargo, en la forma más primaria de comunicación que conocemos, antes siquiera de la escritura. La voz empezó a cobrar forma de la mano de los asistentes virtuales integrados en los teléfonos y ordenadores, de forma que se dotaban de un micrófono en permanente escucha que se activaba al escuchar un comando concreto. Así fue como Siri, Cortana o el asistente de Google entraron en escena.

En los últimos meses se han empezado a comercializar a escala planetaria oídos. Son unidades dotadas de micrófono y altavoz que se conectan a internet y son capaces de entender preguntas, buscar información y adaptar respuestas. Y también, claro está, de levantar ciertos temores acerca de la conveniencia de tener a un espía metido en casa.

En este punto podría alcanzarse el siguiente hito: cuando los asistentes sean realmente inteligentes y la comunicación no sea únicamente instrumental, sino también significativa. Poder hablar, que te entiendan, que contesten y que acierten. Desde ahí, la capacidad de procesamiento activo para desarrollar inteligencia artificial conversacional sería el siguiente desafío.

Hay otras líneas de trabajo apuntando hacia otros sentidos más descuidados en nuestra relación con las máquinas, pero de momento no pasan de ser meras anécdotas: texturas en pantalla o transmisión y envío de olores.

Por lo pronto la interacción ha mejorado hasta el punto de hacerla casi natural, basándose sobre todo en lo visual, lo táctil y ahora lo oral. Y a falta de futuros desarrollos, podría decirse que el proceso de construcción de puentes comunicativos entre humanos y máquinas ha sido tan exitoso que ya no entendemos el mundo real sin su correspondencia digital.