La supercomputadora que te conseguirá novio y hace bailar Gangnam Style a un robot

Las computadoras van camino a poder hablarnos a los humanos en nuestro propio lenguaje. Cada vez entienden más lo que decimos y también, aun más importante, lo que queremos decir. Y, poco a poco, empiezan a interpretar gestos, movimientos... y hasta un baile.
Este es el futuro próximo que plantea Rob High, el jefe del proyecto Watson de IBM, la supercomputadora que busca procesar el lenguaje humano y grandes cantidades de datos para resolver problemas.
Una parte importante de poder comunicarse mejor con los humanos es entender lo que está más allá de las palabras: los tonos de voz, la ironía, los gestos y los movimientos.
“Al tratar de entender a los humanos, no son solo las palabras que intercambiamos, no es sólo el significado que tienen, ni es solo la intención que tienen”, explicó High este miércoles durante una conferencia tecnológica en San José, California. "Es más importante que la lingüística".
Por eso, Watson —que se hizo famoso hace unos años al participar en el concurso televisivo Jeopardy— está aprendiendo a interpretar las emociones de las personas y, por ende, a identificar su personalidad a través del lenguaje que usan.
Lo que dijiste y lo que quisiste decir
High presenta ejemplos muy curiosos de los obstáculos que Watson intenta superar.
Cuando alguien llena su perfil en un sitio para conseguir citas, dice, busca “presentarse atractivamente ante la gente que lo lee”. El problema es que cada persona escribe y lee los textos con su propia “voz interior” y quien lea ese perfil puede interpretarlo de manera muy diferente a lo que el autor pretendía.
Por eso, IBM desarrolló el Analizador de Tono, que busca entender la intención detrás de las palabras, como lo hacen los humanos de forma natural.
Así, la computadora puede interpretar si hay alegría, tristeza o enojo detrás de una oración como “Crié a mis dos hijos y ahora estoy empezando un nuevo capítulo en mi vida”. Y puede ayudar al a corregir el tono de su texto.
¿Estás enojado, querido cliente?
Esta herramienta puede tener muchos usos, dice High: “Podría servir, igual que un corrector de ortografía, para leer el tono de un mensaje antes de que se lo mandes a tu jefe”.
Las empresas, por su parte, pueden usar esta herramienta para reconocer la emoción detrás de los comentarios que publican sus s. ¿Hay enojo o desprecio en esa reseña de producto?
Personality and emotional analysis using #AI and @IBMWatson. Mind blown. #GTC16 #OpenPOWERSummit pic.twitter.com/3Pec9mHaS8
— Patrick Moorhead (@PatrickMoorhead) April 6, 2016
Un gesto vale mil palabras
Pero la comunicación humana tiene otras facetas difíciles de interpretar para las máquinas, además del tono.
“El lenguaje corporal es igual de importante”, dice el ejecutivo, que proyectó un video del robot programable NAO, manejado por Watson. Dialogaba con una mujer y le mostraba su habilidad para bailar el hit “ Gangnam Style” con todos los pasos: el lazo, la cabalgata, los brazos en jarro.
Robot Aldebaran interactuando con un ser humano , estamos cada vez más cerca de ellos con IBM Watson! #GTC16 pic.twitter.com/oxzLiszwWi
— 3DCadPortal (@3DCadPortal) April 6, 2016
“El punto aquí es que el baile es una de las formas más fuertes de expresión corporal”, dice High. “Cuando ves que algo se puede mover con ese estilo, trae consigo una cierta empatía por ese dispositivo, en este caso por un robot. Es un área muy prometedora para el avance del cómputo cognitivo”.
Las computadoras cada vez más se van a comunicar con los humanos usando el lenguaje de éstos y no al revés, como ha sido hasta ahora, agrega: “Se van a tener que adaptar a nuestras necesidades y lo que queremos decir”.
Adiós al celular
Con estos avances, High predice que en pocos años la forma de interactuar con los sistemas de cómputo va a dejar atrás los dispositivos que conocemos hoy, como los celulares inteligentes.
“Vamos a ver una transformación fundamental en la interfaz entre máquinas y humanos —dice—. De los dispositivos personales pasará a un mundo donde el conocimiento corporal estará presente no sólo sobre nuestro cuerpo [con aparatos] sino donde sea que estemos, en oficinas, autos, fábricas, hogares".
Las primeras señales de ese tipo de interacción están llegando al mercado con aparatos como el Echo, de Amazon, una computadora que responde a órdenes verbales y es más parecida a una bocina o parlante.
"Donde quiera que vayamos —dice High— habrá una presencia de cómputo cognitivo que facilitará nuestra vida diaria”.