Como conté en el post anterior, el sábado pasado tuve la oportunidad de «estar» a través de un robot en el cocktail previo a la cena de la X PRIZE Foundation.
Ramiro Fernández me hizo el favor de acompañarme a hacerlo desde la oficina de MTV y filmó un poco el proceso. Acá comparto con ustedes el video, algunos aprendizajes extra de la experiencia y algunas reflexiones sobre el futuro de las interacciones entre humanos y máquinas.
Lo primero que se ve es una sesión de práctica de unos 10 minutos que hice con un robot en las oficinas de Willow Garage. Y después sí, algunas escenas de mi paso por el cocktail.
Mirándolo me convenzo más aún de que no fue nada fácil la experiencia. Igual que le sucede a quien acaba de aprender a manejar un auto y tiene que pensar en cada cosa que hace (las calles, el tránsito, los cambios, el acelerador, el embrague, etc.), el manejo mismo del robot me requería tanta atención que no podía sostener una conversación normal al mismo tiempo.
Hoy tuve una charla con Leila Takayama, una especialista de la Universidad de Stanford en HRI («Human-Robot Interaction») donde ella me pidió que le contara las conclusiones de mi experiencia. En la charla surgieron algunas posibles mejoras tanto al interfaz de manejo como al robot mismo. Un ejemplo es algo tan simple como que tenga una perilla para graduar el volumen con el que suena la voz porque con el ruido del cocktail la gente tenía algún problema para escucharme. Otro es el hecho de que los controles de movimiento estuvieran en un sector diferente de la pantalla que la imagen, obligándome a «manejar o mirar por dónde iba y con quién charlaba».
Si bien en la charla quedó claro que todavía es posible mejorar muchas cosas, la realidad es que me faltó un poco de entrenamiento. Creo que si me prestaran el «juguete» unas cuantas horas podría llegar a sentirme muy cómodo usándolo. Y no dudo que experiencias como esta serán moneda corriente dentro de bastante poco tiempo. Un poco más adelante llegará la posibilidad de controlarlo simplemente con el pensamiento y será posible mover otro «cuerpo» con la misma naturalidad con la que movemos el nuestro.
Discutiendo hoy sobre el tema via Twitter con Fabio y el me mencionaba el tema de que a él le sucede lo que se conoce como el «Uncanny Valley». De acuerdo a Wikipedia, «este principio dice que la respuesta emocional de un humano hacia un robot hecho en apariencia y comportamiento muy similar al humano, incrementará positivamente y de forma empática, hasta alcanzar un punto en el que la respuesta emocional se vuelve de repente fuertemente repulsiva. Cuando la apariencia y comportamiento del robot se vuelven indistinguibles al ser humano, la respuesta emocional vuelve a crecer de forma positiva y se va aproximando a niveles de empatía como los de entre humanos.»
En las ocasiones que tuve yo de interactuar con robot humanoides, fueran manejados por una persona o autónomos, siempre me sorprendo de lo fácil que es para mí romper la resistencia y ver a una máquina como un «par», entablar una relación y olvidarme de su naturaleza no humana.
Yo soy un convencido de que, con los avances de la Inteligencia artificial, llegará un momento donde charlar con un humano no podrá compararse en interés a conversar con un robot (que dispondrá en su memoria de TODA la info de todas las enciclopedias, combinada con la misma capacidad asociativa y creativa de un ser humano).
En fin, el futuro nos depara sin duda cosas interesantes, pero que a la vez plantean desafíos de adaptación y dilemas éticos importantes.
Ahora sí, los dejo con el video, que no es gran cosa pero al menos les dará una idea de cómo fue todo. ¡Espero que les guste!



