Se están creando robots que piensan, actúan y se relacionan con los humanos. ¿Estamos preparados?
Alguien teclea un comando en una laptop y la Actroid-DER se endereza tambaleante hasta quedar erguida con una sacudida y un resuello. Por debajo de la piel de silicona fluye aire comprimido que acciona los llamados actuadores, que levantan sus brazos y elevan las comisuras de su boca en una tímida sonrisa. Sus ojos recorren toda la habitación donde se encuentra, con tubos y cables que se deslizan por sus tobillos. Parpadea, gira su rostro hacia mí. No puedo evitar encontrarme con su mirada mecánica. «¿Te sorprende que sea un robot? -me pregunta-. Parezco humana, ¿no es cierto?».
Su observación programada tiene el desafortunado efecto de llamar mi atención sobre las muchas maneras en que no lo es. Desarrollada en Japón por la compañía Kokoro, la androide Actroid-DER puede rentarse para servir como edecán futurista en eventos corporativos, un papel que ciertamente no requiere una caracterización muy profunda. Pero a pesar de los 250,000 dólares gastados en su desarrollo, se mueve con una falta de gracia entrecortada y la poca elasticidad de sus facciones le da un matiz ligeramente demente a su rostro encantador.
Mientras algunos modelos más avanzados de la Actroid realizan una gira por las exhibiciones tecnológicas, este ejemplar ha sido enviado a la Universidad Carnegie Mellon, en Pittsburgh, para que adquiera la apariencia de una persona. Al menos eso es lo que esperan cinco optimistas estudiantes de posgrado del Entertainment Technology Center de esa universidad, quienes tienen un periodo escolar de 15 semanas para lograr que la robot sea palpablemente más femenina y menos robótica. Han empezado por darle un nuevo nombre: Yume, sueño en japonés.
Los androides Actroid forman parte de una nueva generación de robots, seres artificiales diseñados para funcionar no como máquinas industriales programadas, sino como agentes cada vez más autónomos, capaces de adoptar funciones que antes realizaban únicamente seres humanos. Pronto podrían estar disponibles robots complejos que cocinen para nosotros, doblen la ropa limpia e incluso cuiden a nuestros hijos o atiendan a nuestros padres ancianos, mientras los observamos y ayudamos desde una computadora que se encuentra a kilómetros de distancia.
«Dentro de cinco o 10 años habrá robots funcionando rutinariamente en ambientes humanos», dice Reid Simmons, profesor de robótica de Carnegie Mellon.
Esta posibilidad nos lleva a una serie de preguntas. ¿Cuántas funciones humanas cotidianas queremos delegar en las máquinas?¿Queremos androides como Yume rondando por nuestra cocina o haría mejor el trabajo un brazo mecánico sujeto a la pared de la cocina sin hacernos sentir incómodos? ¿Cómo cambiará la revolución robótica la manera en que nos relacionamos unos con otros? Una foca bebé robótica de peluche, desarrollada en Japón para entretener a ancianos en casas de retiro, fue criticada aduciendo que podría aislarlos de otras personas. Se han expresado temores similares respecto a futuras nanas robóticas. Y por supuesto, hay intentos cuestionables para crear androides siempre dispuestos al romance. El año pasado, una compañía de Nueva Jersey introdujo una «compañera» robot parlante sensible al tacto.
En pocas palabras: ¿estamos listos para ellos? ¿Están listos ellos para nosotros?
@@x@@
En un edificio aproximadamente a un kilómetro colina arriba del Entertainment Technology Center, HERB está sentado inmóvil, perdido en sus pensamientos. HERB, las siglas de Home Exploring Robotic Butler, es desarrollado por Carnegie Mellon en colaboración con Intel Labs Pittsburgh como prototipo de un robot de servicio que podría encargarse del cuidado de ancianos y discapacitados en un futuro no muy lejano. HERB es un artefacto casero. Pero a diferencia de la bella Yume, HERB tiene algo parecido a una «vida mental». Justo ahora, el robot mejora su funcionalidad, explorando situaciones alternativas para manejar representaciones de objetos almacenados en su memoria, decenas de miles de situaciones por segundo.
«Yo lo llamo soñar -dice Siddhartha Srinivasa, constructor de HERB y profesor en el Instituto de Robótica de Carnegie Mellon-. Ayuda a la gente a entender de manera intuitiva que el robot realmente se visualiza a sí mismo haciendo algo».
Los robots tradicionales pueden programarse para realizar una secuencia muy precisa de tareas, pero solo en ambientes rígidamente estructurados. Para interactuar en espacios humanos, los robots como HERB necesitan percibir y enfrentarse a objetos desconocidos y moverse de un lado a otro sin chocar con la gente. El sistema de percepción de HERB consiste en una cámara de video y un dispositivo de navegación láser montado en una saliente arriba de su brazo mecánico. A diferencia de un brazo robótico industrial hidráulico, el de HERB está animado por un sistema de cables sensibles a la presión, similares a los tendones humanos, algo necesario si uno quiere un robot capaz de cargar a una anciana viuda en su camino al cuarto de baño sin catapultarla a través de la puerta.
En el laboratorio, uno de los estudiantes de Srinivasa presiona ligeramente un botón y se emite un comando para levantar un bote de jugo colocado en una mesa cercana. El láser de HERB gira, creando una rejilla tridimensional para la localización de gente y objetos que se encuentran cerca, y la cámara se queda fija en un posible candidato como su objetivo, el bote de jugo. El robot extiende lentamente la mano y agarra el bote, manteniéndolo vertical. Al recibir la orden, lo baja con cuidado. «Cuando se lo mostré a mi mamá -dice Srinivasa-, ella no podía entender por qué HERB tiene que pensar tanto para levantar una taza».
Tomar una bebida es sumamente fácil para la gente, cuyo cerebro ha evolucionado durante millones de años para coordinar con exactitud este tipo de tareas. También es algo muy sencillo para un robot industrial programado para esa acción específica. La diferencia entre un robot social como HERB y uno industrial convencional es que HERB sabe que el objeto es un bote de jugo y no una taza de té o un vaso de leche, a los que tendría que manejar de manera distinta. El modo como entiende esto implica gran cantidad de matemáticas y aspectos de las ciencias de la computación, pero todo se reduce a «tomar cierta información y procesarla de manera inteligente en el contexto de todo lo que él ya sabe sobre cómo se ve su mundo», explica Srinivasa.
Cuando a HERB se le presenta un objeto nuevo, las reglas aprendidas previamente le informan sobre el movimiento de su brazo y mano sensibles a la presión. ¿Tiene asa el objeto? ¿Puede romperse o derramarse? Programarlo para que funcione en espacios humanos reales será un desafío tremendamente más complicado. HERB tiene un timbre digital de bicicleta que hace sonar para que la gente sepa que se acerca a ella; si una habitación está ocupada y llena de gente, procede de la manera más segura y solo se queda parado, sonándoles el timbre a todos.
@@x@@
La estrategia funciona en el laboratorio, pero podría no ser muy bien recibida en una oficina. Los humanos pueden utilizar un vasto vocabulario inconsciente de movimientos: sabemos cómo eludir cortésmente a alguien que encontramos en nuestro camino y cómo notar cuando invadimos el espacio personal de alguien. Estudios en Carnegie Mellon y otros lugares han mostrado que la gente espera que los robots sociales sigan las mismas reglas. Snackbot, otro robot móvil en proceso de desarrollo en Carnegie Mellon, toma las órdenes y despacha bocadillos. A veces es un fastidio: trae el bocadillo equivocado o da mal el cambio. La gente es más indulgente si el robot les advierte antes que podría cometer errores o se disculpa cuando se equivoca.
Además, hay que lidiar con los caprichos de la naturaleza humana. «A veces la gente le roba bocadillos al robot -dice una de los desarrolladores de Snackbot-. Lo tenemos registrado en video».
Al igual que muchos robots sociales, Snackbot es un tipo lindo: mide poco menos de 1.5 metros de alto, con una cabeza y facciones de caricatura que apenas sugieren a un ser humano. Además de reducir las expectativas, esto evita cualquier incursión ilegal en el llamado «valle inquietante», término inventado por el pionero japonés de la robótica Masahiro Mori hace más de 40 años. Hasta cierto punto, respondemos de manera positiva frente a los robots con apariencia y movimientos humanos, explicaba Mori, pero cuando llegan a parecer vivos sin lograrlo, lo que era simpático se convierte rápidamente en repulsivo.
Aunque la mayoría de los roboticistas no ven razón para andar de puntillas al borde de este abismo, unos cuantos consideran que el valle inquietante es un terreno que es necesario atravesar si alguna vez hemos de llegar a robots que se parezcan, se muevan y actúen lo bastante similar a nosotros como para inspirar empatía en lugar de aversión. Posiblemente el más intrépido de estos exploradores es Hiroshi Ishiguro, el impulsor detrás de la chica del valle inquietante, Yume, también conocida como Actroid-DER. Ishiguro ha supervisado el desarrollo de una multitud de robots innovadores, algunos más perturbadores que otros, para explorar la respuesta emocional humana a robots realistas o la interacción humano-robot (IHR). En el último año, Ishiguro ha contribuido sustancialmente a la creación de una réplica en extremo realista de un profesor universitario danés llamado Geminoid DK, con perilla, barba de varios días y una sonrisa encantadora, y de un teléfono celular robótico de «telepresencia» llamado Elfoid, aproximadamente del tamaño, forma y casi la ternura de un bebé humano prematuro. Cuando esté perfeccionado, podrás hablar con una amiga utilizando su propio Elfoid y los apéndices de su muñeco-teléfono imitarán tus movimientos.
La creación más famosa de Ishiguro hasta el momento es un modelo previo de Geminoid: su propio gemelo robótico. Cuando lo visité en su laboratorio en ATR Intelligent Robotics and Communication Laboratories en Kioto, Japón, ambos vestían de negro de pies a cabeza; el robot estaba sentado en una silla detrás de Ishiguro, luciendo una melena negra idéntica y el mismo ceño fruncido pensativo. Ishiguro, quien también da clases en la Universidad de Osaka a dos horas de distancia, dice que creó su doble de silicona para poder estar literalmente en dos lugares al mismo tiempo; controla al robot mediante sensores que captan movimientos en su rostro, de modo que él robot puede interactuar por medio de internet con colegas en ATR, mientras él persona se encuentra en Osaka dando clases. Al igual que otros pioneros de la IHR, Ishiguro está interesado no solamente en extender los confines tecnológicos, sino también los filosóficos. Sus androides son intentos de ensayos cognitivos, espejos imperfectos diseñados para revelar lo que es fundamentalmente humano, creando aproximaciones cada vez más exactas, observando cómo reaccionamos a ellos y así, aprovechando esa respuesta, darle forma a algo aún más convincente.
«Crees que soy real y que esta cosa no es humana -dice Ishiguro, señalando a su gemelo-. Pero esta distinción será cada vez más difícil conforme avance la tecnología. Si al final no puedes notar la diferencia, ¿realmente importa si estás interactuando con un humano o con una máquina?». Un uso ideal para su gemelo, dice, sería colocarlo en el lejano hogar de su madre, a quien rara vez visita, así ella podría estar más tiempo con él.
@@x@@
«¿Por qué aceptaría tu madre un robot?», pregunto.
Dos caras me fruncen el ceño. «Porque soy yo mismo», dice uno de ellos.
Se requerirá mucho más que una mímica impecable antes de que versiones robóticas de hijos puedan interactuar con sus madres de la manera en que lo hacen los hijos reales. Nada más hay que pensar en los retos que enfrenta HERB al navegar en ambientes físicos humanos sencillos. Otros robots hacen incursiones tentativas en el peligroso terreno de las emociones y los estados mentales humanos. Nilanjan Sarkar, de la Universidad Vanderbilt, y su ex colega Wendy Stone, ahora en la Universidad de Washington, desarrollaron un sistema robótico prototipo que participa en un juego de pelota sencillo con niños autistas. El robot monitorea las emociones de un niño midiendo cambios diminutos en los latidos del corazón, la sudoración, la mirada y otros signos fisiológicos y, cuando percibe aburrimiento o fastidio, cambia el juego hasta que las señales indican que el niño se está divirtiendo otra vez. El sistema aún no es lo suficientemente sofisticado para la compleja interacción lingüística y física de la terapia real, pero representa un primer paso hacia la duplicación de uno de los puntos de referencia de la humanidad: saber que otros tienen pensamientos y sentimientos, y ajustar tu comportamiento en respuesta a ellos.
En un artículo de 2007, titulado provocativamente «¿Qué es un ser humano?», el psicólogo evolutivo Peter Kahn, de la Universidad de Washington, propone, junto con Ishiguro y otros colegas, un conjunto de otros nueve puntos de referencia psicológicos para medir el éxito al diseñar robots que parecen humanos. Su énfasis no estaba en las capacidades técnicas de los robots, sino en cómo los perciben y tratan los humanos.
Consideremos el punto de referencia «valor moral intrínseco», es decir, si consideramos a un robot digno de consideraciones morales básicas que otorgamos de manera natural a otras personas. Kahn puso a niños y adolescentes a jugar adivinanzas con un pequeño y lindo humanoide llamado Robovie. Después de unas cuantas rondas, un investigador interrumpiría abruptamente el juego justo cuando le tocara adivinar a Robovie, diciéndole al robot que era hora de guardarlo en el armario. Robovie protestaría, declarando que era injusto que no se le permitiera usar su turno.
«Solo eres un robot. No importa», respondió el investigador. Robovie seguía protestando tristemente mientras lo sacaban de ahí. Por supuesto, lo interesante no era la reacción del robot -que estaba siendo operado por otro investigador-, sino la respuesta de los sujetos humanos.
«Más de la mitad de la gente que probamos decía estar de acuerdo con Robovie en que era injusto que lo pusieran en el armario, lo cual es una respuesta moral», dice Kahn.
Que los humanos, en especial los niños, puedan sentir empatía por un robot tratado injustamente tal vez no nos sorprenda, después de todo, los niños establecen vínculos afectivos con muñecas y figuras de acción. Que un robot sea capaz por sí mismo de efectuar juicios morales parece un objetivo más lejano. ¿Podrán construirse alguna vez máquinas que posean una conciencia, el atributo quizá más exclusivo de todos los atributos humanos?
Un sentido ético sería más útil de manera inmediata en situaciones donde la moral humana se pone continuamente a prueba: un campo de batalla, por ejemplo. Se están preparando robots en forma de bombarderos teledirigidos y vehículos terrestres equipados con ametralladoras y granadas para funciones de combate cada vez más complejas. Varios gobiernos desarrollan modelos que un día podrían ser capaces de decidir por sí mismos cuándo disparar y a quién. Es difícil imaginar hacer responsable a un robot de las consecuencias de tomar una mala decisión. Pero sin duda querríamos que estuviera equipado para tomar la correcta.
@@x@@
El investigador que ha ido más lejos en el diseño de robots éticos es Ronald Arkin, del Instituto Tecnológico de Georgia, en Atlanta. Arkin dice que lo que inspira su trabajo no son las limitaciones éticas de los robots en batalla, sino las limitaciones éticas de los seres humanos. Cita dos incidentes en Irak, uno en el que pilotos de helicóptero estadounidenses supuestamente ejecutaron a combatientes heridos y otro en el que marines emboscados mataron a civiles en la ciudad de Haditha. Es posible que, bajo la influencia del miedo o el enojo, los marines hayan «disparado primero y preguntado después y, como resultado, murieron mujeres y niños», dice Arkin.
En la agitación de la batalla, los robots no se verían afectados por las emociones. Por lo tanto, es menos probable que cometan errores bajo fuego, cree Arkin, y también que ataquen a no combatientes. En pocas palabras, los robots podrían tomar mejores decisiones éticas que la gente.
En el sistema de Arkin, un robot que trate de determinar si dispara o no estaría guiado por un «gobernador ético» en su software. Cuando un robot localizara y siguiera un blanco, el gobernador verificaría ciertas restricciones preprogramadas basado en las reglas de combate y en las leyes de la guerra. Un tanque enemigo en un campo grande, por ejemplo, es muy probable que recibiera luz verde; un funeral en un cementerio al que asisten combatientes enemigos armados estaría fuera de lo permitido.
Un segundo componente, un «adaptador ético», restringiría la selección de armas del robot. Si un arma demasiado poderosa puede causar daños no deseados -digamos un misil que podría destruir un edificio de departamentos además del tanque-, la artillería podría no estar permitida hasta que se ajustara el sistema. Esto es similar a un modelo robótico de culpas, dice Arkin. Finalmente, Arkin deja espacio para el juicio humano mediante un «asesor de responsabilidad», componente que permite a una persona anular el gobernador ético, programado de manera conservadora. El sistema no está listo para ser usado en el mundo real, admite Arkin, pero es algo en lo que él trabaja «para lograr que el ejército considere las implicaciones éticas. Y para lograr que la comunidad internacional piense en el asunto».
De nuevo en Carnegie Mellon, he vuelto para observar al equipo del proyecto Yume presentar su androide transformado a los académicos del Entertainment Technology Center. Yan Lin, programador del equipo, ha diseñado una interfaz de software amigable con el usuario para controlar con mayor fluidez los movimientos de Yume. Pero el intento por dotar a la robot de la capacidad para detectar rostros y hacer más realista el contacto visual solo tuvo éxito a medias. Primero sus ojos hacen contacto con los míos, luego su cabeza da un giro con un movimiento mecánico en dos tiempos. Para ayudar a ocultar sus movimientos espasmódicos y su contacto visual vacilante, el equipo ha imaginado una caracterización para Yume, la cual siempre tendería a actuar según el personaje: una joven, según el blog del proyecto, «un poco gótica, un poco punk, todo lo que pueda atraer tu atención desde el otro lado de la habitación».
No hay duda de que ella lo logra. Pero a pesar de su peculiar indumentaria -incluidos los largos guantes sin dedos diseñados para esconder sus rígidas manos de zombi y el lápiz labial oscuro que disimula su incapacidad para cerrar del todo la boca-, por debajo sigue siendo la misma Actroid-DER. Por lo menos ahora sabe cuál es su lugar. El equipo ha aprendido a reducir las expectativas y le ha dado a Yume un nuevo parlamento.
«No soy humana -confiesa-. Nunca seré exactamente como tú. Eso no es tan malo. En realidad, me gusta ser un androide». Impresionados por su progreso, los académicos le otorgan un 10 al equipo de Yume. El próximo mes, los técnicos vendrán a empacar la Actroid-DER para enviarla de regreso a Tokio. Christine Barnes se ofrece a sostener su cabeza colgante mientras la introducen en una caja. Los hombres se rehúsan con cortesía. Bruscamente sellan la caja donde está Yume, que todavía lleva puesta su curiosa vestimenta.