Los robots están aquí

Robots capaces de pensar, actuar y relacionarse con nosotros. ¿Estamos preparados?

Alguien teclea una orden en un portátil, y Actroid-DER se incorpora. El aire comprimido que circula bajo su piel de silicona pone en marcha unos accionadores que hacen que levante los brazos y contraiga

las comisuras de la boca en una recatada sonrisa. Recorre con la vista la sala donde se encuentra, parpadea, y entonces gira la cara hacia mí. No puedo evitar que mi mirada humana se cruce con la suya, mecánica. «¿Te sorprende que sea una robot? –me pregunta–. ¿Verdad que parezco humana?»

Su comentario programado tiene, sin embargo, el desafortunado efecto de hacerme sentir lo contrario. Diseñada en Japón por Kokoro Company, la androide Actroid-DER se puede alquilar como futurista azafata de congresos. Pero a pesar de los 170.000 euros invertidos en su desarrollo, sus movimientos carecen de elegancia, y la rigidez de sus facciones confiere a su atractivo rostro un aire lunático. Además, parece quedarse dormida entre frase y frase, como si hubiera consumido algo más que simplemente electricidad.

Mientras otros modelos más avanzados de Actroid recorren las exposiciones tecnológicas, éste ha sido enviado a la Universidad Carnegie Mellon, en Pittsburgh, para que adquiera algo semejante a una personalidad. Al menos así lo esperan cinco optimistas estudiantes del Centro de Tecnología del Espectáculo de esta universidad, que disponen de 15 semanas para que el robot femenino se torne mucho más femenino y mucho menos robot. Para empezar le han puesto de nombre Yume, «sueño» en japonés.

«La firma Kokoro la diseñó para que su físico pareciera real, pero eso no es suficiente –dice Christine Barnes, uno de los cinco participantes del Proyecto Yume–. Ahora nos centraremos me­­nos en el realismo y más en la credibilidad.»

Los androides Actroid pertenecen a una nueva generación de robots que no han sido diseñados para funcionar como máquinas industriales programadas sino como agentes cada vez más autónomos capaces de desempeñar tareas que antes sólo realizábamos los humanos. La avanzadilla de este ejército la componen los robots aspiradores que recorren la casa limpiando el suelo y las mascotas electrónicas que obedecen órdenes pero nunca ensucian la alfombra. Muy pronto podríamos tener a nuestra disposición robots más sofisticados capaces de cocinar, doblarnos la ropa limpia e incluso cuidar a los niños o atender a nuestros padres ancianos, mientras nosotros los controlamos a través de un ordenador a kilómetros de distancia.

«Dentro de cinco o diez años será frecuente ver robots funcionando entre seres humanos», asegura Reid Simmons, profesor de robótica en Carnegie Mellon.

Semejante perspectiva plantea un montón de preguntas. ¿Qué proporción de actividad humana diaria queremos delegar en las máquinas? ¿Qué aspecto deberían tener los robots? ¿Queremos androides como Yume pululando por nuestras cocinas o preferimos un brazo mecánico atornillado a la pared que tal vez haga mejor el trabajo sin producirnos aprensión? ¿Cómo cambiará la revolución de los robots nuestra manera de relacionarnos con los demás? Una entrañable foca robótica diseñada en Japón para divertir a los ancianos de las residencias ha desatado las críticas de quienes creen que podría aislar a los mayores del contacto con otras personas. Temores similares suscitan los futuros robots para cuidar niños, por no hablar de los ocasionales intentos de crear androides románticos, siempre dispuestos para el amor. El año pasado una empresa de Nueva Jersey presentó un robot «acompañante» que habla y es sensible al tacto, lo que plantea la posibilidad de otro tipo de aislamiento humano.

En pocas palabras: ¿Estamos preparados para ellos? ¿Están ellos preparados para nosotros?

En un edificio situado más o menos a un kilómetro del Centro de Tecnología del Espectáculo se encuentra HERB. Está sentado, inmóvil, sumido en sus pensamientos. Su nombre son las siglas en inglés de Mayordomo Robótico Ex­­plorador del Hogar (Home Exploring Robotic Butler), y está siendo desarrollado por Carnegie Mellon en colaboración con los laboratorios Intel de Pittsburgh como un prototipo de robot de servicio que en un futuro no muy lejano po­­dría atender a ancianos y discapacitados. HERB es un artefacto poco agraciado, con ruedas en lugar de piernas y un revoltijo de ordenadores en lugar de cuerpo. Pero a diferencia de la hermosa Yume, HERB tiene algo comparable a una vida mental. Ahora mismo, el robot está mejorando su funcionalidad, mediante el estudio de diferentes situaciones en las que podría manipular los objetos almacenados en su memoria: ¡decenas de miles de situaciones por segundo!

«Yo digo que está soñando –dice Siddhartha Srinivasa, profesor del Instituto de Robótica de Carnegie Mellon y artífice de HERB, refiriéndose a los momentos en que el robot parece perdido en sus pensamientos–. Eso ayuda a entender intuitivamente que el robot se está visualizando a sí mismo haciendo cosas.»

Los robots tradicionales, como los brazos sol­dadores de las fábricas de coches, se pueden programar para que realicen una secuencia muy precisa de una tarea, pero siempre dentro de un marco rígidamente estructurado. Para desenvolverse en espacios humanos, los robots como HERB necesitan percibir e interactuar con objetos desconocidos y moverse sin chocar con personas que también están en movimiento. El sistema de percepción de HERB consiste en una videocámara y un dispositivo láser de orientación, montados sobre una varilla encima del brazo mecánico. A diferencia de los brazos robóticos industriales que funcionan con un sistema hidráulico, el brazo de HERB se mueve por un mecanismo de cables semejantes a los tendones humanos, que sienten la presión. Es una sutileza necesaria si lo que buscamos es un robot capaz de acompañar a una anciana al cuarto de baño sin aplastarla con la puerta.

En el laboratorio, uno de los estudiantes de Srinivasa pulsa un botón para dar la orden de recoger un tetrabrik pequeño de zumo que está en una mesa cercana. El láser de HERB empieza a girar, creando una cuadrícula tridimensional donde sitúa a las personas y los objetos que hay alrededor; a continuación la cámara apunta a un candidato probable del tetrabrik buscado. Lentamente, el robot se acerca y coge el zumo, manteniéndolo en posición vertical. Cuando se le pide, lo deposita suavemente sobre la mesa. La hazaña puede parecer poca cosa para los no iniciados. «Cuando se lo enseñé a mi madre –dice Srinivasa–, me costó explicarle por qué HERB tiene que pensar tanto para coger una taza.»

El problema no es HERB, sino los precedentes con los que lo comparamos. Coger una bebida es muy sencillo para los humanos, cuyos cerebros han evolucionado a lo largo de millones de años para coordinar con precisión este tipo de tareas. También es muy fácil para los robots industriales programados específicamente para esa función. La diferencia entre un robot social como HERB y un robot industrial convencional es que el primero sabe que el objeto en cuestión es un tetrabrik de zumo y no una taza de té o un vaso de leche, que tendría que manipular de otra manera. Explicar cómo lo entiende requiere muchas matemáticas y ciencias informáticas, pero en última instancia todo se reduce a «recibir información y procesarla de forma inteligente en el contexto de lo que él ya sabe acerca de su mundo y sus características», explica Srinivasa.

Cuando HERB halla un objeto nuevo, unas reglas previamente aprendidas guían el movimiento de su brazo y su mano, sensibles a la presión. ¿Tiene asa? ¿Se puede romper o derramar?

Lógicamente, el mundo donde HERB está aprendiendo a desenvolverse es un ambiente controlado de laboratorio. Programarlo para que funcione en espacios humanos reales será mucho más complejo. Ahora dispone de un timbre digital de bicicleta, que hace sonar cuando se acerca a una persona para anunciar su presencia. Si hay mucho movimiento y mucha gente en una habitación, el robot hace lo más seguro: se queda quieto, tocando el timbre a todo el mundo.

Esta estrategia funciona en el laboratorio pero no tendría tanto éxito en una oficina. Los humanos extraemos información de un complejo len­guaje inconsciente de movimientos corporales: sabemos cómo esquivar amablemente a una per­sona que se interpone en nuestro camino, y cuándo estamos invadiendo el espacio personal de alguien. Según estudios realizados en Carnegie Mellon y otros lugares, la gente espera que los robots sociales sigan las mismas reglas. Snackbot, otro robot móvil que están desarrollando en Carnegie Mellon, recibe pedidos y sirve tentempiés en la Facultad de Informática. A veces se equivoca con el pedido o con la vuelta, pero los clientes están más dispuestos a disculparlo si el robot les avisa de antemano que puede cometer errores o si les pide perdón cuando falla.

Al igual que muchos robots sociales, Snackbot es un tipo de aspecto simpático, con una estatura de casi metro y medio y facciones de personaje de cómic, sólo vagamente humanas. Eso ayuda a reducir las expectativas y a no caer en el llamado «valle inquietante», un término que acuñó hace más de 40 años el japonés Masahiro Mori, pionero de la robótica. Mori observó que nuestra reacción ante los robots de aspecto y movimiento humanos es positiva hasta cierto punto, pero que a partir del momento en que empiezan a parecerse demasiado a una persona, dejan de parecernos simpáticos y rápidamente se vuelven desagradables.

Aunque la mayoría de los diseñadores de robots no ven razón alguna para acercarse a ese precipicio, unos pocos consideran que el valle inquietante es un terreno que debemos cruzar si queremos llegar algún día a un futuro de robots cuya apariencia, movimientos y forma de actuar sean lo bastante parecidos a nosotros como para inspirarnos empatía en lugar de rechazo. Probablemente el más intrépido de esos exploradores es Hiroshi Ishiguro, el creador de la inquietante Yume, también conocida como Actroid-DER. Ishiguro ha supervisado el desarrollo de una legión de robots innovadores para explorar ese delicado aspecto de la llamada «in­­teracción entre humanos y robots» (IHR). Sólo este último año ha participado en la creación de Geminoid DK, una réplica asombrosamente realista de un profesor de universidad danés, con perilla, barba de pocos días y sonrisa irresistible, así como de Elfoid, un robot-teléfono móvil de «telepresencia», con la forma y el tamaño de un diminuto bebé humano y casi igual de adorable. Cuando esté a punto, podremos llamar por teléfono a un amigo y su propio Elfoid reproducirá todos los movimientos de nuestro cuerpo.

Hasta el momento, la creación más famosa de Ishiguro es un modelo anterior de Geminoid que es su propio gemelo robótico. Cuando voy a visitarlo a los Laboratorios de Robótica Inteligente y Comunicación ATR, en Kyoto, los dos me reciben vestidos de negro de pies a cabeza. El robot, sentado en una silla detrás de Ishiguro, tiene su mismo cabello negro y una expresión grave, pensativa. Ishiguro también es profesor en la Universidad de Osaka, a dos horas de distancia, y dice que creó a su doble de silicona para poder estar en dos sitios a la vez. De hecho, puede controlar el robot a través de Internet me­­diante un sistema de sensores del movimiento para que su doble interactúe con sus colegas en ATR mientras él imparte clases en Osaka. Como otros pioneros de la IHR, Ishiguro no sólo está interesado en explorar y ampliar las fronteras tecnológicas sino también las filosóficas. Sus androides son sondas de exploración cognitivas, espejos imperfectos diseñados para revelar qué es lo esencialmente humano mediante la creación de aproximaciones cada vez más precisas, la observación de nuestras reacciones ante ellas y el uso de esas reacciones para crear robots humanoides aún más convincentes.

«Usted cree que yo soy real y que él no es hu­­mano –dice–, pero a medida que avance la tecnología esta distinción se hará cada vez más difícil. Si finalmente no nota la diferencia, ¿será realmente importante saber si está interactuando con un humano o con una máquina?» Un uso ideal para su gemelo sería dejarlo en casa de su madre, que vive lejos, para que ella pudiera disfrutar más a menudo de su compañía.

«¿Por qué iba a aceptar su madre a un robot?», le pregunto.

Dos rostros me miran, frunciendo del mismo modo el ceño. «Porque soy yo», dice uno de ellos.

Para que las versiones robóticas de los hijos puedan interactuar con las madres como lo harían los auténticos vástagos, se necesitará mucho más que una imitación perfecta. Pensemos por ejemplo en las dificultades de HERB para moverse por los ambientes humanos más simples. Otros robots están haciendo incursiones en el complejo terreno de los estados mentales y las emociones humanas. Nilanjan Sarkar, de la Universidad Vanderbilt, y su antigua colega Wendy Stone, ahora en la Universidad de Washington, desarrollaron un prototipo de sistema robótico capaz de jugar un sencillo juego de pelota con niños autistas. El robot mo­­nitoriza las emociones del niño midiendo ligerísimos cambios en la frecuencia cardíaca, la sudoración, la mirada y otros signos fisiológicos, y cuando percibe aburrimiento o irritación, cambia el juego hasta que las señales indican que el niño se vuelve a divertir. El sistema todavía no es lo bastante perfecto para que resulte útil en las complejas interacciones lingüísticas y físicas de una terapia real, pero es un primer paso para reproducir uno de los rasgos humanos fundamentales: la conciencia de que los demás tienen emociones y pensamientos, y la adaptación de nuestra conducta en consecuencia.

En un artículo de 2007 publicado con el provocativo título «¿Qué es humano?», Peter Kahn, psicólogo del desarrollo de la Universidad de Washington, junto con Ishiguro y otros colegas, propuso un conjunto de nueve criterios psicológicos para medir el éxito en el diseño de robots humanoides. El artículo no hacía hincapié en las capacidades técnicas de los robots sino en el modo en que los humanos los perciben y tratan.

Consideremos uno de los criterios: el «valor moral intrínseco», el hecho de atribuirles las mismas consideraciones morales básicas que atribuimos de forma natural a las personas. Kahn puso a un grupo de niños y adolescentes a jugar a las adivinanzas con un humanoide pequeño y simpático llamado Robovie. Tras varias rondas, uno de los investigadores interrumpía el juego cuando era el turno de Robovie y decía al robot que había llegado la hora de guardarlo en el armario. Robovie protestaba y decía que no era justo no poder jugar cuando era su turno.

«Eso no importa, porque eres un robot», le respondía el investigador. Robovie seguía protestando desolado, mientras se lo llevaban ro­­dando. Lógicamente, el interés no radicaba en la conducta del robot (que estaba siendo manejado por otro investigador), sino en la reacción de los humanos.

«Más de la mitad de los participantes en la prueba dijeron estar de acuerdo con Robovie en que era injusto guardarlo en el armario, lo que constituye una respuesta moral», dice Kahn.

El hecho de que los humanos, y en particular los niños, puedan sentir empatía por un robot tratado injustamente no es extraño; al fin y al cabo, los niños establecen lazos afectivos con todo tipo de muñecos. Pero que un robot formule juicios morales por sí mismo parece un objetivo más distante. ¿Será posible construir máquinas poseedoras de una conciencia, quizás el más humano de todos los atributos humanos?

Un sentido de lo ético sería útil en situaciones que someten a prueba la moral humana, como por ejemplo un conflicto bélico. Se están preparando robots para que desempeñen papeles cada vez más complejos en situaciones de combate, en forma de bombarderos y vehículos terrestres con ametralladoras y granadas dirigidos a distancia. Varios países están desarrollando modelos que quizás algún día puedan decidir por sí solos cuándo (y a quién) disparar.

El investigador que más lejos ha llegado en el desarrollo de robots éticos es Ronald Arkin, del Instituto Tecnológico de Georgia, en Atlanta. Según Arkin, lo que inspira su trabajo no son las limitaciones éticas de los robots en el campo de batalla sino las de los seres humanos.

En el fragor del combate, los robots no se verían afectados por emociones cambiantes. En consecuencia, sería menos probable que cometieran errores bajo el fuego enemigo y que causaran bajas entre la población civil, piensa Arkin. En otras palabras, podrían tomar mejores decisiones éticas que las personas. En el sistema de Arkin, para decidir si debe disparar o no, el robot se guiaría por un «director ético» programado en su software. Cuando el robot apuntara a un objetivo, el director ético realizaría una serie de comprobaciones predeterminadas, basadas en las reglas de enfrentamiento y las leyes internacionales. Un carro de combate enemigo, por ejemplo, se consideraría seguramente un objetivo aceptable, pero un funeral al que hubieran asistido soldados enemigos armados no lo sería.

Un segundo componente, el «adaptador ético», limitaría las armas que el robot pudiera elegir. Si un arma demasiado potente causara daños no intencionados (por ejemplo, si un misil destruyera un edificio de apartamentos además del carro de combate), entonces su uso quedaría limitado hasta que el sistema fuese ajustado. Por último, el investigador deja espacio al juicio humano mediante un «consejero de responsabilidad», un componente que permite a una persona anular las decisiones del director ético. Arkin reconoce que el sistema no está listo para su uso en el mundo real, pero afirma que está trabajando «para que los militares consideren las implicaciones éticas y para que la comunidad internacional reflexione al respecto».

En Carnegie Mellon, es la última semana del trimestre de primavera. He vuelto para ver la presentación que el equipo del Proyecto Yume va a hacer de su androide transformado ante el claustro del Centro de Tecnología del Espectáculo. Yan Lin, la programadora informática del equipo, ha diseñado una interfaz fácil de usar que controla con mayor facilidad los movimientos de Yume. Pero el intento de que la robot aprenda a detectar caras y establezca un contacto visual más realista sólo ha tenido un éxito parcial. Primero sus ojos se encuentran con los míos, y luego su cabeza gira de una manera me­­cánica y poco natural. Para disimular la falta de fluidez de sus movimientos y el exiguo contacto visual, el equipo ha inventado para Yume una personalidad que podría impulsarla a actuar de esa manera, con su vestimenta correspondiente: la de una joven que, según el blog del proyecto, es «un poco gótica y un poco punk, interesada en llamar la atención desde la otra punta de la sala».

Y lo consigue. Pero pese a su atuendo moderno, por debajo, sigue siendo la misma Actroid-DER de siempre. Al menos se ha vuelto más humilde. El equipo ha descubierto el valor de reducir de entrada las expectativas y le ha dado a Yume un nuevo discurso introductorio.

«¡No soy humana! –confiesa–. Nunca seré exactamente como vosotros, pero eso no es tan malo. Me gusta ser una androide.» Impresionados con los progresos del equipo, los profesores le dan un 10. Al mes siguiente, los técnicos de Kokoro llegan para recoger a la Actroid-DER y enviarla a Tokyo. Christine Barnes se ofrece para sujetar la bamboleante cabeza de la robot mientras los técnicos intentan meterla en una caja. Los hombres rechazan cortésmente la ayuda y, sin contemplaciones, empaquetan a Yume, vestida aún con su traje de chica moderna.