Durante un experimento de 2016 en Google, con sede en Mountain View, California, los investigadores le dieron a un robot la tarea de levantar una engrapadora rosa. Los artículos coloridos que había visto anteriormente eran ropa suave de bebé, por lo que la máquina pensó que la engrapadora también “tenía que ser suave”, dijo Sergey Levine, el científico que dirigió el experimento. Pero la estrategia de pellizco que había usado anteriormente no funcionó en este caso. El robot resultó frustrado por el escenario inesperado.

En una fábrica, los movimientos de un robot están precisamente coreografiados. Los ingenieros deben reprogramar la máquina para cualquier cambio en su rutina. A medida que los sistemas automatizados se vuelven más comunes en las empresas, hogares y en nuestras carreteras, los investigadores intentan hacerlos más adaptables y receptivos.

Y para funcionar bien fuera de las configuraciones controladas, los robots deben ser capaces de aproximarse a las capacidades que tienen los seres humanos tales como la inteligencia social y la coordinación mano-ojo. Pero, ¿cómo traducirlos en un código?

“Resulta que eso es realmente difícil”, dijo Cynthia Breazeal, una especialista en robótica de Media Lab del Massachusetts Institute of Technology, o MIT. Los investigadores están experimentando con la inteligencia artificial para ver cuánto pueden mejorar las capacidades de los robots, dijo la doctora Breazeal, quien también es la fundadora de la empresa social-robótica Jibo de reciente creación.

Hasta el momento, la inteligencia artificial tiene límites prácticos serios. En un artículo reciente, por ejemplo, los investigadores del MIT describieron cómo su programa de Inteligencia Artificial (IA) identificó erróneamente una tortuga impresa en 3-D como un rifle después de que el equipo alteró sutilmente el color y la iluminación del reptil. El experimento demostró la facilidad para engañar a la IA y planteó preocupaciones de seguridad sobre su uso en aplicaciones del mundo real, como los autos sin conductor y el programa de reconocimiento facial.

Los sistemas actuales tampoco son excelentes para aplicar lo que han aprendido a situaciones nuevas. Un artículo recién publicado por la nueva empresa de IA Vicarious, mostró que una IA competente que juega Atari pierde su destreza cuando los investigadores cambian las características familiares del juego.

Defense Advanced Research Projects Agency, la rama de investigación y desarrollo del Departamento de Defensa de Estados Unidos inició recientemente un programa planificado de 65 millones de dólares llamado Lifelong Learning Machines para desarrollar sistemas de IA que puedan manejar nuevos desafíos sin una capacitación adicional, dijo la administradora del programa Hava Seigelmann. Cuando las condiciones cambian, dijo: “Necesitamos algo que funcione de inmediato”.

Firmas que incluyen a Google de Alphabet, Autodesk, OpenAI, además de un grupo de nuevas empresas y académicos, están probando técnicas que creen que podrían ayudar a volver más flexibles los sistemas de inteligencia artificial y a los robots con inteligencia artificial.

La filial DeepMind de Google utilizó una técnica conocida como aprendizaje de refuerzo para construir programas que han superado repetidamente a los mejores jugadores humanos en Go. Mientras aprendía el clásico juego chino, la máquina obtuvo comentarios positivos por realizar movimientos que aumentaban el área que rodeaba de su competidor. Su búsqueda de una puntuación más alta incitó a la IA a desarrollar tácticas para tomar territorio hasta que dominara el juego.

El problema es que “en el mundo real no hay puntaje”, dijo la especialista en robótica Stefanie Tellex de Brown University. Los ingenieros necesitan codificar en programas de IA las llamadas “funciones de recompensa”, formas matemáticas de decirle a una máquina que ha actuado correctamente. Más allá del escenario finito de un juego, en medio de la complejidad de las interacciones de la vida real, es difícil determinar qué resultados reforzar. ¿Cómo y con qué frecuencia deberían los ingenieros recompensar a las máquinas para guiarlas a realizar una determinada tarea?

“La señal de recompensa es muy importante para hacer que estos algoritmos funcionen”, dijo Tellex.

Traducido por  Luis Felipe Cedillo

Editado por Michelle del Campo               

Copyright © 2017 Dow Jones & Company, Inc. All Rights Reserved

 

 


Fecha de publicación: 28/12/2017