La tecnología que enseña a los robots a ‘pensar’ como humanos

El aprendizaje automático abre las puertas a un mundo en el que humanos y máquinas coexistirán en equipo

A finales de los años 1950, el informático Arthur Samuel creó un programa para jugar a las damas, utilizando un algoritmo sencillo para descubrir los mejores movimientos para ganar. Samuel entrenó el ordenador con una copia de sí mismo (el self play) y con una base de datos en la que estaban registrados centenas de partidos. Era el inicio del machine learning (aprendizaje automático), una rama de la inteligencia artificial (IA) que permite que las máquinas aprendan sin ser explícitamente programadas. Casi siete décadas después de ese juego, esa tecnología tiene aplicaciones tan diversas como el diagnóstico de un cáncer o la construcción de coches autónomos. Hace unos días se dio a conocer su último invento: Sophia, un androide desarrollado por la compañía Hanson Robotics, que acaparó todas las atenciones en la feria tecnológica de Ginebra.

"Es una tecnología aplicable a prácticamente todos los campos en los que haya datos disponibles", explica a EL PAÍS Thomas Dietterich, uno de los padres del machine learning como campo de investigación. El experto menciona ejemplos que van desde los algoritmos usados en el mundo de los negocios para identificar posibles compradores de un producto hasta los sistemas utilizados por los gobiernos para solucionar problemas en infraestructuras como autopistas e hidroeléctricas. Otros ejemplos más cercanos son los sistemas de traducción automática en Skype, el reconocimiento facial de las cámaras de los móviles y los asistentes virtuales, apuestas de empresas como Google y Microsoft para aproximar la tecnología al usuario final.

Cortana, el asistente virtual de Microsoft, cuenta con 145 millones de usuarios y la compañía pretende “desarrollarlo hasta el punto en que se comunique directamente con otras IAs para ofrecer al usuario cualquier tipo de información o servicio, desde la compra de un zapato hasta la entrega de una pizza en casa”, según cuenta Ester de Nicolás, líder del equipo de Evangelismo Técnico de la empresa. “Nuestro objetivo es democratizar el acceso al machine learning”, afirma. La principal apuesta en ese sentido es la plataforma de aprendizaje automático en Azure, un servicio de análisis en la nube que permite crear e implementar modelos de máquinas según las necesidades de cada usuario.

Google centra su estrategia en TensorFlow, un almacén de experiencias y resultados de experimentos que usa para que sus aplicaciones tomen mejores decisiones, y que tiene datos abiertos desde 2015. La plataforma ha sido utilizada por diferentes desarrolladores y empresas en todo el mundo para cosas tan dispares como aumentar la producción de leche en vacas o crear un modelo para predecir la compatibilidad entre donante y receptor en los trasplantes de órganos. Pero Google quiere más: “Estamos trabajando en robots que puedan hacerse cargo de situaciones peligrosas y llegar a sitios a los que los seres humanos no podemos llegar, como en la central nuclear de Fukushima”, cuenta Andrés Leonardo Martínez, ingeniero informático de la compañía.

Riesgos y errores

Además de hacer proyecciones para el futuro, los expertos también se preguntan cuáles son los riesgos de un mundo en el que robots se adaptan y aprenden a partir de la experiencia (como los seres humanos). Descartan, eso sí, un escenario de ciencia ficción donde las máquinas aniquilan la humanidad. “Creamos y programamos computadoras porque nos permiten hacer las cosas mejor. Imagino un futuro en el que una persona y un sistema de IA trabajan juntos como un equipo. En prácticamente todos los campos, la combinación de robots y personas es más poderosa. Un ejemplo famoso es conocido como ajedrez centauro, en el que compiten equipos mixtos de personas y ordenadores. Los mejores equipos centauro pueden derrotar a cualquier humano y cualquier computadora que juegue solo”, comenta Dietterich.

El investigador ve por lo menos dos papeles importantes para los humanos en el futuro: realizar tareas que exigen empatía y “comprensión profunda de otro ser humano” y asegurar que los robots no cometan errores. “Los problemas de toma de decisiones de alto riesgo a menudo involucran factores únicos. El aprendizaje automático solo funciona bien en problemas estables, cuando el mundo es altamente predecible y es fácil recolectar gran cantidad de datos de entrenamiento. En los problemas donde cada situación es única, es improbable que esa tecnología tenga éxito”, explica.

Ester de Nicolás sostiene que “preocuparse ahora mismo por la revolución de los robots es como preocuparse por la superpoblación en Marte”, pero señala que hay problemas que son menos visibles y de los que poco se habla, como el hecho de que los sistemas dependan de bases de datos, muchas veces privados y sesgados. “No siempre hay datos correctos. Estamos depositando muchísima confianza en AI, pero hay que tener más cuidado con esas cosas”.

Dietterich da un ejemplo de esa pega: algunas empresas utilizan el aprendizaje automático para decidir qué salario ofrecer a un empleado. Si los datos históricos demuestran que las mujeres han cobrado menos que los hombres, entonces el algoritmo recomendará ofrecer a ellas un sueldo más bajo. El experto defiende la creación de una regulación que determine pruebas de seguridad y una certificación específica para mitigar esos riesgos. Sebastian Farquhar, investigador del Instituto para el Futuro de la Humanidad opina, sin embargo, que es pronto para eso. “La legislación está subdesarrollada, y eso es algo bueno, porque la tecnología está cambiando constantemente. Creo, eso sí, que debemos ser más conscientes de los riesgos, porque hay mucho en juego”, dice. Mientras tanto, trabajan para que los robots aporten súper poderes físicos e intelectuales. “Espero el día en que me pondré un exoesqueleto para levantar 300 kg o correr largas distancias cuando tengo 80 años”, cuenta Dietterich.

Visto en: https://elpais.com/tecnologia/2017/06/13/actualidad/1497355219_887959.html