Antonio Torralba: “El sentido del tacto es esencial para desarrollar sistemas inteligentes capaces de aprender por sí solos”

Desde la Facultad de Inteligencia Artificial del MIT, que dirige, el investigador español trabaja en el desarrollo de sistemas que enseñen a las máquinas a percibir mejor el mundo gracias a sentidos como la visión, la audición y el tacto

El español Antonio Torralba, investigador y experto en Inteligencia Artificial del MIT.
El español Antonio Torralba, investigador y experto en Inteligencia Artificial del MIT.Lillie Paquette

Para Antonio Torralba (Madrid, 1971), el propósito de la inteligencia artificial se podría resumir en su búsqueda continua por intentar comprender los mecanismos de la inteligencia natural: “Qué somos nosotros, cómo percibimos el mundo y cómo funcionamos”, una pregunta que la humanidad ha querido responder desde que hacía pinturas rupestres en el interior de las cuevas. Entenderla para luego recrearla a través de sistemas complejos “que sean capaces de resolver tareas complejas y adaptarse a un mundo cambiante”. De Madrid a Mallorca, Barcelona, Grenoble y Boston, donde dirige la Facultad de Inteligencia Artificial y Toma de Decisiones del prestigioso Massachusetts Institute of Technology (MIT), la fascinación de Torralba con esta área del conocimiento comenzó en la adolescencia, cuando le regalaron un ordenador Commodore 64 y sintió el profundo deseo de “entender todo lo que pasaba dentro, cómo funcionaba y programarlo de mil maneras”.

Desde su laboratorio en el MIT, el grupo de investigación de Torralba trabaja en mejorar la percepción que las máquinas tienen del mundo que las rodea, incorporando sensores capaces no solo de ver y oír, sino también de interactuar con su entorno a través del tacto. “Si uno piensa, por ejemplo, en esos vídeos de robots que pueden verse en YouTube, te das cuenta de que perciben el mundo a través de cámaras y de algunos sensores de posición en las articulaciones, extremidades... mientras que el ser humano tiene el cuerpo cubierto de sensores: además de la visión y la audición, tenemos el sentido del tacto, que es (junto con la computación) esencial para desarrollar sistemas robóticos inteligentes capaces de aprender por sí solos”. La inteligencia artificial, afirma, es parte de nuestra propia evolución, y su desarrollo tiene ya infinidad de aplicaciones prácticas que solo mejorarán con el tiempo.

Pregunta. ¿Cómo ha cambiado la inteligencia artificial desde sus inicios en los años 50?

Respuesta. Ha habido varios cambios cualitativos. En los años 70, por ejemplo, eran muy populares los sistemas expertos, que basándose en la lógica y en el conocimiento de expertos en un área específica, intentaban hacer deducciones que sirvieran para resolver tareas muy concretas. Eran sistemas que requerían de mucha intervención humana, ya que un programador tenía que introducir todo ese conocimiento de una determinada manera. Y aunque hoy sigue haciéndose a mano, los sistemas ya son capaces de gestionar ingentes cantidades de datos poco procesados, como por ejemplo texto escrito, que no está pensado para que lo consuma una máquina.

El avance de la neurociencia permitió después el desarrollo de redes neuronales y otros sistemas análogos, según los que, para construir sistemas inteligentes, no era necesario que el ser humano introdujera reglas, sino que el sistema debía aprender por sí mismo a interpretar el mundo y a razonar. Nosotros supervisamos la máquina y le damos información sobre cómo tiene que resolver ciertas tareas, pero al final tiene que descubrirlo por sí misma. Y es a partir de 2012 cuando estos sistemas empezaron a resolver problemas de una forma mucho más eficiente.

P. ¿Qué importancia tienen los sentidos en el futuro de la inteligencia artificial?

R. Hoy en día, hay un gran énfasis en la computación. Se trabaja con sistemas muy complejos que procesan mucha información y que tienen que aprender a partir de muchos datos, y para resolver estos problemas hace falta mucha computación. Pero el ser humano funciona de una forma muy diferente; porque el énfasis en los sistemas biológicos está en la percepción del mundo. Tenemos muchos sensores que nos permiten percibir e interactuar con el mundo, y los sistemas artificiales aún no tienen esta capacidad.

Siempre pensamos que la visión es el sentido más importante que tiene el ser humano, y es verdad (de hecho, se dice que una tercera parte del cerebro está dedicado a procesar el sentido de la visión), pero el tacto no se queda muy por detrás, porque si la visión nos permite saber qué cosas están más allá, el tacto es lo que realmente nos permite entrar en comunicación directa con el mundo que nos rodea. Por eso estamos trabajando en desarrollar sistemas que aprendan a percibir el mundo integrando todos estos sentidos (visión, audición y tacto) y que sean capaces de aprender a descubrir objetos y sus propiedades, sin necesidad de que haya una persona proporcionando conocimientos sobre ellos.

P. La cuestión, claro, es cómo conseguirlo.

R. Bueno, en el fondo, el tacto no es diferente de la vista. Lo que hace el ojo es detectar la luz que proviene del espacio exterior, en una dirección particular. Con el tacto, cada sensor en la piel nos está indicando la presión que se ejerce en ese punto, aparte de otras funcionalidades como mediar la conductividad térmica. El tacto forma en la piel una imagen, un mapa de presión; y en el momento en que tienes una imagen de entrada, da lo mismo que esta sea en blanco y negro, en color o táctil. El hecho de que sea una imagen capturada por el ojo o por la piel no tiene ninguna diferencia desde el punto de vista computacional, o de cómo se va a tratar la señal más adelante.

P. ¿Qué aplicaciones prácticas puede llegar a tener este desarrollo?

R. La incorporación de información táctil en estos sistemas es algo más o menos reciente, lo cual genera un número importante de desafíos en los que estamos trabajando varios grupos de investigación. Y uno de esos retos es el de los sensores. El mundo de la visión es un área que lleva mucho tiempo investigándose, y hoy hay cámaras increíblemente sofisticadas, capaces de capturar imágenes que el ojo humano no puede percibir. Y lo mismo pasa con la audición. Sin embargo, en el mundo del tacto no hay esos avances, en parte porque hasta el momento no ha habido un interés comercial, y por otro, porque es un sensor bastante complejo: la cámara es un sensor que no cambia, pero la piel es un sensor que está cambiando de forma constantemente, porque cada vez que te mueves se deforma. Por eso, hay una serie de desafíos de ingeniería a la hora de diseñar estos sensores, que es una de las cosas que estamos haciendo en el MIT.

Uno de los problemas que tiene la robótica hoy en día es que no está aún al nivel de otras áreas de la inteligencia artificial. Por ejemplo, aún no tenemos robots en casa que sean flexibles y que nos ayuden con las tareas del hogar (aparte del Roomba, que no es muy sofisticado). ¿Por qué? Por un lado, tienes los problemas de la batería, porque a medida que tenga que hacer cosas más complejas, llegará un momento en que se quede sin batería en cinco minutos. Pero también perciben el mundo de una forma muy tosca. Y si tuviesen una piel sensible, serían capaces de entender, cuando entran en contacto con un objeto, cómo están entrando en contacto con él, si es peligroso el contacto o no, cuál es la fuerza de la colisión...

También se puede utilizar de otras maneras. Imagínate que, en vez de ser la piel, pones el sensor táctil en un objeto de la casa, como una alfombra. A partir de la imagen que tus pies producen al caminar sobre ella, como es de muy alta resolución, podemos ver la forma del pie, cuál es la presión que las diferentes partes del pie están ejerciendo sobre la alfombra y a partir de ahí deducir la postura del cuerpo, si estás andando o si estás haciendo algún ejercicio.... Y ello puede ser útil para, por ejemplo, aplicaciones de salud, donde necesites monitorizar a una persona, saber si está andando bien o no o qué dificultades tiene.

P. ¿Cuáles son algunas de las aplicaciones prácticas de la inteligencia artificial que ya podemos ver hoy, y cuáles podemos esperar en un futuro?

R. Es importante recordar que hay inteligencias de grados muy diferentes. Nosotros ya interactuamos constantemente con sistemas de inteligencia artificial: por ejemplo, cuando quieres hacer una foto con un móvil o una cámara digital, esta detecta la cara de la persona y la usa para regular la intensidad, la apertura de la cámara o el tiempo de enfoque. Hoy en día es un sistema muy sencillo, pero que entretuvo a los investigadores durante 20 o 30 años. Cuando interactúas con páginas web, hay motores de inteligencia muy sencillos por detrás.

Y luego está el mundo de la salud, donde la inteligencia artificial se ha ido incorporando desde sus orígenes: algunas de las primeras aplicaciones intentaban hacer sistemas de diagnóstico automático que pudiesen ayudar a un doctor a tomar algunas decisiones, y hoy en día muchos de los equipos que utilizan los médicos usan técnicas que provienen de la inteligencia artificial para, por ejemplo, capturar imágenes de resonancia magnética y ser capaces de procesar la señal y de formar una imagen que el médico pueda interpretar. Otra de las aplicaciones prácticas está en las operaciones asistidas, con sistemas robóticos que ayudan al cirujano a poder hacer tareas que serían muy difíciles, como por ejemplo una operación a corazón abierto. El sistema Da Vinci permite traducir lo que quiere hacer el cirujano encima de un corazón que está latiendo.

Todos estos sistemas parecen muy sorprendentes, pero en el fondo son muy sencillos desde el punto de vista de la inteligencia artificial. Pero nos vamos acercando a un tiempo en el que estos sistemas de IA van a empezar a ayudar a realizar tareas más complejas que requieren un esfuerzo cognitivo mucho más alto por parte de los médicos, como por ejemplo ayudar a diagnosticar enfermedades raras o a la hora de filtrar los casos más sencillos, para que puedan dedicarse a los casos más complejos, en los que la inteligencia artificial también puede ayudar. Y otra aplicación es la de facilitar el descubrimiento de nuevos tratamientos, nuevos antibióticos o medicamentos capaces de atacar enfermedades genéticas, algo que antes no se podía hacer.

P. ¿Qué pasará en la próxima década?

R. Hoy en día hay mucha investigación sobre cómo construir sistemas de IA que sean capaces de aprender, predecir y generalizar a partir de muy pocos datos, que, en el fondo y de alguna manera, es lo que hace el ser humano: nosotros no aprendemos con Big Data, y sin embargo aprendemos bastante bien (lo cual no quiere decir que si no tuviéramos más datos no aprenderíamos mejor). Hay muchos avances en esta dirección, y en eso estamos trabajando muchos grupos. Por ejemplo, estamos intentando construir un sistema que sea capaz de aprender sin ver nada en el mundo: en muchos seres biológicos, el sistema visual ya sabe ver un poco antes de nacer, gracias a las ondas retinales. Se genera una actividad espontánea en la retina con figuras aleatorias que sirven para que el sistema comience a entrenarse y a reconocer patrones de movimiento. Nosotros hemos estado explorando si podemos generar estas formas, para que un sistema visual artificial aprenda a partir de él y que luego funcione incluso con imágenes reales.

P. ¿Cuáles son los mayores desafíos a los que se enfrenta la IA en el futuro?

R. Hay, al menos, dos desafíos fundamentales. En primer lugar, educativo: la inteligencia artificial es una herramienta muy poderosa que permite amplificar nuestras capacidades en muchas áreas, por lo que tiene que haber una educación en IA, de la misma forma que es importante educarse en informática desde muy temprano. Todas las disciplinas tendrán herramientas de IA que resolverán una parte pequeña del problema en el que estás trabajando, o que te estarán ahí para darte información y asistirte.

El otro desafío es la interacción que existe entre la inteligencia artificial y la sociedad. La IA es un sistema inteligente que empieza a integrarse bastante bien en el comportamiento humano y puede amplificarlo, afectándolo de distintas maneras. Por eso es muy importante entender cuáles son los efectos que tiene, tanto positivos como negativos. La gente tiene que aprender a interactuar con la IA, su potencial y sus limitaciones; si una IA te recomienda algo, es muy importante comprender cuándo te puedes fiar o no de esa recomendación. Y luego hay un área de investigación importante que estudia la IA desde un punto de vista más humanístico, las implicaciones de estas tecnologías y su integración en la sociedad. Además, como hay muchas culturas diferentes, no van a tener el mismo efecto en una que en otra.

FORMACIÓN EL PAÍS en Twitter y Facebook

Suscríbase a la newsletter de Formación de EL PAÍS

EL PAÍS de la mañana

Despiértate con el análisis del día por Berna González Harbour
RECÍBELO

Sobre la firma

Nacho Meneses

Coordinador y redactor del canal de Formación de EL PAÍS, está especializado en educación y tendencias profesionales, además de colaborar en Mamas & Papas, donde escribe de educación, salud y crianza. Es licenciado en Filología Inglesa por la Universidad de Valladolid y Máster de Periodismo UAM / EL PAÍS

Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS