Visión y tecnología

“En cuestiones tecnológicas, la ética lo es todo y debe prevalecer en todo”

Gabriela Ramos es la responsable de sacar adelante la Declaración Universal de la Inteligencia Artificial que prepara la Unesco. Su objetivo: que nadie quede desamparado ante los posibles efectos negativos de la tecnología.

Gabriela Ramos, subdirectora general de Ciencias Sociales y Humanas de la Unesco.
Gabriela Ramos, subdirectora general de Ciencias Sociales y Humanas de la Unesco.Fernando Pérez

Gabriela Ramos puede presumir de una larga lista de medallas ganadas desde el frente de batalla de instituciones nacionales e internacionales. En México, su país natal, contribuyó al desarrollo del seguro popular para ampliar la cobertura médica, como directora de la oficina local de la Organización para la Cooperación y el Desarrollo (OCDE). Ya en los cuarteles generales de esta entidad en París tuvo la oportunidad de actuar como sherpa en una cumbre del G-20, facilitando, entre otras cosas, el avance de las negociaciones sobre evasión fiscal. También tomó parte en las conversaciones que condujeron a la eliminación de la ley tunecina que obligaba a las mujeres a casarse con su violador. “Hice muchas cosas”, resume Ramos, que desde el pasado mes de mayo ostenta el cargo de subdirectora general de Ciencias Sociales y Humanas de la Unesco.

Y, aun así, le quedan tareas pendientes. Uno de los grandes retos de su nuevo cargo (y de la humanidad entera en este siglo) es sacar adelante la que habrá de convertirse en la Declaración Universal de la Inteligencia Artificial: un marco normativo para asegurar el desarrollo ético de estas tecnologías. Por ahora, el ambicioso documento es poco más que un borrador de recomendación, pendiente de las revisiones de los países que, si todo sale según lo previsto, la adoptarán en la 41ª sesión de la Conferencia General de la Unesco en noviembre de 2021. Su arma secreta es la firme intención de lograr resultados concretos. “Yo no soy un funcionario internacional que busca las grandes declaraciones”, advierte.

P. La OCDE ya desarrolló unos principios para la inteligencia artificial. ¿Son proyectos comparables?
R. Cuando estaba trabajando en esos principios siempre les pregunté: “Oigan, ¿dónde está la ética?”. Porque ya estaban los que todos conocemos, que no es la primera vez que se habla de ellos: transparencia, rendición de cuentas, responsabilidad, seguridad… Y siempre me dijeron que la ética la tiene la Unesco. Me pareció una cosa muy loca pensar que la ética era privativa de una sola institución. La ética es todo, debe prevalecer en todo y debe informar todo.
P. ¿Es más difícil alcanzar un consenso cuando el proyecto es más global?
R. Siempre. Lo multilateral es complicado porque tienes que poner de acuerdo a países que aunque estuvieran totalmente alineados en la lectura de ciertos problemas, como el cambio climático, pueden discrepar en los detalles, en el “¿cómo lo vas a implementar?”. El éxito que tuvimos en la OCDE y lo que yo quiero replicar aquí es buscar fórmulas que nos permitan ser efectivos. Esta recomendación fue desarrollada por un grupo de expertos nombrados por la directora general, Audrey Auzolay. Yo les hice mucho hincapié en que necesitábamos tener una implementación clara, que no se dejara a la interpretación. Si los Estados miembros lo aprueban, nos van a dar un potencial verdadero de impacto.
Gabriela Ramos
Gabriela RamosFernando Pérez
P. ¿En qué se concreta esa estrategia?
R. Desarrollamos conceptos de evaluación de impacto ético, un análisis del nivel de preparación, porque obviamente cada país se encuentra en una situación muy distinta respecto de su madurez tecnológica y conocimiento de estos temas. Tenemos que explicar todo esto. No es responsabilidad de la gente informarse y adquirir las herramientas. Si dices “ética de la inteligencia artificial” suena a Aristóteles y nadie lo comprende. Nos toca a nosotros decir qué pasa cuando un banco utiliza su increíble base de datos para determinar a quién es factible asignar créditos y desde el principio no se hacen las preguntas éticas claves: ¿es mi base de datos representativa o voy a sesgar el resultado porque solo tengo a los más ricos del mundo? ¿Qué pasa con la población que ni siquiera está bancarizada?
P. Como dice, la inteligencia artificial ya está ahí fuera y la ética parece venir en camino. ¿Confían en tener alcance para corregir los desequilibrios que ya se han ido creando?
R. Desde el primer ejercicio de inteligencia artificial que se hizo, desde el primer entrenamiento de la primera computadora, no estábamos en el vacío. Existe una legislación internacional de derechos humanos. El problema es trasladar toda esa infraestructura al mundo digital porque los conceptos son distintos y el tipo de daño que se puede hacer por medio de estas tecnologías no está tan definido. En cualquier caso, nadie va a poder decir que los niños de tal región no tuvieron acceso a la escuela porque no existía la recomendación de la Unesco.
Si no alineamos estas tecnologías con los objetivos más amplios de la humanidad, no vamos a lograr tener sociedades más sostenibles. Es urgente. No podemos esperar.
P. Por lo pronto, la OCDE ya registra más de 300 iniciativas para el desarrollo de políticas que guíen estos sistemas en 60 países. ¿Avanzamos todos en el mismo sentido?
R. Yo creo que hay un entendimiento de lo que estamos tratando de hacer. Evidentemente hay compromisos: ¿Cuál es el nivel adecuado de regulación? Hay que proteger a los individuos de los impactos negativos, pero tampoco podemos sobrerregular para romper la innovación. En el caso de los países democráticos se comparte el valor de privilegiar el respeto al ser humano. El cómo hacerlo y a qué se le pone más valor es distinto. Y por eso tienes las grandes divergencias en términos de tratamiento de los datos. Son formas distintas de abordar el tema, pero en los objetivos de transparencia, protección al consumidor y a la infancia, no discriminación y no utilización de la tecnología para dañar a ciertos grupos hay una gran comunidad de valores. Pero la tecnología avanza a tal velocidad que evidentemente no es sencillo poner a todo el mundo de acuerdo. Y luego además hay un tema de competencia comercial: de las 15 mayores plataformas del mundo, 11 son estadounidenses.
P. ¿Hay más puntos de discordia?
R. Estos son los problemas más visibles, y nos han acompañado durante muchos años. Luego hay una reflexión ética que ni siquiera estamos en capacidad de abordar, que es el hecho de la falta de diversidad de estas tecnologías, de equipos y de diversidad lingüística y cultural. En las consultas regionales estaba esta preocupación: “No hablemos de computadoras, datos ni gobiernos. Hablemos de quiénes son los que están haciendo esta tecnología”. Ahí hay una deuda importante. Se está abriendo una brecha que hace palidecer a nuestras grietas analógicas.
P. ¿Se agravan las diferencias en el actual clima de crispación y preocupación profunda por la pandemia?
R. Quizá por la pandemia hay una conciencia más fina de la necesidad de tener un marco sólido en materia de ética de la inteligencia artificial. El CEO de Microsoft dijo que, debido a la pandemia, la economía digital avanzó en dos meses lo que hubiera avanzado en dos años al ritmo que llevaba. Para bien y para mal. Eso ha llevado a que nuestros países le den mucha más importancia e incluso se sientan orgullosos de su sabiduría porque, en noviembre del año pasado, antes de la pandemia, decidieron pedirle a la Unesco que viera el tema de la ética en la inteligencia artificial. ¿Va a facilitar la negociación? No lo creo. Pero espero que el sentirnos unidos en esta tragedia nos ayude a avanzar las soluciones para nuestros pueblos.
P. ¿Cuál puede ser el coste de seguir adelante sin poner en marcha este marco de funcionamiento?
R. Pues si vamos a estar tomando decisiones que lastiman a nuestros ciudadanos, imagínate. ¿Cuál es el coste de perpetuar la exclusión de los grupos que no tienen acceso a financiamiento? ¿Cuáles el costo de mantener a la mujer completamente aislada de estos desarrollos? ¿Cuál ha sido el costo de la utilización de la inteligencia artificial con motivos políticos? ¿Cuál es el costo de queestemos en cámaras de eco escuchando solo lo que nos gusta escuchar? Si no alineamos estas tecnologías con los objetivos más amplios de la humanidad, no vamos a lograr tener sociedades más sostenibles. Es urgente. No podemos esperar.
Más información
“La protección mínima no basta para quienes se encuentran en lo más bajo de la sociedad”
“Los ingenieros no están preparados para resolver cuestiones éticas”
Normas

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS