En la nube
Columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Esta inteligencia artificial me tiene manía

Los algoritmos reproducen los prejuicios de sus creadores y de la sociedad

Ilustración de Glez

Ha llegado el momento en que la inteligencia artificial toma decisiones que afectan a nuestras vidas: si se nos elige para un empleo, si se nos concede una hipoteca, si nos aceptan en una universidad, si podemos cruzar una frontera, si la policía debe vigilarnos antes de que cometamos un delito, el precio de una póliza sanitaria. El algoritmo se convierte en un juez que no da posibilidad de apelación. ¿Por qué no me suben el límite de la tarjeta de crédito? Porque el ordenador me lo impide, dirá el empleado bancario, todavía de carne y hueso. ¿Y puedo saber por qué el ordenador lo impide? No intente averiguar cómo funciona, será la respuesta.

Un gran debate en torno a la inteligencia artificial es si está libre de prejuicios –sería lo esperable, pues un programa debe responder a datos objetivos–; o si, por el contrario, las máquinas reproducen nuestras manías, porque aprenden de nosotros, que las tenemos. La conclusión de quienes lo han estudiado es que, incluso cuando aprenden solas, la IA asume el sesgo de la sociedad que analizan. Sesgos históricos de sexo, de clase, étnicos, xenófobos.

No es una especulación: está estudiado. Como en el informe Gender Shades, que en 2018 detectó que los programas de reconocimiento facial fallaban más con mujeres y minorías étnicas. El programa Watson, de IBM, se equivocaba hasta un 35% de las veces en mujeres negras, pero solo un 1% con hombres blancos. La compañía creó un equipo para corregir a Watson; redujo los errores, pero no ha conseguido erradicarlos.

Un asunto más delicado: la inteligencia artificial aplicada a la defensa o al orden público. En las guerras ya se utilizan drones que no solo se dirigen a un objetivo, sino que lo eligen. La policía ya empieza a trazar perfiles de sospechosos mediante IA: trata de anticiparse a delitos que nadie ha cometido todavía.

Podemos perfeccionar los programas, liberarlos de nuestros arraigados recelos hacia lo diferente, pero hay un problema de base: qué datos sirven para que la máquina aprenda a tomar decisiones. Si son los datos históricos de criminalidad en EE UU, por ejemplo, arrastramos siglos de sesgo racista allí, y no solo allí. Si son los datos de solvencia económica en cualquier lugar, se verá el efecto de siglos de patriarcado.

Catherine D’Ignazio, profesora de Ciencia en el MIT y autora del libro Data Feminism, lo tiene claro. “Los datos no serán neutrales jamás porque nunca son datos ‘crudos’. Están producidos por seres humanos que vienen de lugares determinados, tienen sus propias identidades, sus historias particulares y que trabajan en instituciones concretas”.

La cuestión de fondo es si la inteligencia artificial tiene que responder a cómo somos o, mejor, a cómo queremos ser.

Más información

Inicia sesión para seguir leyendo

Sólo con tener una cuenta ya puedes leer este artículo, es gratis

Gracias por leer EL PAÍS

Sobre la firma

Es subdirector de EL PAÍS. Licenciado en Ciencias de la Información, ejerce el periodismo desde 1988. Inició su carrera en Ya y trabajó una década para Diario 16. Ha sido director de Cinco Días y de Tribuna de Salamanca. En EL PAÍS ha sido redactor jefe de Sociedad, de Babelia y de la mesa digital, además de columnista.

Normas

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Logo elpais

Ya no dispones de más artículos gratis este mes

Suscríbete para seguir leyendo

Descubre las promociones disponibles

Suscríbete

Ya tengo una suscripción