15.6 C
Antofagasta
viernes, 9 mayo, 2025
spot_img
Columna de opinión

No hay IA inocente: los algoritmos también tienen ideología

"Una de las grandes fantasías de la inteligencia artificial es su supuesta neutralidad. Nos vendieron que la IA era una especie de juez objetivo, que solo procesaba datos sin pasiones, sin ideologías, sin historia. Pero olvidamos un detalle mínimo: quien entrena a la IA no es un oráculo, es un humano. Y los humanos, querámoslo o no, venimos con mochila", Patricio Encina, Consultor - Doctor en Comunicación

Una de las grandes fantasías de la inteligencia artificial es su supuesta neutralidad. Nos vendieron que la IA era una especie de juez objetivo, que solo procesaba datos sin pasiones, sin ideologías, sin historia. Pero olvidamos un detalle mínimo: quien entrena a la IA no es un oráculo, es un humano. Y los humanos, querámoslo o no, venimos con mochila.

También te puede interesar: La IA puede ser inteligente, pero poco creativa (aún)

Cada vez que una IA comete un “error” —como confundir un rostro afroamericano, sugerir que una mujer no es apta para un cargo técnico, o censurar ciertos discursos políticos más que otros— no estamos viendo un fallo del sistema, sino el reflejo de nuestros sesgos amplificados a escala digital.

En 2018, Amazon tuvo que desechar su IA de reclutamiento. ¿La razón? El sistema descartaba sistemáticamente los CV de mujeres. ¿Por qué? Porque fue entrenado con datos de contrataciones previas, hechas en su mayoría por hombres y para hombres. La IA no era machista. Solo había aprendido “del mejor”.

Casos como este abundan. Los sistemas de reconocimiento facial de IBM o Microsoft funcionaban mucho peor con rostros de mujeres negras. Google Fotos llegó a etiquetar a personas afroamericanas como “gorilas”. ¿La solución? Borrar la etiqueta. No corregir el algoritmo, no repensar los datos. Solo… eliminar la palabra.

Y si creías que los sesgos solo operaban en términos de raza o género, hay más. Los algoritmos también cargan con visiones políticas y culturales. Hace poco, el presidente salvadoreño Nayib Bukele le preguntó a Grok —la IA de Elon Musk— quién era el presidente más popular del mundo. Esperaba, por supuesto, leer su nombre en el resultado. Pero la respuesta fue Claudia Sheinbaum, presidenta de México. ¿Sesgo progresista? ¿Más menciones en prensa internacional? ¿Un modelo entrenado con medios que no cubren Centroamérica con el mismo entusiasmo? Puede ser todo eso junto. O nada de eso.

Incluso ChatGPT ha sido acusado de tener sesgo político. El Manhattan Institute publicó un estudio que sugiere que la IA tiende a censurar más contenido de derecha que de izquierda. Esto es solo parcialmente verificable: otros análisis muestran resultados mixtos o contradictorios. Es un tema complejo donde influyen tanto los datos de entrenamiento como las políticas de seguridad implementadas posteriormente. Y aunque no se puede afirmar categóricamente que el modelo de OpenAI sea más conservador o progresista, la empresa ha reconocido la dificultad de eliminar completamente los sesgos y sigue trabajando en ello.

En síntesis: no hay IA inocente. No porque sea maliciosa, sino porque ha sido entrenada con la historia de nuestras decisiones, nuestros prejuicios y nuestros silencios. A veces, la IA no alucina: simplemente repite lo que más veces escuchó.

Por eso, la próxima vez que un algoritmo te sugiera un contenido, bloquee una opinión o se equivoque con una cara, no lo culpes del todo. Mírate al espejo. Porque quizás, lo más artificial no es la inteligencia, sino lo humano que dejamos sin cuestionar.

Quieres saber más sobre IA, sigue la cuenta https://www.instagram.com/nadia.personalia/

COMPARTE ESTA NOTICIA

- publicidad -spot_img
- publicidad -spot_img
- publicidad -spot_img
- publicidad -spot_img
- publicidad -spot_img
- publicidad -spot_img