:)

Inteligencia Artificial

La Inteligencia Artificial también es una cuestión de género

Investigadores advierten riesgos de que las tecnologías tengan “actitudes machistas” a causa de datos sesgados

Published

on

Foto: HMB Media-Julien Becker

Mientras para muchos la tecnología es parte de la vida cotidiana con la ayuda de la Inteligencia Artificial, para otros las brechas sociales del mundo analógico también lleva a operar con datos sesgados en cuestiones de género, cuya solución para depurarlos aún se pasa por alto.

Para Aleksandra Przegalinska, investigadora de la Universidad de Harvard, quien destacó que una vez que se indague a fondo sobre la IA, serán los poderes públicos los que podrán notar con inmediatez que tal vez junto al potencial de esta tecnología puede venir un cierto abuso de poder.

En ese sentido, Przegalinska celebra una ley pionera que propuso la Comisión Europea y que contempla la inteligencia artificial desde la perspectiva del riesgo.

Lee: La inteligencia artificial es una solución para frenar el fraude financiero: INFORM

La investigadora dijo que existe una esperanza asociada a la IA y que eso es destacable, aunque también hizo hincapié en que existe un riesgo que está asociado a ella, o mejor dicho al mal uso de la misma, y se mostró contenta por la regulación que existe hacia esta tecnología.

Esta normativa la prepara Bruselas y contempla desde los usos que van de la Inteligencia Artificial, que conllevan un bajo riesgo, hasta los que llevan implícito un riesgo alto, y que según Przegalinska, varía en función del impacto en la vida humana que tenga esta tecnología.

“Pensemos en algo como la previsión del tiempo. No es algo que vaya a perjudicar a alguien si sólo le dices que va a llover. Es un problema menor, comparado con una situación en la que un algoritmo sesgado afirma que tienes una enfermedad que en realidad no tienes, o donde un algoritmo muy complejo te dice que no puedes obtener un préstamo y no sabes por qué”, destacó.

Mujeres, las más perjudicadas

Przegalinska sostuvo que son las mujeres las que se ven más afectadas con mayor frecuencia, dado que sus parámetros están infrarrepresentados en las bases de datos con las que llegan a operar los algoritmos y que además son una extensión de las discriminaciones reales que la mujer sufre día a día en el mundo analógico.

La jefa del área de ciencias cognitivas de la Universidad de Tillburg, María Postma, matizó que la tecnología no es el problema, sino la gente y recordó un dicho en el mundo de la Inteligencia Artificial que dice “basura fuera, basura dentro”, y recalcó que si los datos están sesgados, también habrá un sesgo en el sistema.

La profesora también tiene claro que la IA es un intento de crear una visión artificial de la inteligencia humana, y que se puede usar en la traducción simultánea de idiomas o también en la conducción autónoma de vehículos y según ella, la idea base fue crear una especie de simulación del cerebro humano.

De igual manera explicó que este tipo de inteligencia se nutre de las bases de datos y que a partir de esta información, genera algoritmos con modelos matemáticos que guíen sus acciones.

Lee: La brecha salarial de género en el empleo formal disminuyó sólo 0.9% en los últimos tres años: Conasami

Sin embargo, ambas reivindican la existencia de las soluciones para poder detener esta espiral de sesgo, con el fin de aumentar la aleatoriedad de todos los algoritmos.

Mientras tanto, la directora de la Escuela de Liderazgo Femenino, Berta Herrero, recalcó que el ámbito de trabajo de estas dos expertas refleja que aún hacen falta especialistas en ética en el campo de la inteligencia artificial.

Diego Torija / El Sol de México

Publicidad

Trends

Publicidad