Inteligencia Artificial
La justicia es la piedra angular para generar confianza y aceptación en la inteligencia artificial
Los sistemas de IA que incorporan la justicia pueden ayudar a abordar y mitigar los sesgos históricos.
La capacidad de la Inteligencia Artificial (IA) para procesar y analizar grandes cantidades de datos ha revolucionado los procesos de toma de decisiones, haciendo que las operaciones en múltiples sectores de la sociedad sean más eficientes y, en muchos casos, más efectivas.
Sin embargo, ese poder transformador conlleva una responsabilidad importante: la necesidad de garantizar que estas tecnologías se desarrollen y desplieguen de manera equitativa y justa. En resumen, la IA debe ser justa.
La búsqueda de la equidad en la IA no es simplemente un imperativo ético sino un requisito para fomentar la confianza, la inclusión y el avance responsable de la tecnología. Sin embargo, garantizar que la IA sea justa es un desafío importante. Y además de eso, mi investigación como informático que estudia la IA muestra que los intentos de garantizar la equidad en la IA pueden tener consecuencias no deseadas.
Por qué es importante la equidad en la IA
Éticamente, la justicia es la piedra angular para generar confianza y aceptación de los sistemas de IA. Las personas deben confiar en que las decisiones de IA que afectan sus vidas (por ejemplo, los algoritmos de contratación) se toman de manera equitativa.
Socialmente, los sistemas de IA que incorporan la justicia pueden ayudar a abordar y mitigar los sesgos históricos (por ejemplo, aquellos contra las mujeres y las minorías) fomentando la inclusión. Legalmente, incorporar la equidad en los sistemas de IA ayuda a alinear esos sistemas con las leyes y regulaciones contra la discriminación en todo el mundo.
Pero es difícil ser justos en la IA
La equidad es inherentemente subjetiva y está influenciada por perspectivas culturales, sociales y personales. En el contexto de la IA, los investigadores, desarrolladores y formuladores de políticas a menudo traducen la equidad en la idea de que los algoritmos no deben perpetuar ni exacerbar los sesgos o desigualdades existentes.
Sin embargo, medir la equidad e incorporarla a los sistemas de IA está plagado de decisiones subjetivas y dificultades técnicas. Los investigadores y formuladores de políticas han propuesto varias definiciones de justicia, como paridad demográfica, igualdad de oportunidades y justicia individual.
Estas definiciones implican diferentes formulaciones matemáticas y filosofías subyacentes. También suelen entrar en conflicto, lo que pone de relieve la dificultad de satisfacer todos los criterios de equidad simultáneamente en la práctica.
Mercado Pago otorga un millón de tarjetas de crédito a menos de 10 meses
Hubo acuerdos políticos entre organismos de derechos humanos y abogados de los padres de los 43 estudiantes desaparecidos de Ayotzinapa: AMLO
Choferes de la CDMX están entre los más groseros del país
El gobernador de Sonora supervica la jornada de salud en el Albergue Luz Valencia
México es el principal socio comercial de Estados Unidos y el noveno con mayores exportaciones del mundo: Mario Delgado
Efectos no deseados sobre la equidad
La naturaleza multifacética de la equidad significa que los sistemas de IA deben ser examinados en cada nivel de su ciclo de desarrollo, desde las fases iniciales de diseño y recopilación de datos hasta su implementación final y evaluación continua. Este escrutinio revela otra capa de complejidad. Los sistemas de IA rara vez se implementan de forma aislada.
La investigación que realizamos mis colegas y yo muestra que limitaciones como los recursos computacionales, los tipos de hardware y la privacidad pueden influir significativamente en la equidad de los sistemas de IA.
En nuestro estudio sobre la poda de redes (un método para hacer que los modelos complejos de aprendizaje automático sean más pequeños y más rápidos) descubrimos que este proceso puede afectar injustamente a ciertos grupos. Esto sucede porque es posible que la poda no considere cómo se representan los diferentes grupos en los datos y en el modelo, lo que genera resultados sesgados.
De manera similar, las técnicas de preservación de la privacidad, si bien son cruciales, pueden oscurecer los datos necesarios para identificar y mitigar sesgos o afectar desproporcionadamente los resultados para las minorías.
Por ejemplo, cuando los organismos de estadística añaden ruido a los datos para proteger la privacidad, esto puede llevar a una asignación injusta de recursos porque el ruido añadido afecta a algunos grupos más que a otros. Esta desproporcionalidad también puede sesgar los procesos de toma de decisiones que dependen de estos datos, como la asignación de recursos para los servicios públicos.
Te puede interesar: La inteligencia artificial es clave para la inversión fintech
El camino a seguir
Hacer que la IA sea justa no es sencillo y no existe una solución única para todos. Requiere un proceso de aprendizaje, adaptación y colaboración continuos. Dado que los prejuicios son omnipresentes en la sociedad, creo que las personas que trabajan en el campo de la IA deberían reconocer que no es posible lograr una justicia perfecta y, en cambio, esforzarse por lograr una mejora continua.
Este desafío requiere un compromiso con una investigación rigurosa, una formulación de políticas reflexiva y una práctica ética. Para que funcione, los investigadores, desarrolladores y usuarios de IA deberán garantizar que las consideraciones de equidad estén integradas en todos los aspectos del proceso de IA, desde su concepción, pasando por la recopilación de datos y el diseño de algoritmos hasta su implementación y más allá.
Fernando Fioretto* | El Sol de México
* Profesor asistente de Ciencias de la Computación, Universidad de Virginia.
- Negocioshace 15 horas
¿Conoces la Cuenta Afore Niños?
- Negocioshace 7 horas
Santander y la chef Elena Reygadas becarán a 20 mujeres estudiantes de gastronomía
- Seguridadhace 11 horas
La agresión al obispo emérito Salvador Rangel puede venir del gobierno: diócesis Chilpancingo-Chilapa
- Viajes360hace 17 horas
El Hotel Indigo es un edificio histórico para el futbol brasileño y Jalisco
- Inclasificableshace 17 horas
En junio, Acapulco sembrará 70 mil árboles, luego del desastre dejado por el huracán Otis
- Sonorahace 6 horas
La producción agrícola de este año en Sinaloa está en peligro por la sequía y por plagas
- Inclasificableshace 9 horas
El comercio electrónico facilita el fraude y la circulación de dinero falso en La Laguna
- Inclasificableshace 16 horas
Xóchitl Gálvez le ganará la Presidencia de la República a Morena, asegura el presidente del PRI