Inteligencia Artificial
La justicia es la piedra angular para generar confianza y aceptación en la inteligencia artificial
Los sistemas de IA que incorporan la justicia pueden ayudar a abordar y mitigar los sesgos históricos.
La capacidad de la Inteligencia Artificial (IA) para procesar y analizar grandes cantidades de datos ha revolucionado los procesos de toma de decisiones, haciendo que las operaciones en múltiples sectores de la sociedad sean más eficientes y, en muchos casos, más efectivas.
Sin embargo, ese poder transformador conlleva una responsabilidad importante: la necesidad de garantizar que estas tecnologías se desarrollen y desplieguen de manera equitativa y justa. En resumen, la IA debe ser justa.
La búsqueda de la equidad en la IA no es simplemente un imperativo ético sino un requisito para fomentar la confianza, la inclusión y el avance responsable de la tecnología. Sin embargo, garantizar que la IA sea justa es un desafío importante. Y además de eso, mi investigación como informático que estudia la IA muestra que los intentos de garantizar la equidad en la IA pueden tener consecuencias no deseadas.
Por qué es importante la equidad en la IA
Éticamente, la justicia es la piedra angular para generar confianza y aceptación de los sistemas de IA. Las personas deben confiar en que las decisiones de IA que afectan sus vidas (por ejemplo, los algoritmos de contratación) se toman de manera equitativa.
Socialmente, los sistemas de IA que incorporan la justicia pueden ayudar a abordar y mitigar los sesgos históricos (por ejemplo, aquellos contra las mujeres y las minorías) fomentando la inclusión. Legalmente, incorporar la equidad en los sistemas de IA ayuda a alinear esos sistemas con las leyes y regulaciones contra la discriminación en todo el mundo.
Pero es difícil ser justos en la IA
La equidad es inherentemente subjetiva y está influenciada por perspectivas culturales, sociales y personales. En el contexto de la IA, los investigadores, desarrolladores y formuladores de políticas a menudo traducen la equidad en la idea de que los algoritmos no deben perpetuar ni exacerbar los sesgos o desigualdades existentes.
Sin embargo, medir la equidad e incorporarla a los sistemas de IA está plagado de decisiones subjetivas y dificultades técnicas. Los investigadores y formuladores de políticas han propuesto varias definiciones de justicia, como paridad demográfica, igualdad de oportunidades y justicia individual.
Estas definiciones implican diferentes formulaciones matemáticas y filosofías subyacentes. También suelen entrar en conflicto, lo que pone de relieve la dificultad de satisfacer todos los criterios de equidad simultáneamente en la práctica.
Mercado Pago otorga un millón de tarjetas de crédito a menos de 10 meses
Hubo acuerdos políticos entre organismos de derechos humanos y abogados de los padres de los 43 estudiantes desaparecidos de Ayotzinapa: AMLO
Choferes de la CDMX están entre los más groseros del país
El gobernador de Sonora supervica la jornada de salud en el Albergue Luz Valencia
México es el principal socio comercial de Estados Unidos y el noveno con mayores exportaciones del mundo: Mario Delgado
Efectos no deseados sobre la equidad
La naturaleza multifacética de la equidad significa que los sistemas de IA deben ser examinados en cada nivel de su ciclo de desarrollo, desde las fases iniciales de diseño y recopilación de datos hasta su implementación final y evaluación continua. Este escrutinio revela otra capa de complejidad. Los sistemas de IA rara vez se implementan de forma aislada.
La investigación que realizamos mis colegas y yo muestra que limitaciones como los recursos computacionales, los tipos de hardware y la privacidad pueden influir significativamente en la equidad de los sistemas de IA.
En nuestro estudio sobre la poda de redes (un método para hacer que los modelos complejos de aprendizaje automático sean más pequeños y más rápidos) descubrimos que este proceso puede afectar injustamente a ciertos grupos. Esto sucede porque es posible que la poda no considere cómo se representan los diferentes grupos en los datos y en el modelo, lo que genera resultados sesgados.
De manera similar, las técnicas de preservación de la privacidad, si bien son cruciales, pueden oscurecer los datos necesarios para identificar y mitigar sesgos o afectar desproporcionadamente los resultados para las minorías.
Por ejemplo, cuando los organismos de estadística añaden ruido a los datos para proteger la privacidad, esto puede llevar a una asignación injusta de recursos porque el ruido añadido afecta a algunos grupos más que a otros. Esta desproporcionalidad también puede sesgar los procesos de toma de decisiones que dependen de estos datos, como la asignación de recursos para los servicios públicos.
Te puede interesar: La inteligencia artificial es clave para la inversión fintech
El camino a seguir
Hacer que la IA sea justa no es sencillo y no existe una solución única para todos. Requiere un proceso de aprendizaje, adaptación y colaboración continuos. Dado que los prejuicios son omnipresentes en la sociedad, creo que las personas que trabajan en el campo de la IA deberían reconocer que no es posible lograr una justicia perfecta y, en cambio, esforzarse por lograr una mejora continua.
Este desafío requiere un compromiso con una investigación rigurosa, una formulación de políticas reflexiva y una práctica ética. Para que funcione, los investigadores, desarrolladores y usuarios de IA deberán garantizar que las consideraciones de equidad estén integradas en todos los aspectos del proceso de IA, desde su concepción, pasando por la recopilación de datos y el diseño de algoritmos hasta su implementación y más allá.
Fernando Fioretto* | El Sol de México
* Profesor asistente de Ciencias de la Computación, Universidad de Virginia.
- Sonorahace 10 horas
El gobierno de Sonora presenta a empresas alemanas su Proyecto de Energía Sostenible en la Hannover Messe 2024
- Negocioshace 8 horas
Así puedes solicitar asistencia vial en México con un clic
- Políticahace 14 horas
En la primera semana de mayo llegarán a Tampico más de un millón de boletas electorales
- Inteligencia Artificialhace 13 horas
Comprar un libro en México cuesta el salario mínimo de un día
- Seguridadhace 12 horas
Los menores pueden acudir al Poder Judicial de la Federación para que los defiendan: asesora jurídica
- Baja Californiahace 18 horas
Las Clínicas del Binestar ofrecerán servicios médicos gratuitos en Baja California: Marina del Pilar Ávila
- Guanajuatohace 18 horas
El Obispo de Celaya confía en que los simpatizantes de Morena arreglen sus problemas
- Guanajuatohace 10 horas
Movilidad León pone orden y restringe circulación de camionetas de carga por parte alta de Malecón