Analiza la equidad del modelo de IA usando métricas estándar de la industria incluyendo paridad demográfica, odds igualados, igualdad de oportunidades e impacto disparejo. Compara predicciones del modelo entre grupos para detectar sesgo y asegurar sistemas de aprendizaje automático justos.
Valores de matriz de confusión para el grupo de referencia
Valores de matriz de confusión para el grupo protegido
También podrías encontrar útiles estas calculadoras
Calcula métricas de clasificación ML desde matriz de confusión
Calcula puntuaciones F1 y F-beta desde precisión y recall
Detecta deriva de concepto en modelos ML
Calcula puntuaciones de severidad de vulnerabilidades CVSS v3.1
La Calculadora de Equidad de IA ayuda a científicos de datos e ingenieros de ML a evaluar si sus modelos tratan a diferentes grupos demográficos de manera equitativa. Analiza seis métricas estándar de equidad, verifica el cumplimiento de impacto disparejo y recibe recomendaciones accionables para reducir el sesgo.
La equidad en IA asegura que los modelos de aprendizaje automático no discriminen a grupos protegidos basándose en características como raza, género, edad o discapacidad. Incluso modelos bien intencionados pueden exhibir comportamiento injusto debido a datos de entrenamiento sesgados, variables proxy o disparidades históricas.
Fórmula de Impacto Disparejo
Impacto Disparejo = P(Ŷ=1|Grupo B) / P(Ŷ=1|Grupo A) ≥ 0.80La regla de impacto disparejo (regla del 80%) tiene validez legal en decisiones de empleo y préstamos. Las organizaciones pueden enfrentar demandas si sus sistemas de IA producen resultados discriminatorios.
Los sistemas de IA afectan cada vez más la vida de las personas a través de decisiones de contratación, aprobaciones de préstamos, recomendaciones de salud y predicciones de justicia penal.
Los sistemas de IA sesgados generan publicidad negativa y erosionan la confianza del cliente. Las empresas enfrentan reacciones cuando los algoritmos discriminan a grupos protegidos.
El análisis de equidad a menudo revela problemas de calidad de datos, problemas de ingeniería de características o limitaciones del modelo.
Los sistemas de selección de currículums y clasificación de candidatos no deben discriminar basándose en características protegidas. La regla del 80% se originó en la ley de discriminación laboral.
Los algoritmos de aprobación de préstamos deben cumplir con las regulaciones de préstamos justos. Los modelos de puntuación crediticia que producen diferentes tasas de aprobación entre grupos enfrentan escrutinio regulatorio.
Los sistemas de IA médica para diagnóstico, recomendaciones de tratamiento y asignación de recursos deben funcionar equitativamente entre grupos demográficos.
Los algoritmos de predicción de reincidencia y fianza han enfrentado críticas por sesgo racial. Herramientas como COMPAS demostraron cómo características aparentemente neutrales pueden producir resultados discriminatorios.
Los modelos de precios y aprobación de seguros deben equilibrar la precisión actuarial con el trato justo entre grupos protegidos.
Los sistemas de IA que curan contenido, recomiendan productos o moderan contenido generado por usuarios deben funcionar justamente entre demografías de usuarios.
La paridad demográfica requiere que la tasa de predicción positiva sea igual entre grupos: P(Ŷ=1|A=a) = P(Ŷ=1|A=b). Úsala cuando quieras tasas de selección iguales independientemente de la membresía del grupo.