Sesgo en IA (AI Bias)

También conocido como: Algorithmic Bias, Model Bias, Sesgo Algorítmico, Fairness in AI

Errores sistemáticos en los outputs de modelos de IA causados por sesgos en los datos de entrenamiento o en el diseño del algoritmo.

El Sesgo en IA (AI Bias) se refiere a errores sistemáticos y no aleatorios en los outputs de modelos de inteligencia artificial que resultan en tratamientos diferenciados o incorrectos de grupos de personas, y que tienen su origen en sesgos presentes en los datos de entrenamiento o en decisiones de diseño algorítmico.

En investigación de mercados, el AI bias es especialmente crítico porque puede: (1) distorsionar los resultados si los datos de entrenamiento sobrerrepresentan ciertos segmentos demográficos; (2) reproducir sesgos culturales o de género en la codificación de verbatims; (3) generar paneles sintéticos que no representen adecuadamente minorías o segmentos de bajo ingreso; (4) producir análisis de sentimiento que interpretan incorrectamente el español de diferentes regiones latinoamericanas.

Las mitigaciones incluyen: auditorías regulares de modelos con datos de evaluación representativos, documentación de las limitaciones conocidas, supervisión humana de outputs críticos, y uso de datos de entrenamiento diversos e inclusivos.

Atlantia mantiene protocolos de detección y mitigación de bias en todos sus modelos de IA aplicados a research.

Ver solución relacionada