
Sesgo Algoritmico y Discriminacion
Los sistemas de IA pueden perpetuar sesgos existentes si se entrenan con datos históricos discriminatorios. Esto puede llevar a decisiones injustas en ámbitos como la contratación o la justicia.
Por ejemplo, estudios han demostrado que ciertos algoritmos de procesamiento de lenguaje natural asocian nombres afroamericanos con términos negativos, mientras que los nombres europeos se vinculan con palabras positivas .

Además, en el ámbito de la justicia penal, se ha identificado que algunos algoritmos utilizados para predecir la reincidencia criminal tienden a clasificar erróneamente a personas negras como de alto riesgo en comparación con personas blancas .
Para mitigar estos sesgos, es fundamental implementar prácticas de gobernanza de IA que incluyan la utilización de datos diversos y representativos, así como la realización de auditorías algorítmicas para detectar y corregir posibles discriminaciones .
Santiago Hernandez Rull