Ir al contenido principal

Diagrama de temas

    • Proxies de discriminaciones sociales más grandes

      Proxies de discriminaciones sociales más grandes


      El uso de ciertos atributos al entrenar un modelo, como los que representan clases protegidas de personas, podría dar lugar a sesgos de prejuicio. Por ejemplo:


      Raza
      Género
      Color
      Religión
      País de origen
      Estado civil
      Orientación sexual
      Antecedentes educativos
      Fuente de ingresos
      Edad


      Es importante tener en cuenta que los atributos distintos de los enumerados anteriormente pueden funcionar como un proxy para esos atributos. Por ejemplo, ciertas ubicaciones geográficas (representadas por códigos postales, por ejemplo) pueden servir como un proxy para la raza, el color, la religión, el origen nacional o incluso la edad, si los miembros de esas categorías son predominantes en esas ubicaciones.
      El sentido común puede ser útil a la hora de decidir qué atributos son justos y apropiados de usar cuando se entrena un modelo. Por ejemplo, parece justo considerar los ingresos como un atributo al entrenar un modelo para evaluar la capacidad de un solicitante de préstamo para pagar un préstamo.
      Sin embargo, puede ser injusto usar códigos postales, aunque los códigos postales pueden correlacionarse de alguna manera con los niveles de ingresos. Un solicitante que vive en un código postal caracterizado por bajos niveles de ingresos bien puede tener los medios para pagar el préstamo y un historial personal de pago de préstamos. Entrenar el modelo para discriminar basado en el código postal puede no producir un modelo tan hábil como uno entrenado más directamente en el nivel de ingresos. Dado que los códigos postales pueden, de hecho, servir como un proxy para otros atributos, como la raza, el color, la religión, el origen nacional o la edad, discriminar en función de los códigos postales puede discriminar efectivamente a esas categorías de personas.

      Información adicional

      Para obtener más información sobre la discriminación por proxy en la IA, consulte este sitio.