Cómo establecer directivas éticas para proyectos de IA/AA
Cuando se trabaja con datos, ¿cuándo podría el sesgo de prejuicio convertirse en un problema y qué problemas pueden crear los sesgos de prejuicio?
El sesgo de prejuicio se puede volver un problema cuando los datos de entrenamiento están influenciados por estereotipos culturales o de otro tipo. Si los datos de entrenamiento están sesgados, el modelo puede producir resultados que también estén sesgados.
¿Por qué el uso de código postal como atributo de datos para la aprobación de préstamos podría introducir sesgo?
Porque un código postal puede, intencionalmente o no, ser un indicador de raza, color o religión si una gran población de una clase protegida vive en ese código postal. Utilizar únicamente atributos directamente aplicables como los ingresos puede ser una mejor idea.
En términos generales, ¿cómo se pueden utilizar los datos que se recopilan para un propósito no deseado?
Es posible que los datos recopilados puedan ser analizados por otra solución de IA/AA y por los patrones encontrados que invaden la privacidad de las personas de las que se recopilan.
La junta desea que cree una directiva ética relacionada con el acceso y el uso de los datos para el proyecto de IA. ¿Qué recomendaría que incluya la directiva?
La directiva debe incluir la revisión de qué atributos son justos y apropiados para usar al entrenar un modelo. También debe incluir información sobre cómo usar cualquier dato de PNL y si los bots de chat deben tener acceso a ellos. También debe especificar restricciones de seguridad y privacidad para las personas, la tecnología y los procesos para garantizar que los datos no se puedan usar con fines no deseados. El acceso a los datos y su uso deben auditarse en relación con la directiva de ética de forma regular.