Las máquinas procesan los datos que se les dan, tal como esperamos que lo hagan. Estas máquinas pueden ser muy buenas para aprender los datos y sacar conclusiones de ellos, pero las conclusiones son tan buenas como los datos de los que provienen. Un ser humano suele introducir los datos, o al menos son el producto de alguna guía humana previa. Esto significa que los datos tienen el potencial de exhibir sesgo o actitudes positivas o negativas injustificadas aplicadas a individuos, grupos o ideas.
Los ejemplos más prominentes de sesgo tienden a tratar con componentes sociales como la raza, el género, la clase, etc. Si un algoritmo de aprendizaje automático se alimenta de datos que intencionalmente deja fuera a un determinado grupo de personas, o se centra demasiado en ese grupo, entonces el algoritmo saca conclusiones de estos datos sesgados. Si bien esto se puede hacer intencionalmente, es más probable que quien esté entrenando el algoritmo de aprendizaje automático esté exhibiendo un sesgo inconsciente. En otras palabras, es posible que ni siquiera sepan que su conjunto de datos está sesgado hacia un grupo. Ya sea que se haga consciente o inconscientemente, la IA que entrena con datos sesgados puede alentar a las personas a tomar las acciones equivocadas o adoptar creencias incorrectas, o sacar conclusiones que no reflejan la realidad.