Ir al contenido principal

Diagrama de temas

    • 1.4 Desafíos de la IA

      • Cuestiones éticas relacionadas con la IA


        La ética está conformada por los principios morales que rigen el comportamiento o las acciones de una persona. Para la IA, la ética se ocupa de la forma en la cual se realiza lo siguiente:

        - La forma en que las máquinas inteligentes tratan a los seres humanos.
        - La forma en que las máquinas inteligentes actúan como agentes morales.
         - La IA puede causar daño a los seres humanos, ya sea físico, psicológico, financiero o de cualquier otro tipo.


        La necesidad de la ética de la IA se ve alentada por la incertidumbre que rodea cómo los seres sintientes artificiales pueden actuar en oposición a los intereses humanos. Esto es importante no solo para ciertos individuos, sino para todos en una sociedad. En la ciencia ficción, las máquinas a menudo toman una decisión deliberada para dañar a los seres humanos, pero una preocupación más realista es cómo la IA podría tomar decisiones no intencionales que se oponen o dañan a los humanos. 
        La IA puede terminar sacando conclusiones y haciendo predicciones que pueden ser inexactas o perjudiciales en las áreas de salud, negocios, cambio climático y cualquier otra área donde se utilice.

        La ética de la IA también se refiere a cómo los seres humanos pueden usar la IA para hacer daño. Aquellos con intenciones maliciosas de dañar a individuos, grupos, industrias o países pueden explotar el poder de la IA.

        A medida que interactúa y crece en un mundo de IA, al menos debe ser consciente de que este campo puede tener un efecto significativo en muchos aspectos de su vida.
      • Problemas relacionados con el trabajo humano

        Uno de los problemas éticos más apremiantes que presenta la IA es su efecto en el trabajo humano. En particular, la IA puede desplazar trabajos que realizaban tradicionalmente los seres humanos a una escala sin precedentes. Esto puede incluir lo siguiente: 

         - Trabajos manuales como trabajadores de venta minorista y de servicio de alimentos. 
         - Trabajos ejecutivos de oficina como contadores y personal administrativo.

        Los trabajos que se encuentran en mayor riesgo son aquellos que incorporan altas cantidades de comportamiento rutinario y predecible, en especial el comportamiento que un algoritmo de máquina puede aprender rápidamente con cantidades mínimas de entrenamiento.

        Las altas tasas de desempleo pueden provocar disturbios sociales, aunque es difícil determinar con exactitud cómo afectará esto a la sociedad y al empleo. Las cifras reales que predicen cuántos puestos de trabajo se verán desplazados varían muchísimo. Algunos predicen que la automatización se apoderará de tan solo el 9 % de los empleos y otros predicen que hasta el 50 %. Sin embargo, esto no significa que habrá un déficit del 50 % en los trabajos realizados por el ser humano; es probable que la IA cree muchos trabajos adicionales para que los humanos los realicen. Sin embargo, es probable que la IA cambie los tipos de trabajos disponibles, lo que reduce la cantidad de trabajos repetitivos y no calificados, y aumenta el número de puestos trabajos que demandan talentos humanos, como creatividad, empatía e intuición.

      • Problemas relacionados con la privacidad


        La IA también puede tener efectos profundos en la forma en que se trata la privacidad individual. Los sistemas de IA a menudo recopilan y procesan cantidades increíblemente grandes de información, y cualquier individuo, grupo o empresa que controle estos sistemas tiene en realidad control sobre la información. Cuando esta información incluye datos personales, la privacidad se torna una inquietud importante. Probablemente haya visto muchas noticias sobre datos privados que se filtran en violaciones de seguridad de grandes corporaciones como Target®, Yahoo!™, Equifax® y Facebook®. En el futuro, el tamaño de estas filtraciones de datos y el contenido de los datos filtrados pueden verse magnificados por los sistemas de IA, sobre todo los sistemas de aprendizaje profundo que precisan de grandes cantidades de datos para ser efectivos. Es posible que las personas ni siquiera sean conscientes de las grandes cantidades de datos que se recopilan sobre ellos y se introducen en los sistemas de IA. Del mismo modo, es posible que las entidades que controlan estos datos tampoco sean completamente conscientes, sobre todo si los sistemas de IA no se monitorean y gestionan de cerca.

        La capacidad de la IA no solo para recopilar datos, sino también para analizarlos de manera inteligente, es otra amenaza potencial para la privacidad. Aunque esos datos pueden ser de fuentes independientes e ininteligibles de forma aislada, un análisis de aprendizaje automático de estos datos puede llevar a lo siguiente:


        • Identificación del nombre o la apariencia de una persona.
        • Vinculación de un individuo a eventos o comportamientos específicos.
        • Seguimiento de la ubicación de un individuo.
        • Revelación de la historia clínica y los problemas médicos de un individuo.
        • Desarrollo de un perfil completo de un individuo.

      • Problemas relacionados con el sesgo

        Las máquinas procesan los datos que se les dan, tal como esperamos que lo hagan. Estas máquinas pueden ser muy buenas para aprender los datos y sacar conclusiones de ellos, pero las conclusiones son tan buenas como los datos de los que provienen. Un ser humano suele introducir los datos, o al menos son el producto de alguna guía humana previa. Esto significa que los datos tienen el potencial de exhibir sesgo o actitudes positivas o negativas injustificadas aplicadas a individuos, grupos o ideas.

        Los ejemplos más prominentes de sesgo tienden a tratar con componentes sociales como la raza, el género, la clase, etc. Si un algoritmo de aprendizaje automático se alimenta de datos que intencionalmente deja fuera a un determinado grupo de personas, o se centra demasiado en ese grupo, entonces el algoritmo saca conclusiones de estos datos sesgados. Si bien esto se puede hacer intencionalmente, es más probable que quien esté entrenando el algoritmo de aprendizaje automático esté exhibiendo un sesgo inconsciente. En otras palabras, es posible que ni siquiera sepan que su conjunto de datos está sesgado hacia un grupo. Ya sea que se haga consciente o inconscientemente, la IA que entrena con datos sesgados puede alentar a las personas a tomar las acciones equivocadas o adoptar creencias incorrectas, o sacar conclusiones que no reflejan la realidad.


      • Problemas relacionados con la seguridad

        Como se discutió anteriormente, la IA tiene el potencial de hacer que las personas estén más seguras al asumir trabajos peligrosos o introducir métodos nuevos y más seguros para hacer las cosas. Desafortunadamente, de otras maneras, la IA tiene el potencial de poner en riesgo la seguridad de las personas. Estos riesgos tienden a ser mucho más sutiles que la forma en que a menudo se representan en la ciencia ficción.

        Consulte el siguiente ejemplo: un robot está entrenado para soldar varios metales en una línea de montaje. Incluso puede entrenarse para identificar a los seres humanos en el área y evitar acercarse a ellos o activar su herramienta de soldadura por razones de seguridad. Sin embargo, hay algunos riesgos ocultos. ¿Qué pasa si alguien accidentalmente dejó un objeto inflamable en la línea de montaje?

        - El robot puede no tener experiencia con cómo lidiar con esta situación en particular, por lo que puede continuar como si nada fuera diferente.
        - El robot puede reaccionar, pero no de una manera óptima.
        - En cualquier caso, el robot podría terminar encendiendo el material inflamable, lo que podría poner vidas en riesgo.

        Eso puede parecer un ejemplo extremo, pero ayuda a ilustrar que los riesgos de seguridad con IA a menudo son muy difíciles de predecir (incluso para una máquina). El robot necesitaría capacitación adicional para identificar los peligros de seguridad conocidos y cómo evitarlos, así como cómo evaluar situaciones desconocidas para detectar peligros potenciales. Estos problemas también afectan a algo más que la IA en el espacio físico.

        Los problemas de seguridad son una preocupación importante en campos donde las decisiones basadas en la IA tienen un impacto en la salud humana. Por ejemplo, un sistema de IA que predice que un paciente médico tiene una determinada enfermedad puede cometer un error (por ejemplo, si está entrenado con datos sesgados) y, en consecuencia, cualquier medicamento recetado a ese paciente puede terminar dañándolo. Otro ejemplo es un sistema de IA que regula la calefacción, la ventilación y el aire acondicionado (HVAC) en un edificio. Si el sistema sobre o subcorrige la temperatura o no proporciona suficiente ventilación, las personas dentro del edificio pueden estar en riesgo.

      • Cuestiones legales

        Muchas de las cuestiones anteriores, así como algunas otras, no escapan a la atención de los legisladores y otros profesionales del derecho. Las leyes que abordan directamente la IA y cómo esta podría regularse todavía están en desarrollo, pero sin duda se convertirán en una preocupación importante para las personas, los grupos y las empresas. Estas leyes regularán la IA para reducir el potencial daño físico y psicológico.

        Si bien la ley de IA aún está en desarrollo, hay muchas leyes activas en este momento que afectan directamente a los procesos que interactúan con la IA. Los países y otras jurisdicciones promulgaron leyes que afectan la forma en que se recopilan, almacenan y administran los datos personales, y cómo se accede a ellos. Un ejemplo es el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que es una de las leyes para resguardar la privacidad de los datos más recientes y prominentes. Respalda el derecho de un individuo a la privacidad de sus datos y penaliza a las organizaciones que violan esta privacidad. Si bien esto proporciona cierta protección a las personas y a sus datos, como se discutió anteriormente, ya que los sistemas de IA recopilan y analizan datos a una escala y con un nivel de inteligencia sin precedentes, hay instancias en los que las organizaciones pueden violar las protecciones del RGPD sin siquiera ser conscientes de ello.

        Otras leyes pueden afectar la IA cuando se trata de:

        - Seguridad de los trabajadores y los clientes.
        - Sesgo contra las clases protegidas. 
        - Desplazamiento del trabajo humano. 
        - Y más.

      • Problemas relacionados con el contexto

        Incluso los sistemas de IA más avanzados todavía enfrentan desafíos para reconocer el contexto. Por ejemplo, muchos algoritmos de procesamiento de imágenes tienen dificultades para reconocer cuándo las imágenes están al revés. En otras instancias, los algoritmos pueden crear sesgos en función de la falta de comprensión del contexto. Por ejemplo, si un conjunto de datos del entrenamiento asocia el sentimiento de "alegría" con imágenes en blanco y negro de personas riendo, el algoritmo puede asociar imágenes en blanco y negro de objetos inanimados como de "alegría" porque no comprende que un rostro humano puede transmitir "alegría".

        En ambos casos, los resultados producidos por la IA pueden ser erróneos. También pueden conducir a un proceso de aprendizaje automático que es demasiado inexacto, o pueden requerir un proceso de capacitación demasiado complejo o lento como para proporcionar beneficios.

        Información adicional

        Para obtener información adicional sobre los problemas de contexto relacionados con la IA, consulte aquí


      • Problemas relacionados con la caja negra


        Para muchos, una preocupación sobre la IA es el tema de la caja negra. El término caja negra se refiere a un sistema que es incognoscible. La IA a veces se describe como una caja negra porque puede tomar decisiones sin que ella (o cualquier otra persona) pueda explicar por qué se tomaron esas decisiones. Esto puede poner en tela de juicio la exactitud y utilidad de esas decisiones y esas decisiones pueden tener consecuencias negativas para las personas.

        Por ejemplo, una verificación de crédito instantánea en línea puede ser procesada por un algoritmo de IA que comprueba la calificación crediticia de una persona, junto con otras características. El banco puede no otorgar créditos al usuario si no cumple con criterios específicos. Esto puede retrasar la disponibilidad de crédito mientras la solicitud se envía a una persona para su revisión o puede resultar en la pérdida de poder adquisitivo para una persona. Una pérdida de poder adquisitivo puede afectar la capacidad de obtener vivienda, transporte, libros para la escuela u otros servicios vitales.

        En otro ejemplo, a los reclusos se les asignó una calificación de riesgo mediante un software. La calificación de riesgo se evaluó cuando los reclusos entraron en libertad condicional. Generalmente, a los reclusos de alto riesgo se les denegó la libertad condicional. Cuando cuestionaron los hallazgos en los tribunales, la empresa detrás del software explicó que evaluaron más de 100 factores diferentes, pero no estaban dispuestos a compartir el proceso por el cual determinaron la evaluación del riesgo porque ese algoritmo estaba patentado. La empresa argumentó que, si el algoritmo fuera expuesto, la empresa perdería su ventaja competitiva. Esto dejó a los reclusos con un sistema que proporciona evaluaciones de riesgo sin ninguna explicación sobre qué factores afectan los resultados de esas evaluaciones.

        Un principio básico de equidad es el derecho de las personas a cuestionar las evaluaciones, valoraciones o afirmaciones negativas hechas sobre ellas. En los casos en que la IA está involucrada, esto puede ser muy difícil o incluso imposible. Recuerde que la IA puede tomar decisiones sin que ella (o cualquier otra persona) pueda explicar por qué se tomaron esas decisiones. Esto pone en tela de juicio la exactitud, utilidad y equidad de esas decisiones.

        Información adicional

        Para obtener más información sobre los problemas de la caja negra y el ejemplo de los reclusos, consulte aquí


      • Uso adecuado de la IA

        Como observó, la IA tiene muchos beneficios y desafíos. Para decidir si la IA es una buena opción para alcanzar una meta o resolver un problema, hágase las siguientes preguntas:

        - ¿Puede obtener o dispone actualmente de datos suficientes? Las tecnologías de IA o AA se basan en datos. No puede usarlos sin los datos correctos para resolver el problema. En general, cuantos más datos tenga, mejor. Debido que el aprendizaje automático está impulsado por la aleatoriedad de los datos, más muestras de datos generalmente conducen a un mejor resultado. Un único error o un punto de datos confuso es mucho menos significativo en un conjunto de datos con 10 millones de registros que en un conjunto de datos con 10 registros.

        - ¿El problema es autónomo o está lo suficientemente aislado de toda influencia externa? En otras palabras, debe estar relativamente seguro de que los datos que ingresan al algoritmo de aprendizaje incluyen más o menos todo lo que hay en el problema. Los cambios en las áreas que afectan a los datos con el transcurso del tiempo pueden generar nuevos patrones de datos que "interrumpen" una solución de aprendizaje automático establecida, que ya no funciona o no funciona tan bien como solía hacerlo.

        - ¿Puede conseguir o cuenta con la tecnología para implementar una solución de IA o AA? Es posible que deba adquirir numerosas herramientas y tecnologías nuevas para desarrollar la IA o el AA, incluidas aquellas herramientas de recopilación y procesamiento de datos, el desarrollo y las pruebas de soluciones, la presentación y la creación de informes.

        - ¿Puede conseguir o cuenta con personas con las habilidades especializadas necesarias que se unan al proyecto? Aprender algoritmos de IA o AA y utilizarlos con éxito es extremadamente desafiante para quienes no tienen experiencia matemática. Es común confiar en expertos como los científicos especializados en datos para ayudar a responder algunas de las preguntas más difíciles.

        - ¿Es aceptable que la máquina dé una respuesta sin que usted tenga completamente claro cómo la obtuvo? La IA o el AA puede ser muy bueno para hacer predicciones e identificar patrones en los datos, como predecir cuándo es probable que una pieza de la máquina se desgaste o hallar otras casas en venta similares a una casa que le gusta a un cliente. Debido a que la máquina aprendió del ejemplo en lugar de haber sido programada directamente, puede que no siempre esté claro cómo ella obtuvo sus resultados o recomendaciones, si bien las respuestas pueden ser bastante confiables.

        - ¿Es legal y ético utilizar los datos? Debido a que los proyectos de IA o AA se basan en datos, ello puede implicar una mayor recopilación y almacenamiento de datos, que pueden contener información confidencial sobre personas y organizaciones. Este mayor enfoque en los datos acarrea una mayor posibilidad de errores en el tratamiento legal, ético y libre de sesgo de los datos.

        - ¿Es aceptable si la solución no siempre es 100 % correcta? Las soluciones de IA o AA se basan en la probabilidad. Los resultados que arrojan pueden no ser 100 % precisos el 100 % de las veces. Si la situación admite respuestas razonablemente lógicas que en su mayoría son (aunque no siempre) correctas, entonces una solución de IA o AA puede resultar adecuada. Por ejemplo, al utiliza la IA, un automóvil podría proporcionar un frenado automático seguro en algunas situaciones en las que un conductor humano podría pasar por alto. Por otro lado, es posible que la IA no incluya la característica de frenado en todas las situaciones. Si la solución proporciona una mayor seguridad general sin introducir nuevos problemas (como frenar cuando no debería y causar un accidente), entonces podría considerarse aceptable, aunque no sea 100 % precisa el 100 % de las veces.

        - ¿Es un problema de aprendizaje o solo de automatización? La IA o el AA puede ayudar a automatizar muchos tipos de procesos, pero no todos los problemas de automatización requieren capacidades de aprendizaje.

      • Identificación de los desafíos y el uso adecuado de la IA


        Escenario

        En la misma conferencia en la que analizó los beneficios de la IA, le preguntaron sobre temas relacionados con el uso de la IA. Debe explicar cuidadosamente algunos de los desafíos que se deben considerar al implementar soluciones de IA.