.

Ms. Tech

Inteligencia Artificial

Para solucionar el problema ético de la IA hay que volverla insegura

1

Los algoritmos están diseñados para perseguir un único objetivo matemático, pero los dilemas morales son mucho más complejos. Las máquinas entrenadas para valorar las consecuencias de varias opciones devolverían la responsabilidad de tomar la decisión final a las personas

  • por Karen Hao | traducido por Ana Milutinovic
  • 06 Febrero, 2019

El uso de algoritmos para tomar decisiones éticas es cada vez más común. Quizás el mejor ejemplo sea la versión de alta tecnología sobre el problema ético conocido como dilema del tranvía: si un coche autónomo no puede evitar matar a uno de los dos peatones, ¿cómo debería el software de control del coche elegir quién vive y quién muere?

Aunque este dilema no refleja de forma demasiado realista el comportamiento de un coche autónomo, muchos otros sistemas en uso (o muy cerca de implementarse) se enfrentan a todo tipo de decisiones éticas realesLas herramientas de evaluación que se utilizan actualmente en el sistema de justicia penal deben considerar los riesgos para la sociedad frente los daños a los acusados ​​individuales. Las armas autónomas deberán considerar las vidas de los soldados frente a las de los civiles.

El problema es que los algoritmos nunca fueron diseñados para abordar decisiones tan difíciles. Están concebidos para perseguir un único objetivo matemático, como maximizar el número de vidas salvadas de los soldados o minimizar el número de muertes de los civiles. Cuando empiezan a aparecer múltiples objetivos, a menudo contrapuestos, se consideran cuestiones intangibles como la "libertad" y el "bienestar", no existe siempre una solución matemática satisfactoria.

El director de investigación de la Asociación para la IA, Peter Eckersley, ha publicado un artículo en el que analiza este problema. Su texto afirma: "Nosotros, como seres humanos, queremos múltiples tareas incompatibles. Existen muchas situaciones de alto riesgo en las que es realmente inapropiado, o incluso peligroso, programar una única función de objetivo que trata de describir la ética".

Estos dilemas sin solución no se limitan a los algoritmos. Los expertos en ética llevan décadas estudiándolos y se refieren a ellos como el teorema de la imposibilidad. Así que, cuando Eckersley descubrió que podrían aplicarse a la inteligencia artificial, tomó una idea del campo de la ética para proponer una solución: ¿qué pasaría si incorporáramos incertidumbre a nuestros algoritmos?

En su artículo, el experto detalla: "Los seres humanos tomamos las decisiones de forma bastante insegura la mayor parte del tiempo. Nuestro comportamiento, siendo seres morales, está lleno de incertidumbre. Pero cuando intentamos aplicar ese comportamiento ético a la inteligencia artificial, suele ser concreto y más preciso". En lugar de eso, Eckersley propone la idea de diseñar algoritmos para que explícitamente no estén seguros de lo que deben hacer.

Para representar matemáticamente esta idea, el autor presenta dos posibles técnicas. Comienza con la premisa de que los algoritmos normalmente se programan con unas reglas claras sobre las preferencias humanas. Según ese enfoque, les diríamos, por ejemplo, que preferimos salvar soldados antes que civiles, y a civiles frente a soldados enemigos, incluso aunque no estemos seguros o ni siquiera estemos de acuerdo. El diseño del algoritmo deja poco margen para la incertidumbre.

La primera técnica, conocida como clasificación parcial, comienza a introducir un poco de incertidumbre. Podríamos programar el algoritmo para que prefiera nuestros soldados a los soldados enemigos y nuestros civiles a los soldados enemigos, pero no especificaríamos la preferencia entre nuestros soldados y nuestros civiles.

En la segunda técnica, conocida como clasificación de incertidumbre, existen varias listas de preferencias absolutas, pero cada una de ellas lleva adjunta una probabilidad. Tres cuartas partes del tiempo es posible preferir nuestros soldados a nuestros civiles y antes que a los soldados enemigos. Una cuarta parte del tiempo sería posible preferir nuestros civiles frente a nuestros soldados y antes que los soldados enemigos.

El algoritmo podría manejar esta incertidumbre calculando las múltiples soluciones y ofreciendo a los humanos una lista de opciones con sus consecuencias asociadas, opina Eckersley. Si el sistema de inteligencia artificial estuviera destinado a ayudar a tomar decisiones médicas, en lugar de recomendar un tratamiento sobre otro, podría presentar tres posibles opciones: una para maximizar la vida útil del paciente, otra para minimizar el sufrimiento del paciente y una tercera para minimizar el coste. El autor continúa: "Haciendo que el sistema sea explícitamente inseguro, el dilema vuelve a ser responsabilidad de los humanos".

La profesora de ciencias informáticas en la Universidad de Cornell (EE. UU.) Carla Gomes ha probado técnicas similares en su trabajo. Ha desarrollado un sistema automatizado para evaluar el impacto de los nuevos proyectos de presas hidroeléctricas en la cuenca del río Amazonas. Las presas brindan una fuente de energía limpia. Pero también alteran profundamente las secciones de los ríos y los ecosistemas de la vida silvestre.

La investigadora sostiene: "Este es un escenario completamente diferente al de los coches autónomos [comúnmente referidos como dilemas éticos], pero se trata de un entorno donde estos problemas son reales. Hay dos objetivos enfrentados, así que, ¿qué hay que hacer? El problema general es muy complejo. Sería necesario un cuerpo de investigación para abordar todos los aspectos, pero el planteamiento de Peter da un paso importante en la dirección correcta".

Este tema irá ganando importancia a medida que nuestra dependencia de los algoritmos siga aumentando. El profesor asociado de ciencias informáticas en la Universidad de Louisville (EE. UU.) Roman V. Yampolskiy concluye: "Cada vez más, los sistemas complicados requieren que la IA esté a cargo. Nadie puede entender la complejidad del mercado de valores o de los sistemas de respuesta militares. Así que no tendremos más remedio que ceder una parte del control a las máquinas".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla