Los expertos en derecho intentan decidir qué leyes deberían aplicarse a los crímenes perpetrados por sistemas inteligentes. A nivel penal se plantean tres escenarios, y uno de ellos responsabiliza directamente a las máquinas
Aquí va una pregunta curiosa. Imagínese que es el año 2023 y los coches autónomos han logrado dominar las calles. De repente, uno de ellos atropella y mata a un peatón. Es probable que se interponga una importante demanda, pero ¿qué leyes deberían aplicarse?
El investigador de la Universidad de Brighton (Reino Unido) John Kingston ha intentado responder a la pregunta dibujando un boceto para este incipiente campo legal. Su análisis plantea algunos problemas importantes que los sectores automovilístico, informático y legal ya deberían estar intentando resolver enérgicamente.
El centro de este debate gira en torno a la premisa de si un sistema de inteligencia artificial (IA) podría ser penalmente responsable de sus acciones. Kingston ha explorado el trabajo del investigador de la Ono Academic College (Israel) Gabriel Hallevy, que ha analizado el asunto en detalle.
La responsabilidad penal requiere una acción y una intención mental (en términos legales, actus reus y mens rea). Kingston explica que Hallevy explora tres escenarios que podrían aplicarse a los sistemas de inteligencia artificial.
-
El primero, conocido como "perpetrador por intermedio de terceros", se aplica cuando una ofensa ha sido cometida por una persona mentalmente deficiente o animal , al que se considera inocente. Pero quien haya instruido a la persona mentalmente deficiente o animal puede ser considerado responsable penalmente. Por ejemplo, el dueño de un perro que lo adiestró para otro individuo sería considerado penalmente responsable. Eso tiene implicaciones para aquellos que diseñan máquinas inteligentes y para quienes las usan. "Se podría considerar que un programa de IA es un agente inocente, puesto que el perpetrador por intermedio de otros sería el programador de software o el usuario", dice Kingston.
-
El segundo escenario, conocido como "consecuencia natural probable", ocurre cuando las acciones normales de un sistema de inteligencia artificial pueden ser utilizadas de manera inapropiada para realizar un acto delictivo. Kingston pone como ejemplo a un robot inteligente en una fábrica japonesa de motocicletas que mató a un trabajador humano. "El robot identificó erróneamente al empleado como una amenaza para su misión y calculó que la forma más eficiente de eliminar esta amenaza era empujándolo hacia una máquina operativa adyacente. Mediante su poderoso brazo hidráulico, el robot aplastó al trabajador sorprendido en la máquina, matándolo instantáneamente, y luego reanudó sus funciones", explica Kingston. La pregunta clave aquí es si el programador de la máquina sabía que este resultado era una consecuencia probable de su uso.
-
El tercer escenario es el de la "responsabilidad directa", que requiere tanto de una acción como de una intención. Una acción es una prueba directa si el sistema de inteligencia artificial realiza una acción o decide no hacerla cuando tiene la obligación y se produce un acto criminal como resultado. La intención es mucho más difícil de determinar, pero sigue siendo relevante, dice Kingston. "El exceso de velocidad es una ofensa de responsabilidad estricta. Entonces, según Hallevy, si se descubre que un automóvil que circulaba solo estaba rompiendo el límite de velocidad de la carretera, la ley puede asignar responsabilidad penal al programa de inteligencia artificial que conducía el automóvil en ese momento", añade el experto. En ese caso, el propietario puede no ser el responsable.
También está el tema de la defensa. Si una inteligencia artificial puede ser penalmente responsable, ¿qué tipo de defensa podría usar? Kingston plantea una serie de posibilidades: ¿podría un programa que funciona mal reclamar una defensa por delirio similar a la defensa humana? ¿Podría una IA infectada por un virus electrónico reclamar una estrategia defensiva similar a la coerción o la intoxicación?
Este tipo de defensas no son en absoluto teóricas. Kingston destaca una serie de casos en Reino Unido en los que personas acusadas de delitos informáticos defendieron con éxito que sus máquinas habían sido infectadas con malware y que este era el responsable del delito.
En un caso, un pirata informático adolescente, acusado de ejecutar un ataque de denegación de servicio, afirmó que un programa troyano era el responsable y que se había borrado del ordenador antes de que se analizara de manera forense. "El abogado del acusado convenció al jurado de que tal situación no estaba fuera de toda duda razonable", dice Kingston.
Finalmente, está el tema del castigo. ¿Quién o qué sería castigado por un crimen cometido por un sistema de IA directamente responsable y qué forma tomaría este castigo? Por el momento, no hay respuestas a estas preguntas.
Es posible que la responsabilidad penal no se aplique, en cuyo caso el asunto tendría que resolverse mediante leyes civiles. Entonces, una pregunta crucial será si un sistema de IA es un servicio o un producto. Si se trata de un producto, la legislación de diseño del producto se aplicaría en función de una garantía, por ejemplo. Si se trata de un servicio, entonces se aplica el agravio de negligencia. En este caso, el demandante generalmente tendría que demostrar tres elementos para probar la negligencia. El primero es que el acusado tenía un deber de cuidado, por lo general sencillo de demostrar, aunque el nivel de atención podría ser difícil de evaluar en el caso de una IA, dice Kingston. El segundo elemento es que el acusado incumplió ese deber. Y el tercero es que la violación de dicho deber causó una lesión al demandante.
Y si todo esto no fuera lo suficientemente complicado, la situación legal de los sistemas de inteligencia artificial podría cambiar a medida que sus capacidades se vuelvan más humanas y tal vez, incluso, sobrehumanas. Una cosa es segura: en los próximos años, es probable que los abogados empiecen a divertirse con todo esto, o los sistemas de IA que los reemplacen.
Ref: arxiv.org/abs/1802.07782: Artificial Intelligence and Legal Liability