.

Kyle McDonald / Flickr

Inteligencia Artificial

Estas normas internacionales impedirán que la IA engañe a los médicos

1

Hasta ahora, los sistemas de inteligencia artificial utilizados en ensayos clínicos no se sometían a auditorías independientes ni debían rendir cuentas sobre su diseño, lo que permitía exagerar sus capacidades, pero eso está a punto de acabar gracias a estos nuevos estándares

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 21 Septiembre, 2020

La noticia: Un consorcio internacional de expertos médicos acaba de presentar los primeros estándares oficiales para los ensayos clínicos que utilizan inteligencia artificial (IA). La medida se produce en un momento en el que el bombo sobre la IA médica está en su punto máximo, con afirmaciones infladas y no verificadas sobre la eficacia de ciertas herramientas que amenazan con dañar la confianza de las personas en la IA en general. 

Qué significa: Anunciados en Nature Medicine, en British Medical Journal (BMJ) y en The Lancet, los nuevos estándares amplían dos conjuntos de normas sobre cómo se deberían realizar los ensayos clínicos y cómo se debería informar sobre ellos, las mismas que ya se utilizan en todo el mundo para el desarrollo de fármacos, pruebas de diagnóstico y otros intervenciones médicas. Los investigadores de IA ahora tendrán que describir las habilidades necesarias para usar una herramienta de IA, el entorno en el que se evalúa la IA, los detalles sobre cómo las personas interactúan con la IA, el análisis de casos de error, etcétera.

Por qué es importante: los ensayos controlados aleatorios son la forma más fidedigna de demostrar la efectividad y la seguridad de un tratamiento o de una técnica clínica. Representan la base tanto de la práctica médica como de las normas sanitarias. Pero su fiabilidad depende de que los investigadores respeten las estrictas pautas sobre cómo se deberían llevar a cabo sus ensayos y cómo informar sobre ellos. En los últimos años, se han desarrollado y descrito en revistas médicas muchas nuevas herramientas de IA, pero su eficacia ha sido difícil de comparar y evaluar porque variaba la calidad de los diseños de los ensayos. En marzo, un estudio en BMJ advirtió que una investigación deficiente y afirmaciones exageradas sobre lo buena que era la IA para analizar las imágenes médicas representaban un riesgo para millones de pacientes. 

La exageración máxima: la falta de estándares comunes también ha permitido a las empresas privadas alardear de la efectividad de su IA sin tener que enfrentarse al control aplicado a otros tipos de intervenciones médicas o diagnósticos. Por ejemplo, la empresa de atención médica digital de Reino Unido Babylon Health fue criticada en 2018 por haber afirmado que su chatbot de diagnóstico estaba "a la par con los médicos humanos", basándose en una prueba que, según los críticos, era engañosa. 

Babylon Health no es la única. Los desarrolladores llevan ya algún tiempo afirmando que su IA médica supera o iguala la capacidad humana y la pandemia ha puesto esta tendencia a toda marcha a medida que las empresas compiten para que sus herramientas se destaquen. En la mayoría de los casos, la evaluación de este tipo de IA se realiza internamente y en condiciones favorables. 

Promesas futuras: Esto no quiere decir que la IA no pueda superar a los médicos humanos. De hecho, ya se publicó el mes pasado la primera evaluación independiente de una herramienta de diagnóstico de IA que superó a algunos médicos humanos en detectar el cáncer en las mamografías. El estudio encontró que la herramienta hecha por Lunit AI y utilizada en ciertos hospitales en Corea del Sur tuvo un rendimiento similar a la media de grupo de radiólogos contra los que se probó. Resultó incluso más precisa cuando se combinaba con un médico humano. Al separar lo bueno de lo malo, los nuevos estándares facilitarán este tipo de valoración independiente y, finalmente, conducirán a una IA médica mejor y más fiable.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla