El responsable afirmó: "Estamos en un momento del ciclo en el que debemos crear la responsabilidad de la propia estructura tecnológica".
nSeñaló que hasta la fecha, la industria ya ha demostrado su incapacidad de prever errores tecnológicos ni sus malas aplicaciones en el mundo real. El software de reconocimiento facial, por ejemplo, ha demostrado su ineficacia para identificar rostros con tonos de piel oscuros . China ha combinado esta herramienta con cámaras de vigilancia para controlar a los miembros de su minoría musulmana uigur y para avergonzar a los supuestos deudores y transeúntes distraídos publicando sus rostros en las vallas publicitarias. Un coche autónomo de Uber golpeó y mató a un peatón el año pasado. Y, según algunos informes, Watson de IBM ha prescrito tratamientos contra el cáncer "inseguros e incorrectos".
nEstos desafíos no harán más que complicarse a medida que la IA mejore su capacidad de distinguir las emociones humanas, mantener conversaciones sofisticadas y crear cuentos, poesía, canciones y cuadros cada vez más indistinguibles de las creaciones humanas, explicó Shum. Estas capacidades emergentes podrían facilitar la producción y difusión de falsos audios, imágenes y vídeos, lo que se suma a los retos de tratar con la propaganda y los bulos online.
nMicrosoft está abordando estos crecientes riesgos de varias maneras. Shum aseguró que la compañía ha mejorado sus herramientas de reconocimiento facial con versiones alteradas de fotos con una variedad más amplia de los colores de la piel, cejas y condiciones de iluminación.
nLa compañía también ha creado un comité de ética de IA y se ha unido a grupos colaborativos de la industria como Partnership on AI. Microsoft "próximamente" agregará un punto de revisión de ética de IA a su lista de verificación estándar de auditorías de privacidad, seguridad y accesibilidad que deberá llevarse a cabo antes de que los nuevos productos se lancen al mercado, explicó Shum.
nPero también reconoció que la autorregulación no es suficiente. De hecho, cada vez más voces de dentro y fuera de la industria tecnológica están pidiendo regulaciones más estrictas sobre la inteligencia artificial. En diciembre, el Instituto AI Now de la Universidad de Nueva York (EE.UU.), un grupo que incluye empleados de Microsoft y Google, argumentó que las agencias gube amentales necesitan más poder para "supervisar, auditar y controlar" estas tecnologías, y pidió una "regulación estricta" sobre las herramientas del reconocimiento facial en particular.
nEl responsable concluyó: "Estamos trabajando duro para superar los desafíos planteados por las creaciones de la IA. Pero son problemas difíciles que no se pueden resolver solo con tecnología, necesitamos la cooperación del mundo académico y la industria. También debemos educar a los consumidores para que sepan de dónde proviene el contenido que están viendo y usando".
n