Tecnología y Sociedad
Microsoft pide al resto de gigantes que se responsabilicen de sus tecnologías
Reconocimiento facial intrusivo e incorrecto, accidentes de coches autónomos... la industria tecnológica se ha demostrado incapaz de prever los peligros de sus creaciones. La compañía está enfocada en su propia autorregulación y pide a empresas y gobiernos que hagan lo mismo
La industria tecnológica debe tomar medidas preventivas para evitar los peligros que irán surgiendo a medida que la inteligencia artificial (IA) se vuelve cada vez más creativa y actúa de manera más parecida a los humanos. Así lo advirtió el y vicepresidente ejecutivo del grupo de investigación e inteligencia artificial de Microsoft, Harry Shum, durante la reciente en la conferencia EmTech Digital de MIT Technology Review. El responsable afirmó: "Estamos en un momento del ciclo en el que debemos crear la responsabilidad de la propia estructura tecnológica".
Señaló que hasta la fecha, la industria ya ha demostrado su incapacidad de prever errores tecnológicos ni sus malas aplicaciones en el mundo real. El software de reconocimiento facial, por ejemplo, ha demostrado su ineficacia para identificar rostros con tonos de piel oscuros . China ha combinado esta herramienta con cámaras de vigilancia para controlar a los miembros de su minoría musulmana uigur y para avergonzar a los supuestos deudores y transeúntes distraídos publicando sus rostros en las vallas publicitarias. Un coche autónomo de Uber golpeó y mató a un peatón el año pasado. Y, según algunos informes, Watson de IBM ha prescrito tratamientos contra el cáncer "inseguros e incorrectos".
Estos desafíos no harán más que complicarse a medida que la IA mejore su capacidad de distinguir las emociones humanas, mantener conversaciones sofisticadas y crear cuentos, poesía, canciones y cuadros cada vez más indistinguibles de las creaciones humanas, explicó Shum. Estas capacidades emergentes podrían facilitar la producción y difusión de falsos audios, imágenes y vídeos, lo que se suma a los retos de tratar con la propaganda y los bulos online.
Microsoft está abordando estos crecientes riesgos de varias maneras. Shum aseguró que la compañía ha mejorado sus herramientas de reconocimiento facial con versiones alteradas de fotos con una variedad más amplia de los colores de la piel, cejas y condiciones de iluminación.
La compañía también ha creado un comité de ética de IA y se ha unido a grupos colaborativos de la industria como Partnership on AI. Microsoft "próximamente" agregará un punto de revisión de ética de IA a su lista de verificación estándar de auditorías de privacidad, seguridad y accesibilidad que deberá llevarse a cabo antes de que los nuevos productos se lancen al mercado, explicó Shum.
Pero también reconoció que la autorregulación no es suficiente. De hecho, cada vez más voces de dentro y fuera de la industria tecnológica están pidiendo regulaciones más estrictas sobre la inteligencia artificial. En diciembre, el Instituto AI Now de la Universidad de Nueva York (EE.UU.), un grupo que incluye empleados de Microsoft y Google, argumentó que las agencias gubernamentales necesitan más poder para "supervisar, auditar y controlar" estas tecnologías, y pidió una "regulación estricta" sobre las herramientas del reconocimiento facial en particular.
El responsable concluyó: "Estamos trabajando duro para superar los desafíos planteados por las creaciones de la IA. Pero son problemas difíciles que no se pueden resolver solo con tecnología, necesitamos la cooperación del mundo académico y la industria. También debemos educar a los consumidores para que sepan de dónde proviene el contenido que están viendo y usando".